Cosas de La Ciencia

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 83

C O S A S D E L A C I E N C I A

P R E S E N T A C I Ó N

El paso del tiempo hace que los recuerdos cambien y el relato de lo


sucedido se vaya transformando. Se hace cada vez más difícil distinguir lo
que es fantasía de lo que fue realidad. Si los recuerdos son gratos y se
rehacen con los amigos, la transformación del pasado aumenta, y lo más
probable es que se convierta en algo aún más grato, aunque no pueda
asegurarse que sea un fiel relato. Todavía puedo asegurar que Fernando
del Río no estaba con nosotros cuando iniciamos el proyecto editorial que
creó Naturaleza. Sin embargo, ahora, para mí, es como si desde entonces
hubiera estado con nosotros. Recuerdo vivamente las interminables
discusiones que tuvimos acerca de cómo divulgar la ciencia por escrito,
así como los innumerables intentos que hicimos juntos para concretar
nuestras ideas y escribir acerca de la ciencia contemporánea en nuestro
idioma. Más adelante Fernando trajo a las páginas de Naturaleza a León
Máximo. Primero en un texto en el que describió un día de investigación
científica entremezclado en el transcurrir de la vida cotidiana. Después
León se unió a nuestra labor divulgadora y se comprometió a hacer una
contribución periódica: la sección "En estos días. . . "

El modelo de trabajo que seguimos en Naturaleza fue el del trabajo


colectivo. Nos reuníamos al menos una vez por semana y trabajábamos
juntos. Aprendíamos unos de otros, nos ayudábamos a escribir, nos
corregíamos y los textos definitivos resultaban muy diferentes del material
inicial. Al releer algunos de los artículos que entonces publicamos nos
resulta ahora difícil señalar quién contribuyó con qué. Lo importante fue
que con un esfuerzo común logramos textos de divulgación de la ciencia
que, hechos de otra manera, hubieran requerido de viejos y
experimentados divulgadores. Nuestro secreto fue unir conocimientos y
entusiasmo de muchos para formar un divulgador de gran talla. Por otra
parte, este método de trabajo nos dio un dividendo inesperado: descubrió
en muchos de nosotros habilidades no aprovechadas hasta entonces.
Encontramos que no sólo podíamos hablar de nuestros conocimientos
científicos en forma accesible al público general, sino que también
podíamos hablar de otros asuntos sin emanciparnos de nuestra formación
profesional y sin rebasar las limitaciones que nos imponía. Para algunos
fue como si hubiéramos encontrado la forma de desdoblarnos en distintas
facetas culturales, una especie de creación de un alter ego en otro
aspecto del quehacer humano. Los dos aspectos de nuestro trabajo,
escribir entre todos como uno solo y hacer que uno mismo realizara dos o
más tareas diferentes, fue un hito en la historia de Naturaleza. Este
desencadenó la revisión de nuestro trabajo y fue el motivo —visto a
posteriori— de que nuestro equipo se reorganizara. Algunos volvieron a
dedicar todo su tiempo al ejercicio de su profesión científica y otros
reafirmamos nuestra decisión de llevar más a fondo la experiencia de la
divulgación de la ciencia.

Este libro contiene una selección de lo que Fernando y León hicieron en


los tiempos que antes apunté y en las condiciones que esbocé. Es una
muestra representativa de lo que lograron con aquel trabajo colectivo y
siento que aquí no pueda presentarse lo que aportaron al grupo, ya que,
como antes dije, nuestro trabajo siempre se caracterizó por dar y recibir,
ya que las presentaciones anteceden al texto de los autores, aprovecho la
ocasión para adelantar al lector dos cualidades que pronto descubrirá en
el libro. La primera de ellas es la clara manifestación de un decidido
propósito de hablar de la ciencia en un contexto amplio. La ciencia es una
parte de la cultura y si no se encuadra en el marco general del quehacer
humano, su mensaje corre el riesgo de falsificarse. La segunda cualidad
es la libertad de moverse en distintos ámbitos y temas. Aunque esto
puede dar la impresión de desorden o de poca relación temática, refleja lo
irregular —irregular para la presentación convencional— que es el avance
del conocimiento científico y lo inesperado de su incidencia en la vida
cotidiana. Espero que el lector disfrute del descubrimiento de los distintos
planos y de la profundidad que Fernando y León apuntan en sus textos y
que así se prolongue la comunicación entre los científicos y sus
congéneres que iniciamos en aquellos días. . .

I . E L A L T R U I S M O Y D A R W I N

DE CUANDO en cuando el nombre de Darwin vuelve a ser noticia en los


diarios. Los culpables son algunos individuos que han sobrevivido con
mentalidad dieciochesca, como eslabones perdidos de algún capítulo
de La Comedia Humana. Nuestros tristes reaccionarios se dan en México
y en otras latitudes, confunden al vulgo y escandalizan a los hombres de
ciencia de buena fe. Aunque el escándalo no lo causan por discutir el
modelo darwiniano, ni mucho menos.

Como toda genuina contribución científica, la teoría de la evolución por


medio de la selección natural se encuentra bajo constante crítica
científica. Se ha pasado así del darwinismo al neodarwinismo y al
neoneodarwinismo. En la ciencia el revisionismo es una virtud y el
dogmatismo un pecado capital. Uno de los puntos que se ha puesto a
discusión es la competencia entre altruistas y egoístas. Cuando chicos, a
todos se nos antojó ser héroes o campeones. Aquiles, Tarzán, Napoleón,
el Santo y todos los demás miembros del panteón de héroes infantiles son
individuos valerosos, pero poco altruistas. El verdadero altruismo tiene
siempre un tanto de martirio y nuestro egoísmo innato (o asimilado) nos lo
hace poco atractivo. Sin embargo, el altruista, que pone en peligro su vida
para asegurar la supervivencia de su familia o grupo social, pese a estar
desapareciendo de la especie humana contemporánea, tiene su lugar en
muchas especies animales "inferiores".
Pero ¿qué tienen que ver los mártires con Darwin? Pues que el héroe
altruista se sacrifica por un grupo y Darwin supuso que la selección actúa
sólo sobre los individuos, suposición que se mantiene en la teoría
moderna: es el individuo mejor dotado en sus genes el que transmite su
ventaja a sus descendientes. En apariencia, esto le daría la delantera al
cínico y al egoísta, y condenaría a los genéticamente altruistas al
exterminio. Esta conclusión se demostró falsa por demasiado ingenua. De
hecho existen especies de aves en las que el altruismo de los padres es
más la regla que la excepción. Gilpin, en su libro Group Selection in
Predatory-Prey Communities, y Wilson, en la revista de la Academia de
Ciencias de los EU, han propuesto dos modelos distintos que muestran,
uno independiente del otro, que no sólo los grupos menos egoístas
tienden a predominar (lo que es obvio), sino que el número relativo de
altruistas en una población tiende a aumentar. Y esto sin violentar la
acción de la selección sobre los individuos.

De manera que podemos vivir tranquilos sabiendo que la selección


natural condena al exterminio a las sociedades o grupos donde
predominen los egoístas. Lo que quita el sueño es pensar si la raza
humana no se encuentra ya cerca de tal situación.

I I . M O L É C U L A S E N E L E S P A C I O

EL MUSEO molecular del espacio interestelar se enriquece poco a poco


con nuevas especies. Los radioastrónomos del Observatorio de Green
Bank de Virginia, EU, han identificado al radical etinilo C2H, que viene a
agregarse a las docenas de moléculas que pueblan el espacio
interestelar, antes considerado desierto y aburrido. Este radical no se ha
podido observar en fase gaseosa en ningún laboratorio.

Pero el espacio interestelar no es el único lugar en el que se descubren


nuevas moléculas. Gracias a modernas técnicas de análisis
(espectroscopía fotoelectrónica de rayos X), el doctor Tihomiv Novakov
del Laboratorio Lawrence de la Universidad de California en Berkeley hizo
el sorpendente descubrimiento de que el 90% del nitrógeno de los
contaminantes atmosféricos no está en los compuestos y formas químicas
en que se creía. Este descubrimiento hará cambiar, sin duda alguna, el
tipo de medidas que en los países industrializados se toman para
combatir la contaminación. Por lo que toca al Tercer Mundo, el
descubrimiento no deja de ser bizantino. ¡Si ni siquiera ha podido lograrse
que los camiones y autobuses oficiales dejen de contaminar
aparatosamente nuestro ambiente!
I I I . L A E L E C T R O D I N Á M I C A Y E L
P O S I T R O N I O

LA ELECTRODINÁMICA cuántica es el máximo exponente de las teorías


físicas, el más refinado y exacto modelo científico. Ello no se debe a que
los físicos hayan discriminado otras teorías, sino a que la naturaleza
parece haber conspirado en lograrlo. El ideal de la física, como hoy nos lo
podemos imaginar, sería tratar adecuadamente las cuatro interacciones
fundamentales que hay en la naturaleza (la gravitatoria, la débil, la
electromagnética y la nuclear) en el contexto de las teorías cuánticas y
relativistas. Pero este ideal está más remoto que la paz mundial y la
justicia social: las fuerzas nucleares, cuyo misterio se ha develado con el
modelo de los cuarks, son muy complejas, la gravitación ha probado ser
reacia a cuantizarse y la interacción débil ha mostrado ser particularmente
elusiva. Así las cosas, sólo las fuerzas entre cargas eléctricas han podido
incorporarse en una teoría elegante, exacta, sin transacciones: la
electrodinámica cuántica (EDC).

Mas esta catedral de la física teórica presenta problemas de


comprobación experimental: en casi todos los sistemas físicos se cuela,
sin que la inviten, alguna de las otras antipáticas interacciones; en casi
todos, excepto en un efímero ejemplo: el positronio. Éste es un átomo
semejante al del hidrógeno, pero con un positrón en lugar del protón que
le sirve de núcleo. Ésta es toda la diferencia que hace al positronio el
sistema predilecto de la EDC. Como el positrón es la antipartícula del
electrón, idéntico a éste, excepto en su carga que es positiva, el positronio
no tiene un núcleo "nuclear": es puramente electromagnético.

Desgraciadamente, la pareja electrón-positrón que forma el positronio,


además de reunirse por la irresistible atracción eléctrica, tiene una
maniaca tendencia a la autodestrucción: el electrón y el positrón
desaparecen después de un corto abrazo. El único resultado de ese
matrimonio suicida es una descendencia de uno o dos rayos gamma. Y el
enlace dura demasiado poco para cualquier norma, en el mejor de los
casos un diezmillonésimo de segundo. No obstante lo corto del lapso, en
él girarán unidos durante medio millón de vertiginosas vueltas. Es en este
positronio, microscópico y efímero, donde la EDC busca su mejor
comprobación.

Hace varios decenios Martín Deutch encontró un positronio en su


laboratorio del Massachusetts Institute of Technology. Pero no fue sino
hasta hace poco que se pudo observar, en la Universidad Brandeis, uno
de sus estados excitados. Las predicciones de la EDC se han visto
confirmadas con gran precisión en estos experimentos, se han reducido
las fuentes de incertidumbre y ha aumentado así la confianza de los
físicos en la electrodinámica cuántica.
I V . F O U R I E R Y L A M Ú S I C A

TODO amante de la "buena" música se ha visto expuesto a alguna


variedad de música electrónica, concreta o de computadora. Y el futuro
guarda más grandes sorpresas, que esperamos armoniosas los de oído
conservador a pesar de su novedad. Durante los últimos años,
investigadores musicales de los dos Cambridges (el de Inglaterra y el de
Massachusetts) y de París, han desarrollado una manera radicalmente
nueva de analizar y sintetizar sonidos musicales. El elemento esencial es
una computadora, pero no para hacer la chamba del compositor, sino
para crear los sonidos que él todavía tendrá que "componer".

El modo tradicional de considerar un sonido musical lo caracteriza por su


intensidad, su tono o frecuencia dominante y su timbre. Ésta es una
descripción demasiado simple y primitiva, en donde todas las
complicaciones se barren debajo del significado de "timbre". Describir
adecuadamente la riqueza de la música con tan pobres elementos es
equivalente a tener críticos de pintura que fuesen daltónicos. Para superar
la clásica terna intensidad-tono-timbre, que se ha incrustado en el alma de
la música occidental, se usa una técnica matemática, desarrollada hace
más de siglo y medio por José Fourier y publicada en su libro Théorie
analitique de la chaleur. José fue profesor de la Escuela Politécnica,
contemporáneo y quizá pariente de Carlos, el profeta social, autor de
la Théories des quatre mouvements.

El análisis a la Fourier de un sonido lo descompone en todas y cada una


de las frecuencias que lo forman, y le asigna a cada frecuencia una
intensidad o amplitud específica. Al conjunto de frecuencias amplitudes se
le llama el espectro del sonido analizado. El uso de la espectrometría de
Fourier junto con una computadora forma un "instrumento musical"
muchísimo más flexible que cualquiera existente. Todavía falta mucho
para que nos deleitemos con un concierto para computadora (o para que
nos veamos forzados a aguantarlo ¡todo dependerá del compositor!), pero
ya las primeras experiencias muestran un mundo musical extraordinario.

¿Quién no ha sufrido en alguna pesadilla la sensación de caer, y caer y


seguir cayendo? ¿Quién no ha aguantado a algún conocido que habla
continuamente sin nunca decir nada nuevo? Pues el equivalente de estas
sensaciones ha podido sintetizarse musicalmente con la combinación
Fourier-computadora: un sonido que de manera continua nos parece estar
cambiando de tono, volviéndose más y más grave, así lo escuchemos
durante tres meses seguidos... pero el sonido permanece siempre igual a
sí mismo. Este sorprendente efecto se logra aprovechando que nuestra
sensación de tono (y de su cambio) no está determinada únicamente por
la "frecuencia" del sonido, cuando éste es complejo, ya que,
sencillamente, un sonido complejo no tiene una sola frecuencia, y ni
siquiera bastan para definirlo sus armónicos principales. La sensación de
"un" sonido es el resultado de toda una serie de ondulaciones de distintas
frecuencias, cuyas importancias relativas cambian rápidamente con el
tiempo.

No obstante, nuestra percepción auditiva no distingue todas las


componentes y es por ello que podemos ser engañados por los sonidos.
Esto mismo nos ocurre con muchas "ilusiones ópticas" como las de los
conocidísimos dibujos de Escher; éstos aprovechan nuestra capacidad
adquirida para "ver" objetos en tres dimensiones cuando están
representados en una lámina o dibujo de sólo dos.

V . O P I N I Ó N S O B R E L A C I E N C I A

LOS científicos mexicanos parecen condenados a nunca convencer a


nadie que la ciencia no es lo mismo que la tecnología. Pero no deben
desesperar. Puede que llegue un día en que el público tenga la misma
opinión que 980 californianos, quienes fueron sujetos de una encuesta.

Un resumen del informe apareció en Science y por él nos enteramos que


ese Estado del vecino país, el público distingue claramente entre el
resultado del trabajo tecnológico y el del científico, y que está seriamente
preocupado por el impacto de la tecnología y por el tipo de decisiones que
se hacen al respecto. Así, como muestra, el 46% estuvieron
decididamente de acuerdo con la postura de que "la ciencia es buena y su
aplicación mala", mientras que sólo 6% estuvieron decididamente en
contra.

V I . E l G R A N P U M

Así como cada cabeza es un mundo, cada científico es una teoría del
Universo. Las hay de chile, de dulce y de manteca... literalmente para
todos los gustos. Jorge Gamow fue el campeón de la teoría del Big
Bang —lo que en castilla llamaríamos el Gran Pum—, que vino a
tranquilizar a todos los que no podían dormir pensando que el Universo
no tuvo un origen. El Gran Pum, que es la hipótesis científica más
aceptada actualmente, fue el estallido de toda la masa del Universo hace
cosa de 15 mil millones de años. El abad belga Jorge Lemaitre fue otro de
los grandes sustentadores de la teoría del Gran Pum, y don Manuel
Sandoval Vallarta contribuyó a su sostén con sus magníficos trabajos
sobre los rayos cósmicos, allá por la década de los treinta. Pero como
también hay científicos que no pueden conciliar el sueño pensando que el
Universo sí tuvo un origen, el polémico Fred Hoyle salió una vez más a su
rescate. (Hoyle fue el campeón del segundo equipo mencionado, hace
cosa de 30 años, con su teoría del estado estacionario.)
Hoyle acepta las pruebas observacionales que apuntan hacia la
ocurrencia del Gran Pum (y no podía menos que hacerlo), pero al mismo
tiempo, mediante un agilísimo juego mental digno del mejor prestidigitador
intelectual, lo desaparece: en vez de escondérselo en la manga,
sencillamente ha reinterpretado las pruebas, aprovechando para ello la
posibilidad de medir cualquier cosa en términos de distancias y tiempos.
De esta manera y después de muchos vericuetos, Hoyle reduce la
"creación del Universo" a un momento donde su masa era cero.

V I I E l N O R T E E N E L S U R

EN OTRO lugar hablamos del descubrimiento de la que bien puede ser la


más reciente inversión del campo magnético terrestre, hace cosa de 10
000 años. Cabe ahora referirnos a quien puede haber sido el descubridor
involuntario de que el Norte estuvo alguna vez en el Sur.

El capitán Juan De Castro, navegante portugués, llego en uno de sus


viajes a la isla de Chaul, cerca de la India, por ahí de 1538. En la bitácora
del viaje, De Castro relata cómo, al explorar la isla y hacer observaciones
para determinar sus coordenadas geográficas, colocó la brújula en una
roca y notó que el norte de la aguja giró para apuntar hacia el sur. De
Castro tuvo cuidado de comprobar que la roca en cuestión no era de
imán, con lo que descubrió serendipidosamente el magnetismo de las
rocas. Desafortunadamente, De Castro no menciona si la roca susodicha
mantenía su posición natural a su formación, y por ello no es seguro que
la magnetización invertida de esa roca haya sido una prueba precursora
de las inversiones del campo terrestre.

V I I I . L A E D A D D E L H I E R R O

ES INTERESANTE averiguar por qué las antiguas civilizaciones de


Mesoamérica no habían llegado a la Edad del Hierro. Algunos espíritus
simplones gustan reducir todo un complejo fenómeno cultural a un solo
parámetro: si una sociedad no domina las técnicas del bronce y el hierro
debe clasificársele como neolítica, en el mejor de los casos. Esta visión
unidimensional de la cultura parecía una prueba más de que,
sencillamente, "no estamos hechos" para la tecnología. Mas ahora
nuestro ego nacionalista puede estar más a gusto gracias a una
investigación realizada en la Universidad de Pennsylvannia, y que
indirectamente ilumina la cuestión.

Sucede que una arqueóloga (Tamara Stech), un metalurgista (R. Maddin)


y un historiador (J. D. Muhly) se pusieron a estudiar con detalle la
transición de la Edad del Bronce a la del Hierro, que ocurrió cosa de 2500
años antes de nuestra era. La combinación de sus diversos talentos
permitió integrar una visión muy completa de esa revolución, tan
importante en el desarrollo de las civilizaciones, además de aportar
algunas explicaciones frescas y novedosas. La conclusión a la que
llegaron es que el cambio al hierro no se dio sólo porque este metal sea
"mejor", sino simplemente porque el estaño (uno de los dos componentes
del bronce) sufrió una escasez mayor que si hubieran existido nuestros
modernos acaparadores. Según esta investigación, la técnica para
obtener el hierro y fabricar objetos con él se conocía en el Cercano
Oriente varios siglos antes de que su uso se generalizara. Fue la aguda
escasez del bronce lo que empujó a esas civilizaciones a buscarle un
sustituto adecuado, mediante un proceso que llevó unos 500 años.

La explicación de Stech, Maddin y Muhly es novedosa por su énfasis en la


importancia de la necesidad: mientras las sociedades podían seguir
satisfaciendo sus necesidades económicas y bélicas con el bronce, el
hierro estuvo relegado a piezas de ornato y de magia. Es en esencia el
mismo tipo de mecanismo social al que Arnoldo Toynbee llamaba "la
virtud de la adversidad" Entonces, en una cultura donde no escaseara el
material en boga (ya sea piedra o metal), y que no estuviera en
competencia desventajosa con otra cultura, no aparecería la necesidad de
hacer ningún cambio tecnológico. Este mismo argumento serviría también
para explicar por qué los nahuas usaban juguetitos con ruedas (como los
que están en nuestros museos), y sin embargo nunca construyeron una
carreta tamaño adulto. Mientras no escasearan los macehuales para
cargar...

I X . ¡ S E P A G Ö D E L !

ESTAMOS acostumbrados a encontrar problemas irresolubles: basta leer


todos los días el periódico para encontrar muchos ejemplos. Quizá por
esto, muchos son atraídos (o repelidos) por las ciencias "exactas", en
especial por las matemáticas. ¡Qué hermosa disciplina! En ella todo es
verdadero, seguro y exacto. Y si alguien no puede resolver un problema
matemático no es culpa de esa ciencia, sino muestra de idiotez. Pero los
matemáticos saben desde hace tiempo que sí hay problemas
matemáticos irresolubles. Algunos de ellos son muy famosos, como el de
la cuadratura del círculo y la trisección del ángulo, que dicen que es
imposible hacer ciertas cosas siguiendo las reglas de la clásica geometría
griega. Este tipo de problemas son imposibles de resolver porque las
reglas que se estipulan son demasiado estrechas y agobiantes.

Hay otros problemas que son irresolubles en un sentido más profundo. En


1931, Kurt Gödel demostró que hay juicios o enunciados dentro de casi
cualquier sistema de axiomas, que nunca pueden ser probados falsos o
verdaderos. Esto quiere decir que no se puede decidir si uno de esos
enunciados está "bien" o "mal": son sujetos de indecisión. El trabajo de
Gödel es el elemento clave del interesantísimo libro de Douglas
Hofstadter, físico e hijo de físico, Gödel, Escher, Bach, desgraciadamente
muy mal traducido al español.

A partir de la prueba de Gödel, muchos matemáticos se han puesto a


buscar ejemplos, examinando entre otros, problemas que son "candidatos
al infierno de la indecisión perpetua", como los llamó L. A. Steen. Entre
esos candidatos están el famoso teorema de Fermat, y estuvo la no
menos célebre conjetura de Poincaré de los cuatro colores. De este safari
los matemáticos han regresado ya con algunos ejemplares auténticos de
indecibilidad, como la conjetura de Jorge Cantor acerca de los tamaños
relativos de subconjuntos de los números reales.

Para probar la indecibilidad de una afirmación es necesario encontrar por


lo menos un caso en el que sea verdadera y otro en el que sea falsa (sin
hacer trampas). Esto lo logró Pablo Cohen para la conjetura de Cantor por
ahí de 1963 y después se han dado otros ejemplos.Gracias a ellos, hoy
podemos afirmar que "quién sabe" es una legítima respuesta matemática.

X . E L F R Í O F U T U R O

LOS climatólogos se enfrentan a una gran dificultad: llegar a saber si los


cambios recientes en el clima de la Tierra son indicación de una tendencia
mayor o si sólo representan una pequeña oscilación. Es como ir en una
montaña rusa con los ojos vendados: ¿es esta bajadita el comienzo de
una bajadota de miedo, o es sólo lo que viene antes de una subida?

No obstante que tal dificultad no se ha podido superar, hay indicios que


señalan como lo más probable un frío futuro. Por un lado, se sabe que el
clima al que nos hemos acostumbrado es excepcional. Los últimos 10 000
años, que han visto el nacimiento de todas las civilizaciones y la muerte
de casi todas, han sido los más calientes dentro del último millón; a su
vez, el último siglo ha sido el más caliente desde que coronaron a
Carlomagno.

Por otro lado, ya se detectó, a partir de 1940, un gradual enfriamiento


global que podría ser el principio de una tendencia a largo plazo. La
incertidumbre en las predicciones es una simple consecuencia de nuestra
ignorancia acerca del sistema climático terrestre. Aun si no se desatara
una nueva glaciación, los efectos del enfriamiento en nuestra forma de
vida serían muy profundos, ya que el cambio global bien podría ser de
unos 10°C y ocurrir en menos de 100 años. Si esto ocurriere, extensas
zonas hoy templadas se volverían inhabitables y bajaría notablemente el
nivel de los océanos: no será sólo cosa de comprar ropa más gruesa para
el invierno.

X I . L A S U P E R F I C I E D E L A S E S T R E L L A S

LAS estrellas, que vemos como simples puntitos luminosos en cualquier


noche despejada —mientras evitemos la turbia atmósfera de la ciudad—,
nos han ido revelando sus secretos más íntimos gracias al esfuerzo
colectivo de generaciones de astrónomos. Se ha descubierto cómo saber
a qué distancia se encuentran de nosotros, de qué están compuestas,
cuál es su estructura interior y cuáles sus posibles historias.

No obstante todos estos adelantos, por mucho tiempo fue imposible


observar la superficie de uno de esos puntitos. La estrella Betelgeuse,
800 veces mayor que el Sol y a 500 años-luz de nosotros, fue la primera
en dejarnos ver su superficie. Gracias a una fina técnica analítica puesta a
punto en la década de los setenta se evitó la confusión producida en las
imágenes por los cambios atmosféricos; de tal modo, astrónomos del
observatorio Kitt Peak de Arizona pudieron reconstruir una imagen de
Betelgeuse que muestra regiones de muy variadas temperaturas. Estas
variaciones son manifestación aparente de los flujos convectivos desde el
interior de la estrella.

X I I . P I O T E R A P I A

LA VERDADERA revolución en medicina está todavía lejos de producirse,


sujeta como está hoy al uso casi exclusivo del método empírico, del
ensayo y error. Pero el arsenal del médico se ha modificado de raíz y los
hospitales modernos parecen laboratorios de investigación, con la
añadidura de necesitar grandes inversiones en equipo muy refinado.

Las técnicas de radioterapia se han desarrollado paralelamente a las de la


cirugía, con las que guardan parentesco (eliminar los tejidos, tumores u
órganos por malignos, inútiles o estorbosos). Y así como un cirujano se ve
forzado, en la mayoría de los casos, a cortar por lo sano, la aplicación de
radiación para la destrucción de células cancerosas tiene que irradiar por
lo sano las células circundantes. Esto ocurre porque los rayos gamma o
los electrones que se usan en radioterapia tienen que cruzar
necesariamente los tejidos sanos para llegar al tumor o región cancerosa.

Quizá en un futuro próximo estos problemas se reduzcan gracias a la


irradiación con unas partículas subnucleares, descubiertas por la física de
grandes energías: los piones (o mesones ). La gran ventaja potencial de
estos bichos en la radioterapia, según los doctores Bagshaw, Kaplan,
Shewttman, Boyd y Fairbank de la Universidad de Stanford, es que se
puede controlar el daño que producen en un tejido. A diferencia de las
radiaciones comunes en terapia, los piones causan poco daño a un tejido
cuando lo atraviesan a toda velocidad, pero al detenerse producen una
reacción en el núcleo de algún átomo. Son estas "bombitas" las que
podrían utilizarse para destruir el tejido indeseable. Se espera que la
pioterapia tenga una eficacia tres veces mayor, para la misma dosis
radioactiva, que los métodos convencionales, por lo que los generadores
de piones se han estado desarrollando desde hace varios años para ser
usados en medicina.

X I I I . E L G R I S Y L A T V

A PESAR de la miniaturización de la electrónica, las televisiones siguen


siendo muebles anchos, pesados y estorbosos. El principal problema ha
consistido en construir un cinescopio plano, y no se ha podido resolver
con los tubos de rayos catódicos usados corrientemente. Desde hace
varios años se pensó en construir un cinescopio con miles de foquitos de
plasma, pero el problema es que se lograba una imagen sin tonalidades ni
grados de brillantez: el gris correspondía a un foquito medio apagado... y
eso no podía ser. Una salida frente a esta dificultad es que los foquitos se
enciendan intermitentemente, de modo que la brillantez sea proporcional
al tiempo que se la pasan prendidos, como se demostró en una
investigación de la compañía Hitachi del Japón y de la Universidad de
IIIinois.

X I V . C A M P E O N A S Y C A M P E O N E S
CON la insurgencia feminista se han reconsiderado muchas cosas, y
entre otras están las hazañas deportivas de las mujeres. El doctor Ken
Dyer, profesor de biología social en la remota Universidad de Adelaida en
Australia, llevó al cabo un análisis comparativo de las marcas deportivas
de las mujeres y los varones hace varios años. El interés del doctor Dyer
se concentra en el atletismo y la natación, ya que en estos deportes las
competencias pueden considerarse como experimentos biológicos,
realizados en condiciones bien definidas y controladas, y cuyos resultados
se registran con gran precisión.

El resultado del análisis comparativo no deja de ser elocuente. En las


siete competencias de pista sobre distancias cortas, la diferencia
promedio entre las marcas de los varones y de las mujeres era del 15%
en 1956 y se redujo al 10% en 1976. Si bien las carreras más largas
estuvieron vedadas a las mujeres hasta hace poco, sus marcas están
acercándose paulatinamente a las de los varones; a finales de los
setenta, la señorita Chantal Langlace corrió los 42 kilómetros y pico del
maratón tan velozmente, que hubiera ganado la medalla de bronce en las
Olimpiadas de 1948 y la actual campeona de 3 000 metros con
obstáculos hubiera derrotado con amplitud al famoso Paavo Nurmi en sus
mejores épocas.

En las competencias de natación, las diferencias entre las marcas de los


atletas de uno y otro sexo —los que son de "ambos sexos", como
anuncian en los diarios, todavía no concursan oficialmente—, se han
reducido todavía más rápidamente que en atletismo. La diferencia media
en las siete competencias reconocidas para ambos en 1956 era del 12% y
para 1976, en un total de 15 marcas, esa diferencia se había reducido al
9%. Además, la marca mundial de la travesía del Canal de la Mancha
perteneció durante varios años a una mujer y era mejor en un 8% a la de
los hombres. En estos aspectos, dijo Dyers, "los factores sociales han
sido consistentemente subestimados. Claramente, eran los prejuicios
sociales y no el conocimiento biológico los que impedían que, hasta muy
recientemente, las mujeres compitieran en tantas disciplinas". Quizá
llegue el tiempo en el que las atletas compitan al tú por tú con sus colegas
varones y en el que, más importante aún, se reconozca en la práctica la
igualdad de todos como seres humanos. Aunque hay que esperar que
perduren, para beneficio de todos, ciertas obvias diferencias.

X V . L A R O Y A L I N S T I T U T I O N

LA DESHUMANIZACIÓN del arte se puso de moda con Ortega, pero


nadie se ha preocupado de la ciencia. Ésta se ha cosificado y así como se
puede hablar del arte-objeto, también es posible identificar la ciencia-
objeto.

Hoy día tenemos ciencia-útil, ciencia-motivo-de-conversación; ciencia-


justificadora-de-planes-gubernamentales, y en fin, ciencia-cosa que ha
convencido incluso a muchos científicos, medrosos de llegar a ser
hombres de ciencia. No debería olvidarse este fenómeno cuando se habla
de la tradición científica que requiere el país, pues hay de tradiciones a
tradiciones.

En 1800 se fundó en Inglaterra una casa muy particular, la Royal


Institution, por la instigación de ese aventurero de la acción y del intelecto
que fue Benjamín Thompson. La inestabilidad del fundador —que la
abandonó de apenas cuatro años para ir a cortejar a la viuda de Lavoisier
— no se transmitió a su obra, la cual constituyó una pieza clave de la
mejor ciencia decimonónica. Al dejarla Thompson, la Royal
Institution quedó en manos de Tomás Young, quien además de investigar
los fenómenos de interferencia de la luz, contrató como ayudante a
Humphry Davy. Inventor de la lámpara de arco, estudioso de la
electroquímica y descubridor de elementos como el sodio, el potasio, el
estroncio y el calcio, Davy hizo su mayor descubrimiento en la persona de
Miguel Faraday. Éste vivió en la Royal Institution, donde además de llevar
al cabo sus investigaciones acerca del electromagnetismo y la
fisicoquímica, hizo famosas sus conferencias navideñas para jóvenes,
que otros han seguido impartiendo sin interrumpción hasta nuestros días.

Entre los que pasaron por la Royal Institution como conferencistas o


profesores (léase también investigadores) están Juan Dalton, Juan
Guillermo Strutt —mejor conocido como Lord Rayleigh—, José Juan
Thomson, Ernesto Rutherford y Jaime Jeans, para sólo mencionar a los
"clásicos". En ese mismo lugar se hizo pública la teoría atómica y el
descubrimiento del electrón.

La Royal Institution encamina sus actividades en tres direcciones: avanzar


en el conocimiento mediante la investigación, estimular la mejor
comprensión de la ciencia y cuidar el edificio que la alberga, el cual
contiene entre sus muros los recuerdos obvios o sutiles de muchos
hombres de ciencia que ahí vivieron. Su actual director, Jorge Porter,
premiado con el Nobel y descubridor de la fotólisis relámpago, se refiere a
estas tres funciones como a una triple alianza: historia, exposición e
investigación. La tradición que ahí se cultiva permanece siempre vigente
al cuidar el pasado en sus fuentes, el presente en las nuevas
investigaciones, y el futuro en las jóvenes generaciones. Así como la
rotación de cultivos y la selección de semillas ayuda al mejor
aprovechamiento del suelo, en la Royal Institution florecen continuamente
las investigaciones, gracias a la rotación de investigadores —todos tienen
contratos por tiempo fijo— y al cuidado en escogerlos; con ello los
distintos temas de investigación se suceden unos a otros natural y
fructíferamente. Ser contratado por la Royal Institution está lejos de
constituir un "hueso"; es una oportunidad magnífica y una seria
responsabilidad en investigación y difusión.

X V I . E L A P E L L I D O D E N E S S I E

PARA proteger un monstruo hipotético, lo primero es escogerle un


nombre en latín. Tal cosa han hecho Roberto Rines, bostoniano, y Pedro
Scott, escocés con redundancia, con el famoso monstruo del lago Ness
en Escocia. Tal bicho, al que los nativos del lugar y sus admiradores
llaman familiarmente Nessie, tiene una existencia hipotética que pretendió
confirmarse mediante fotografías submarinas y registros de sonar que
armaron revuelo en la Gran Bretaña. Aunque no lograron convencer a los
incrédulos, el estudio de las fotografías suministró un nuevo aire de
respetabilidad a la "porra" de Nessie, incluyendo a Rines y Scott. Para
aprovechar la propaganda y cumplir con una ley británica que exige un
nombre científico para cualquier animal que deba ser protegido de la
extinción, Rines y Scott propusieron en la prestigiosa revista Nature el
nombre oficial de Nessie: Nessiteras Rhomboteryx y que quiere decir algo
así como: maravilla de Ness con aleta romboidal.

X V I I . E S T A D Í S T I C A S N O B E L

LAS estadísticas de premios Nobel permiten un somero análisis del


número de científicos que han logrado esa distinción por país, por
habitante y por decenio. Salta a la vista que la nación nobelísticamente
más productiva per capita es la tranquila y rica Suiza; en los cinco
decenios cuando algún suizo ha sido galardonado, el número de
premiados por cada 10 millones de habitantes ha tenido para ese país un
mínimo de 0.278 y un máximo 0.667 por año. En comparación, el máximo
para los EU es de 0.175, para Alemania fue de 0.230 —antes de la
segunda Guerra—, para la Gran Bretaña es de 0.238 y para Francia de
0.153. Pero la mejor marca en este renglón la tiene Holanda, país que en
la primera década del siglo obtuvo 0.727 premiados al año por cada 10
millones de habitantes. Este récord, trasladado a México, significaría 5.6
premios Nobel por año. En números absolutos —ya no relativos a la
población—, el récord lo tienen los EU en la década de los cincuenta con
29.

Más interesantes son las variaciones con el paso del tiempo y con el
cambio de sistema económico. Los nueve premiados de la URSS —dos
de ellos prerrevolucionarios—durante los primeros 76 años del Nobel, no
corresponden a su gran calidad y productividad científica, sobre todo
desde la segunda Guerra Mundial. Es evidente una discriminación fácil de
detectar aunque difícil de cuantificar.

La segunda Guerra Mundial señala la traslación de la actividad científica


hacia los EU. Hasta 1940 hubo 15 premiados norteamericanos, contra 23
británicos, 36 alemanes y 15 franceses. Pero, por ejemplo, desde 1940 y
hasta 1977, se dieron premios a 5 franceses , 15 alemanes, 35 británicos
y 90 norteamericanos. La estadística posterior a1977 muestra la misma
tendencia, aunque el risorgimento científico en Francia, Alemania y, en
menor medida, Italia, ha hecho que ganen de nuevo varios premios
Nobel, sobretodo en física y medicina. Suiza y Holanda muestran una
disminución a partir de la Primera Guerra Mundial y la Gran Bretaña llega
a su máximo en el decenio de los setenta, con una firme tendencia a la
baja desde entonces. Los premios Nobel y sus estadísticas son, tanto
muestra de la actividad científica de los que los reciben, cuanto de su
influencia sobre quienes los otorgan.

X V I I I . V Í C T O R W E I S S K O P F

SI ALGUIEN es la conciencia parlante del científico de un país


desarrollado, ese alguien podría ser Víctor Weisskopf profesor
del Massachusetts Institute of Technology. Exdirector del Centro Europeo
de Investigaciones Nucleares y físico de primera desde hace mucho,
Weisskopf no ha dejado de analizar la relación entre la ciencia y la
sociedad con una mentalidad que bien refleja el mejor pensamiento
occidental contemporáneo. En una reunión de la Sociedad
Norteamericana de Física, convocada para conmemorar los 40 años del
descubrimiento de la fisión nuclear por Hahn y Strassman, Weisskopf
platicó acerca del "Peligro y la Esperanza". La visión científica de
Weisskopf se manifiesta en varios puntos de su discurso: "Claramente
hay algo diferente en los últimos desarrollos de la física que me gustaría,
llamar el brinco al cosmos. Anteriormente estábamos principalmente
interesados en procesos similares a los que ocurren en nuestro medio
ambiente terrestre. En las últimas décadas, sin embargo, hemos dado un
paso decisivo: ahora tratamos con fenómenos exclusivamente
extraterrestres."

Para Weisskopf no es novedad la ambivalencia de los descubrimientos


científicos: "De vez en vez, nuevos descubrimientos llevan a nuevas
armas, a nuevas fuentes de energía y a innumerables aplicaciones de las
que mucho bien ha surgido y también algunos resultados que no han sido
buenos. En los últimos 20 años se ha puesto de moda enfatizar el no tan
bueno; pero seamos objetivos y justos." Esta postura optimista no es
gratuita, Weisskopf la adquiere de estudiar la historia —él es un ejemplo
de científico "culto" en la mejor acepción del término—. Para Weisskopf, la
terrible potencialidad de desentrañar los secretos de las fuerzas nucleares
y de los procesos de la vida tiene antecedentes en la coexistencia de las
catedrales góticas con las cruzadas de hace 700 años; del arte y la
filosofía del Renacimiento con las guerras religiosas hace 500 años; de la
música de Mozart y Beethoven con los barcos de esclavos de hace siglo y
medio; en nuestro siglo han dado la mecánica cuántica y la teoría de la
relatividad al mismo tiempo que los periodos de nazismo y fascismo.

De lo que obviamente no puede escapar Weisskopf es de la perspectiva


de ciudadano del Primer Mundo. Tiene razón en afirmar que el peligro del
armamentismo nuclear es real y muy superior a los posibles peligros de
los reactores nucleares —punto que muchos críticos han dejado pasar de
lado—. Pero su perspectiva primermundista sobresale cuando afirma que
"la abolición de las armas nucleares debe tener prioridad absoluta; todo lo
demás debe subordinarse a esa meta". Las tensiones entre el mundo
desarrollado —sea primero o segundo— y todos los demás, producen
tanta o más muerte, hambre y sufrimiento que una bomba atómica; y la
situación sigue empeorando.

Desgraciadamente y "por construcción" —como dicen los científicos— no


hay quien tenga una visión personal, interna y clara, objetiva y moderna,
tanto de la situación del llamado Tercer Mundo cuanto de las fronteras
amplias de la ciencia. Si nuestros científicos y filósofos de veras son las
peras del olmo, un filósofo de la ciencia autóctono y talentoso es tan
escaso que no se ha dado.

X I X . R A Y O S Y C E N T E L L A S

A NADIE le ha caído nunca un rayo por la sencilla razón que los rayos no
caen... sino que salen del suelo. Así que por corrección habría que decir:
"A Pedro le salió un rayo." Aunque esto ya se sabía desde hace tiempo, la
investigación sobre rayos, truenos y relámpagos se veía limitada por no
poder producirlos a voluntad. En los últimos años, los doctores Fieux y
Gary han estado echando rayos y centellas desde un laboratorio en el
Macizo Central en Francia. Los rayos producidos llevan una corriente
eléctrica de entre 2 y 20 kiloamperes, y suben con velocidad de 20
kilómetros por segundo o de 100 km/s, más o menos, dependiendo de si
la nube hacia la que suben está cargada negativa o positivamente. Como
fenómeno sorprendente, Fieux y Gary observaron una "bola de fuego",
probablemente producida por una nubecilla de gas incandescente, que
podría tener algo que ver con lo que ellos llaman" el folclor de las
centellas".

X X . M E N S A J E S C I F R A D O S

LAS novelas de espionaje son bestsellers y los mensajes cifrados tienen


una gran popularidad. Pero el desarrollo de claves y cifras complejas tiene
un profesionalismo que ha hecho avanzar a la criptología hasta alturas
que antes no se imaginaban. Los mejores clientes de los descifradores
son los gobiernos de los EU y de la URSS, los cuales —además de
muchos otros problemas imaginables— se enfrentan a dos que no son
ningún secreto: el mando y control del armamento nuclear, y la
supervisión del siempre anunciado y nunca alcanzado Tratado de
Prohibición de Pruebas Nucleares (TPPN). En ambos casos es necesario
tener una comunicación en clave que el "enemigo" o "competidor" no
pueda descifrar.

La supervisión del TPPN es particularmente ilustrativa: la URSS ha


aceptado que EU coloque en su territorio sismógrafos que registren y
transmitan los datos acerca de sismos que podrían provenir de
explosiones nucleares. Los sismógrafos estarían en recipientes sellados
—para evitar que les metan mano— y transmitirían la información a
los EU. Pero cabría la posibilidad de que los soviéticos manipularan dicha
información, por lo que los norteamericanos proponen que ella esté
cifrada. Sólo que entonces cabría también la posibilidad de que los
norteamericanos usaran los"sismógrafos"para algún otro avieso propósito;
por lo que, a su vez, los soviéticos exigen que sólo vaya cifrada una parte
—indeterminada— de las transmisiones; esta parte serviría de sello de
garantía ante posibles manipulaciones; demandan, además, conocer la
clave de esas partes cifradas un mes después de que hubieren sido
transmitidas. Los norteamericanos han aceptado estas exigencias y se
enfrentan ahora al problema de generar una clave distinta cada mes o,
más ambiciosamente, de tener una clave tal, que el conocimiento de su
aplicación a casos particulares no permita el descifre de nueva
información.
Ante esta peliaguda situación, cayó de perlas hace unos años la invención
de un nuevo tipo de claves, realizada por Ronaldo Rivest, Adi Shamir y
Len Adleman del Massachusetts Institute of Technology. La clave de
Rivest —como ya se le conoce— sólo puede descifrarse si se tiene la
manera de hacer una operación matemática que todos aprendimos —o
debíamos haberlo hecho— en la escuela primaria: descomponer un
número en sus factores primos. Así, por ejemplo, la descomposición de
156 es 2x2x3x13; parece ser tan fácil que no se comprende la dificultad
de la clave de Rivest.

Para imaginar esta dificultad hay que tomar en cuenta que descomponer
un número en sus factores primos se torna más y más laborioso conforme
el número a descomponer sea más grande. Puede uno hacer la prueba
con un número de seis dígitos: se lleva un largo rato. Como la clave de
Rivest podría tener una gran importancia táctica, el Institute for Defense
Analysis (IDA) de Princeton —donde se concentran los "cerebritos" del
Pentágono— organizó una reunión de expertos para estudiar hasta qué
punto es indescifrable esa clave. El IDA cuenta con las computadoras
más rápidas de la actualidad —llamadas Cray— con las cuales un
número de 100 dígitos se puede descomponer en sus factores primos en
cuestión de meses. Si ésta es la única manera de descifrar la clave de
Rivest, se puede tomar un número lo bastante grande para que el descifre
se lleve muchos años, lo que la hace prácticamente indescifrable.

Más recientemente se han considerado aplicaciones civiles y pacíficas de


la clave de Rivest. Con base en ella se podría diseñar un sistema de
transacciones bancarias que no requiriera de la firma del cuentahabiente.
Este tipo de sistemas son indispensables para implantar con plenitud los
mecanismos de "banco en su casa", que aprovechan las
telecomunicaciones y las computadoras.

Ahora que, si las superpotencias quisieran frenar de veras el


armamentismo nuclear, tienen maneras muy directas de lograrlo. El
problema requiere de visión humanista y decisión política más que de
nuevas claves.

X X I . M Ú S I C A Y C U L T U R A

"EL PERFIL de una sociedad puede proyectarse gruesamente del de su


música." Esta afirmación, que tomada a la ligera suena a perogrullada,
ocasionó una polémica entre los etnólogos. Todo el mundo está de
acuerdo en que las canciones, por ejemplo, son un reflejo de la sociedad
que las produce. Pero, ¿cómo es posible medirlo?, ¿cuáles son las
características de una canción —aparte, obviamente, del tema y el idioma
— que permiten identificarla como parte de una cultura particular? Alán
Lomax, investigador de la Universidad Columbia de Nueva York,
pretendió haber obtenido varios criterios que llevan a una clara
correlación entre el tipo de canción y el nivel de complejidad de la cultura
correspondiente. Lomax propuso un factor de diferenciación que incluye la
precisión de los enunciados del texto, la longitud de los intervalos y el
grado de su repetición; otro factor, por ejemplo, es el "nivel energético"
que comprende el registro vocal, la intensidad, etcétera.

Con esta investigación, Lomax se hizo famoso junto con su padre Juan.
Entre otras cosas, hicieron una recopilación de canciones folclóricas
norteamericanas y "descubrieron" al cantante Leadbelly. Para el estudio
de Etnomusicología, Lomax y sus colaboradores estudiaron unas 4 000
canciones de 400 grupos culturales, y se atrevieron a hacer amplias
generalizaciones con base en sus análisis.

Sin embargo, Lomax fue acremente criticado en dos aspectos: por usar
una metodología poco rigurosa en el muestreo y en los criterios de
clasificación, y por manejar una base antropológica discutible y anticuada.
No obstante las críticas, Lomax cuenta con un buen número de
seguidores, tanto por la atracción que ejercen sus ambiciosas
generalizaciones, como por su personalidad de tintes carismáticos. En
este último punto coincide con otros campeones de causas polémicas en
otros campos científicos, al estilo de Zeeman en la teoría de las
catástrofes y de Hoyle en astronomía.

X X I I . L A T E R R A D I N Á M I C A

LA CLASIFICACIÓN de las ciencias y técnicas se han venido a complicar


aún más con un nuevo engendro: la terradinámica. Con esta palabrita se
refiere uno a las técnicas y a la "ciencia " de penetración de la corteza
terrestre, de importancia para medir el espesor de los hielos árticos y de
los sedimentos marinos. La terradinámica cuenta en su arsenal de
dispositivos con un verdadero cañón desarrollado por los Laboratorios
Sandia de Nuevo México, que es capaz de lanzar un proyectil que
atraviesa hasta 30 metros de roca, y que sirve para inyectar detectores
sísmicos y acústicos.

X X I I I . D E L Á T O M O A L C U A R K

HACE 2 500 años comenzó a escribirse una historia extraordinaria


cuando Demócrito, sustentado en las ideas de su maestro Leucipo, se
imaginó que toda la materia estaba constituida por pequeñísimas partes
—partículas o corpúsculos— que eran indivisibles: los átomos. Como
modelo filosófico, el atomismo sobrevivió dentro de la corriente
materialista, con mejor o peor suerte, hasta el siglo XVII y sirvió de
fecundo estímulo a las especulaciones de los pensadores. A partir de
entonces y durante casi 300 años, la ciencia moderna paulatinamente fue
convirtiendo el atomismo en un verdadero modelo científico, hasta llegar a
su confirmación definitiva a principios del siglo XX. Como paradoja, el
triunfo del modelo atómico en la ciencia atentó de lleno contra una de sus
premisas originales y que le dio nombre; el átomo resultó divisible y sus
partes dieron lugar a todos un nuevo nivel de fenómenos: el mundo
subatómico.

Durante las edades Antiguas y Media, el atomismo no pasó de ser una


mera especulación que competía con otras tendencias por el favor de los
filósofos. Había que esperar el advenimiento del moderno método
científico, cuyo paradigma fue puesto por Galileo y Newton, para que el
modelo atómico fuera puesto a prueba en su capacidad de predicción y
descripción. Los primeros intentos no dejaron de ser, en buena parte,
infructuosos. Las ideas de Gassendi, Newton y Bernoulli para explicar las
propiedades generales de los gases a partir del modelo atómico fueron
esencialmente correctas, pero demasiado cualitativas e ingenuas; por ello
sus conclusiones no podían someterse a pruebas cuantitativas. La
primera definición científica del modelo atómico había de darse en la
química con el trabajo de Dalton y Lavoisier. Ya durante el siglo XIX, el
desarrollo de la química acarreó el refinamiento del concepto atómico y su
cada vez más firme cimentación, coronados por la esencial distinción
entre átomo y molécula, debida a Avogadro, y por la célebre Tabla
Periódica de los Elementos de Mendeleiev. Por su lado, los físicos habían
regresado por sus fueros: Maxwell y Boltzmann lograron completar el
programa que Newton y Bernoulli habían dejado apuntado. Así, en los
últimos decenios del siglo pasado, una mayoría de los científicos —
curiosamente, no los más influyentes que eran muy conservadores—
aceptaban el modelo atómico pese a que las pruebas que lo sustentaban,
aunque abrumadoramente extensas, eran sólo indirectas.

El descubrimiento de fénomenos que sin discusión son atómicos se


produjo con el cambio de siglo: la radioactividad, la fotoelectricidad, los
rayos catódicos y otros no tan conocidos. Ahora era el turno de los físicos
para explorar el átomo: Planck, Einstein, Rutherford, Bohr, De Broglie y
toda una generación de geniales hombres de ciencia construyeron, a la
par del descubrimiento atómico, todas una nueva concepción teórica del
mundo: la mecánica cuántica. Resultó que el átomo no es el ente más
elemental; no es indivisible ni inmutable; está formado por núcleo y
electrones, y su estructura gobernada por leyes radicalmente diferentes a
las de la naturaleza macroscópica.

La búsqueda de los verdaderos elementos de la materia adquiere


entonces una velocidad vertiginosa. El mismo núcleo de los átomos revela
una estructura y nuevas componentes: los protones y los neutrones.
Estas partículas, junto con el electrón, reciben el calificativo de
elementales, lo que refleja el eterno deseo, ya vivo en Demócrito, de
explicar la naturaleza en términos de algo que no requiera, a su vez, una
nueva explicación. Quien lea el libro Materia y luz de Luis de Broglie,
premio Nobel de física y que todavía usaba el título de príncipe en la muy
democrática República Francesa, publicado en 1937, encontrará una
elocuente defensa de esta aspiración.

El mundo de las partículas subatómicas se pobló con rapidez y se


enriqueció con nuevos corpúsculos descubiertos en los rayos cósmicos y
en los gigantescos aceleradores de partículas. Algunas veces las nuevas
partículas fueron vislumbradas en la teoría antes de observarse en la
realidad, como sucedió con los neutrinos, elusivos corpúsculos que, como
explicaba magistralmente don Juan de Oyarzábal, son los más cercanos a
la nada que puede ser algo sin dejar de ser algo. La anticipación teórica
de la antimateria, descubierta por Dirac y después bien confirmada, casi
duplicó la población de partículas, ya que a cada una le toca su
antipartícula. Los nombres que han recibido todas estas especies son
extraños al lego —piones, muones, bariones, mesones, hiperiones, etc.—
y pueden reaccionar entre ellas y convertirse unas en otras. Tamaña
complejidad no podía darse en algo que fuese rigurosamente elemental:
sus propiedades deberían explicarse gracias a una nueva estructura y
ésta involucraría nuevas partes que casi todo físico esperaba fueran, ellas
sí, elementales. Incluso aparecieron escépticos que no creían en la idea
de que unas partículas fuesen más elementales o fundamentales que
otras. Lidereados por el profesor Chew, de la Universidad de Berkeley, los
miembros de esta minoría propusieron una teoría "democrática" en la que
todas las partículas eran igualmente fundamentales y con interesantes
colas filosóficas, que algunos lograron conectar con el budismo Zen. Con
el pasar de los años y con los descubrimientos más recientes han salido
ganando los físicos más conservadores, quienes al modo de la granja
orwelliana creen que hay unas partículas más fundamentales que otras.

El misterio por desentrañar, oculto en lo minúsculo, es tan grande que


requiere de un esfuerzo gigantesco. Durante los últimos decenios, la
investigación de las partículas elementales ha ocupado a miles de
científicos en todo el mundo y ha absorbido inversiones de miles de
millones de dólares. Esta investigación es muestra de un modo nuevo de
hacer ciencia. En vez del frío laboratorio en algún sótano o buhardilla, los
gigantescos edificios con todos los servicios, repletos del más refinado
equipo electrónico y con clima acondicionado para no sentir el frío
invierno de Siberia o el caluroso verano de Nuevo México; en lugar de
unos cuantos y apasionados hombres de ciencia, que trabajan como
iluminados bajo adversas condiciones, nutridos grupos y equipos de
investigadores, entrenados profesionalmente y con todas las facilidades
para trabajar.
Los fenómenos que se estudian en estos laboratorios son rapidísimos —
algunos duran una trillonésima de segundo—, ocurren en distancias
pequeñísimas — en ocasiones de un billonésimo de centímetro— e
involucran energías miles de veces mayores que las que se producen en
un reactor nuclear. No está de más insistir en lo difícil que es hacer
mediciones y observaciones a esa escala. Pero el problema teórico y
conceptual no es más sencillo que el experimental y práctico. Los
fenómenos subatómicos ocurren de acuerdo a leyes que no tienen
relación directa con la experiencia del hombre; los investigadores deben
entonces aplicar su lógica y su imaginación en niveles de gran
abstracción.

A principios de los setentas, Gellmann y Zweig propusieron un modelo


para explicar un amplio y numeroso grupo de partículas, las llamadas
hadrones que comprenden el neutrón y el protón; dicho modelo
presupone la existencia de otras partículas a las que Gellmann
bautizó cuarks, palabra tomada de una novela de James Joyce y que
también utilizó Goethe. El modelo de los cuarks permite hacer con los
hadrones lo que el modelo nuclear del átomo logró con los elementos
químicos. Pero a diferencia de lo que ocurrió en el caso atómico, donde
se construyó el modelo cuando ya se conocían algunos de sus
constituyentes —los electrones y los protones—, en el caso de los
hadrones la existencia y las propiedades de los cuarks se han
determinado por inferencia y deducción. Los cuarks deben tener
propiedades comunes a otras partículas como masa y carga eléctrica,
aunque ésta sea en su caso de tercios de la carga del electrón; pero
también deben tener otras propiedades de reciente invención o
descubrimiento, que los físicos han bautizado con palabras comunes
como color, sabor y encanto. En partícular, el "color" de los cuarks es tan
importante, que se hace referencia a estas teorías con términos como
cromodinámica y tecnicolor.

Otros desarrollos más recientes se refieren al grupo de partículas


llamadas leptones, en el que se incluye al electrón. El nombre de "leptón",
que quiere decir ligero, se introdujo porque esas partículas eran más
ligeras que las demás, pero últimamente se habla ya de un "leptón
pesado" que vendría a explicar toda una serie de propiedades de una
familia de partículas. Todas estas invenciones y descubrimientos son de
una gran trascendencia, pues revelan la existencia de fenómenos en
nuevos niveles y nos permitirán entender mejor los niveles superiores y ya
conocidos.

No obstante, el desarrollo de esta historia parece un cuento de nunca


acabar, en donde los elementos de cada estructura dan lugar a nuevas
estructuras con nuevos componentes. Bien podría ocurrir que la ilusión de
encontrar al final los verdaderos "elementos" de la materia quede por
siempre como mero sueño.
X X I V . C H U C H U N A Y E L Y E T I

LOS viajeros que exploran el Himalaya regresan a veces con relatos del


Yeti, monstruo peludo y gigantesco que acostumbra aterrorizar a
nepaleses, chinos y tibetanos, además de huir con extraña y sospechosa
habilidad del lente de todos los fotógrafos. Pues bien, parece que el Yeti
tiene un colega llamado Chuchuna; por lo menos así lo indican muchos
informes recogidos por la sección de Yakut de la Academia de Ciencias
de la URSS.

Mudo y torpe, gigantón y peludo como el Yeti, Chuchuna se aparece los


veranos, preferentemente al alba o al ocaso, y si bien es tímido y
asustadizo, ha llegado a enfrentarse en desigual pelea con algún cazador
o pastor de renos. Así lo afirman varios informes de terceros, porque
Chuchuna es también muy ducho en evitar ser fotografiado o capturado.
Con base en tales informes, S. Nikolayev —miembro de la directiva de la
academia yakutiense— propuso como explicación que Chuchuna es uno
de los últimos sobrevivientes de los aborígenes paleoasiáticos siberianos,
que buscó refugio en las regiones más inaccesibles de los ríos Yana e
Indigirka. Según Nikolayev, casi todos los testigos hablan del Chuchuna
como de una realidad, sin el fantástico detalle tan característico de las
leyendas". Por lo visto en todas partes se cuecen habas, hasta en las
remotas y frías comarcas de la socialista Yakut.

X X V . L A B R Ú J U L A D E L A S A V E S

CUANDO nos encontramos en una ciudad extraña, y no tenemos a quién


preguntar por el camino, necesitamos un mapa y una brújula para
orientarnos. Las aves migratorias y las palomas mensajeras carecen de
brújulas y de mapas, y sin embargo poseen un sorprendente sentido de
orientación. ¿Qué usan estas aves para no perderse? Hace varios
decenios, Gustavo Kramer señaló la imposibilidad de hallar el camino
correcto sin esos dos elementos.

Por su lado, el profesor F. Papi, de la Universidad de Pisa, hizo un


experimento que demostraba que las palomas mensajeras se orientan
gracias a un mapa olfativo, y que aprovechan los olores que son
acarreados por el viento. Desgraciadamente para el profesor Papi, esos
experimentos no han podido repetirse en lugares menos aromáticos que
la dulce campiña italiana.

En cuanto al sustituto de la brújula, hay pruebas de que las aves usan el


Sol y las estrellas —como cualquier navegante primitivo—, pero también
el campo magnético terrestre. Los experimentos que sugieren esta última
posibilidad fueron realizados en Frankfurt, pero lo que constituye un
misterio es cómo le hacen las aves para detectar o sentir los campos
magnéticos. Todo hace suponer que tendremos que esperar bastante
para encontrar la explicación certera de ese primitivo y fantástico sentido
de orientación.

X X V I . E L A U T O E L É C T R I C O

¿POR qué no tenemos automóviles eléctricos? ¿Tienen la culpa las caras


y pesadas baterías convencionales? ¿El limitado radio de acción de los
prototipos que se han construido? ¿Las dos razones juntas? Si se pone
uno analizar las cosas con cuidado, uno se da cuenta que la verdadera
respuesta no va por ahí. Los autos eléctricos con baterías de plomo
alcanzan ya un radio de acción de 80 km, y en países tan automovilizados
como los EU, más de 50% de todos los recorridos diarios están dentro de
ese límite. Además si bien el costo de un automóvil eléctrico, equivalente
a uno común de gasolina, sería mayor hasta en un 60%, ese incremento
se puede reducir si se diseña un auto para el transporte urbano de
manera racional (sencillamente haciéndolo chiquito).

De acuerdo con una ley del Congreso de los EU, que aprobó un gasto
para desarrollar autos eléctricos, los responsables son otros. Cierto es
que ese Congreso no nombra a los culpables, pero al aplicar el tradicional
método de eliminación (véase Conan Doyle) se queda uno con dos: las
industrias automovilística y petrolera; si el gobierno de los EU pareció
decidido a llevarles la contra, es por tratar de sustituir el consumo de
petróleo por el de otros energéticos.

X X V I I . P A R T Í C U L A S E N C A N T A D O R A S

LA FAUNA submicroscópica de las partículas elementales se enriqueció


hace unos años con el descubrimiento de dos nuevos ejemplares a los
que se les llamó  o psiones.

Para explicar las propiedades de las decenas de partículas subatómicas


que se han ido descubriendo, los físicos han tenido que inventar toda una
serie de propiedades con nombres como isoespín, extrañeza, paridad,
etc. Lo gracioso de los psiones es que para explicarlos se ha añadido una
característica llamada encanto (charm). De hecho, el que algunas
partículas puedan ser encantadoras fue propuesto hace ya muchos años
por Sheldon Glashow en relación con otras partículas, los cuarks, que se
supone son los ladrillos para construir los protones y los neutrones, entre
otras cosas.

La teoría de las partículas encantadoras (o encantadas) se reafirmó


después de casi un año de haberse descubierto los psiones en
experimentos realizados en Stanford y en Hamburgo. No obstante, los
psiones no son encantadores, porque están formados por la pareja de un
cuark encantador y de su antipartícula; esta última tiene un encanto
negativo, de manera que su repugnancia se cancela con el encanto de su
pareja, quedando el psión sin ningún encanto particular. Después, la
búsqueda se centró en encontrar una partícula que sea efectivamente
encantadora, pero mientras la encuentran, los que proponen esta teoría:
Glashow, Bjorken, Appelquist y otros están encantados de la vida.

X X V I I I . D O N C O S M E B U E N O ,
D E S C U B R I D O R

El doctor don Cosme Bueno descubrió en el Perú, en 1764, que una


mosca (Phlebotomus) es el vector de las enfermedades llamadas de
Carrión (Bartonellosis) y Leishmaniasis, con lo que se adelantó 150 años
a la fecha en que se creía haberse descubierto. El descubrimiento había
quedado ignorado por mucho tiempo. Don Cosme publicó su
descubrimiento en español en una obra que lleva el siguiente título: "El
Conocimiento de los Tiempos. Epheméride del año 1761, Bisiesto: en que
van puestos los principales Aspectos de la Luna con los Astros, y de ellos
entre sí. Calculado por las tablas de Cassini para el meridiano de esta
muy noble, y muy leal Ciudad de Lima, Capital, y Emporio de esta
América Meridional. Con Calendario de las Fiestas y Santos en que van
notados los días Feriados de los Tribunales con esta señal F. Los de
trabajo, con obligación de oír Misa, con ésta (*). Los de Fiesta con ésta X,
y los de precepto para los Indios con ésta XX."

A nadie le asombra que haya costado trabajo encontrar tras de este título
el descubrimiento.

X X I X . M A R T E Y S U S C A N A L E S

LA DISCUSIÓN acerca de los canales de Marte continúa una larga


polémica que se inició con Schiaparelli hace más de 100 años. Los
famosos canales marcianos han sido fuente de toda clase de imaginerías:
civilizaciones refinadas, culturas extintas, gigantescos proyectos de
irrigación que dejarían los canales siberianos como empresa liliputiense.
Son innumerables los autores, novelistas, charlatanes y hasta astrónomos
respetables que han creído en la realidad de esos canales y se han
dedicado libros y atlas a su descripción detallada. Ante toda esa
información, la verdadera y la inventada, las mentes conservadoras han
hecho gala de escepticismo y han entrado en la polémica para deshacer
entuertos, achacando la observación de los canales a ilusiones ópticas o
a la autosugestión de los testigos.

Las fotografías de Marte tomadas desde las naves Mariner en la década


de los setenta deberían haber terminardo con la discusión. O por lo
menos, eso es lo que se creía. Los planetólogos Fox y Sagan —famoso
éste por sus espléndidos programas para televisión— se dedicaron a
comparar minuciosamente las fotografías de los Mariner con el atlas de
los canales publicados por Slipher en 1962. Ellos trataron de decidir si los
"canales" observados al telescopio correspondían con características
topográficas registradas en las fotografías, como valles, cañones series
de cráteres. Y en efecto, Fox y Sagan encontraron que unos cuantos
"canales" pueden explicarse mediante accidentes del terreno marciano.
Pero la mayoría de los canales no tienen una clara correspondencia
topográfica en la realidad, por lo que los autores los relegan, otra vez, a
meras ilusiones ópticas producidas por las imperfecciones de nuestro
sistema visual.

Esta conclusión sólo hizo que la polémica se renovara. Considerando que


hay demasiadas coincidencias entre "canales" observados y dibujados
independientement algunos no están dispuestos a culpar de su existencia
a la mente calenturienta de los observadores, e insisten en que debe
existir alguna explicación física de tales "canales". Un argumento válido
en apariencia apunta a la imperfección de los mecanismos de
observación del Mariner, que no podían distinguir características de la
superficie marciana que contrastaran poco de su medio circundante.

X X X . T O P O N I M I A M A R C I A N A

PERO mientras unos se pelean sobre los canales marcianos, otros


astrónomos disputan acerca de los nombres de la "geografía" marciana.
En esta epoca de comisiones, conferencias y años internacionales, la
guerra de la toponimia marciana se efectúa, obviamente, en el seno de un
comité. Después de varios años de extenuantes discusiones y regateos,
se publicaron los nombres seleccionados. Para los cráteres de más de 20
kilómetros de diámetro se usaron nombres de personas, necesariamente
fallecidas, escogidas entre marcianólogos, astrónomos, novelistas y
científicos. Es una sorpresa encontrar en una lista de varios cientos de
nombres, al lado de Schiaparelli, Copérnico, H. G. Wells y E. R.
Burroughs, a Francisco J. Escalante, que fuera astrónomo del antiguo
observatorio de Tacubaya entre 1916 y 1923, entonces activo bajo la
dirección de Joaquín Gallo.

Escalante nació en Morelia, Michoacán, 10 años después de las


observaciones que Schiaparelli hizo de Marte, y fue en su tiempo un
ilustre planetólogo, preocupado sobre otros asuntos por determinar con
precisión el periodo de rotación de los planetas. Es irónico que, mientras
Gallo tiene ya una bella calle de Chimalistac con su nombre, Escalante
haya tenido que esperar, dondequiera que lo haga, a que la Unión
Astronómica Internacional lo recuerde en un hermoso cráter cerca de uno
de los polos del planeta Marte. En recorrido por nuestra muy noble e
ingrata ciudad, jamás se topa uno con el letrerito "F. J. Escalante", ni
aparece en el índice de la Guía Roji. Con el cráter Escalante, son ya dos
los nombres mexicanos perpetuados en nuestro sistema solar. El otro es
el de Luis Enrique Erro, con el que se bautizó un cráter en el lado oculto
de la Luna. Como punto chusco de la toponimia marciana se tiene el
vasto conjunto de cañones descubierto por el Mariner 9. Para festejarlo,
la UAI bautizó al lugar como Valles Marineris, que resultó un infeliz
latinajo, realmente quiere decir: "valle en escabeche".

X X X I . E N E R G Í A S O L A R

LA ENERGÍA solar y la tecnología asociada a ella toman un cariz cada


día más prometedor (por lo menos para los países industrializados). La
Oficina de Investigación y Desarrollo de Energía, OIDE, de
los EU, terminó un estudio en el que la energía solar tiene un lugar
preponderante. Entre otras cosas, la OIDE pensaba patrocinar la
construcción de 4 000 edificios calentados por energía solar, y se
esperaba que para 1985 ya existieran varias plantas generadoras de
electricidad con capacidad de 100 megawatts en varias unidades.

Dado que vivimos en el país de la eterna primavera, es de la mayor


importancia que preparemos especialistas en energía solar que nos
permitan desarrollar a tiempo nuestra tecnología. No debemos esperar a
que se nos acabe el petróleo. . .
X X X I I . E L S O L E N L A T I E R R A

UNA de las grandes esperanzas en cuestión de energéticos es la fusión


nuclear. La energía que se libera en ese fenómeno mantiene encendidos
a los astros durante miles de millones de años, y en nuestra reducida
escala humana sólo ha podido manifestarse en la nefasta y famosa
bomba H. Los esfuerzos por dominar esa energía de manera saludable
llevan ya varios decenios y en su mayoría han tratado de construir un
reactor de fusión.

El principal problema a vencer en la construcción de tales reactores es la


gran temperatura que deben soportar, lo cual logran usando campos
magnéticos a manera de paredes. No obstante los avances logrados en
este sentido, podría uno pensar que la solución buscada es demasiado
ambiciosa y que habría procedimientos más "rudimentarios"... y más
prometedores. Para usar una analogía, es como si al descubrirse el
potencial energético de la gasolina, los ingenieros hubieran comenzado
por diseñar un avanzado motor de turbina en lugar de uno más sencillo de
cuatro tiempos.

Hace varios años se planteó así una alternativa en la fusión: en vez de


tratar de controlar una reacción sumamente intensa y continua, optar por
un gran número de pequeñas reaccioncitas que se sucedieran en el
tiempo. Esta última posibilidad se hizo asequible al progresar la
tecnología en un área ajena a la fusión: la fabricación de láseres de gran
potencia. Los láseres servirían, a manera de bujías de un motor de
combustión, para proporcionar la "chispa" que inicie la explosión. Dos
requisitos para que un láser cumpla a satisfacción con su papel de "bujía"
son un gran rendimiento energético y una absorción eficaz de la luz del
láser por el combustible nuclear que se debe "encender".

Independientemente de los esfuerzos sistemáticos, costosos y


confidenciales que se realizan en los EU y en la URSS, un grupo de
investigadores canadienses hicieron un experimento que contribuye a
cumplir con los dos requisitos apuntados. Lo que descubrieron Baldis,
Pépin, Johnston y Parbhakar mediante un láser de bióxido de carbono, es
cómo producir en un plasma una absorción de luz mucho mayor que la
que se había logrado anteriormente.

Aunque para alcanzar el objetivo ansiado de "tener un sol entre las


manos" será necesario todavía un grandísimo número de aportes
tecnológicos, los expertos en fusión y en energéticos no dudan de que se
llegará a él en un tiempo no lejano. Como las inversiones para entrar en la
competencia fusional con las técnicas más convencionales son
gigantescas, es lógico que un país pobre como México no participe en
esos aspectos (sobre todo si consideramos que comenzaríamos
sumamente atrasados). No obstante, es ilógico que no se esté haciendo
actualmente el esfuerzo por desarrollar nuestra infraestructura científica y
técnica en esta área, incluyendo campos como plasmas, láseres,
ingeniería eléctrica avanzada, etc. Ya que no pudimos entrar a la primera
carrera, debemos cuidarnos de que cuando ella termine no sigamos como
el chinito del cuento...

X X X I I I . C I E N T Í F I C O S C R É D U L O S

ES un hecho que hay científicos crédulos o ingenuos ante hazañas como
las del famoso Uri Geller hace unos años. Pero todos los que creen
firmemente en el escepticismo pueden sentirse satisfechos: Uri Geller ya
fue desenmascarado. En el libro de un famoso ilusionista.(The Magic of
Uri Geller, por Jaime Randi) se ponen de manifiesto los principales trucos
que Geller usaba para "doblar" llaves y cucharas, y para "componer"
relojes. Además de lo entretenido del libro, vale la pena leerlo por todo los
que ya no aguantamos a nuestras crédulas amistades. Algunos de los
argumentos: el señor Randi hizo los mismos trucos que Geller frente a un
auditorio hostil y no se los descubrieron (aunque después explicó
algunos). Uri Geller había sido condenado por una corte de Israel a
regresarle la "entrada" a un espectador que lo demandó por fraude... y se
lo probó. En un programa de televisión en los EU no le salió ningún truco
(el director del programa había tenido la simple precaución de consultar a
un ilusionista para prevenir cualquier truco). En el caso de los "shows"
ante científicos, todo se resume en las palabras de Marcelo Blanc: "se
puede tener una mente científica y dejarse tomar el pelo".

X X X I V . M Á S P A R T Í C U L A S

LA EXPLORACIÓN del mundo subatómico nos permite vislumbrar un


nuevo nivel de estructuracíón de la materia. Durante décadas, la
investigación del microcosmos produjo el descubrimiento de docenas de
partículas que, por suponerse los constituyentes últimos de la materia, se
califican de "elementales". No obstante, la terquedad de los científicos por
explicar todo lo que observamos los ha llevado a concebir la existencia de
partículas, si se perdona la expresión, más elementales todavía: los
cuarks. Si bien se han inventado varios modos de usar cuarks para
explicar muchas propiedades de una importante familia de partículas, y si
bien un científico quemó su buen nombre, hoy casi en el olvido, al
precipitarse en anunciar haber descubierto un cuark, éstos están lejos de
haber perdido popularidad. Ya contamos la historia de los psiones,
partículas que están construidas de un par de cuarks con una novedosa
propiedad: el encanto.

Como muestra de la vitalidad de la ciencia, que se lanza a la búsqueda de


las más imaginativas posibilidades, se planteó la posible existencia de
alguna partícula netamente encantadora. Varios grupos de investigación
dieron a la luz el descubrimiento de otra partícula que podría tener el tan
soñado encanto. Esto le dio mayor interés al descubrimiento, que por sí
sólo sería de importancia para los especialistas. Los grupos de
investigación que contribuyeron al descubrimiento de la partícula son tres:
uno formado por investigadores de Wisconsin, Berkeley, el CERN (Centro
Europeo de Investigaciones Nucleares) y Hawaii; el segundo, de Harvard,
Pennsylvania, Wisconsin y el Laboratorio Nacional de Aceleradores Fermi
(conocido en el mundillo de los físicos como Fermilab), y el tercero del
mismo CERN.

Las nuevas partículas fueron creadas haciendo chocar un haz de


neutrinos (sutiles partículas sin masa) en contra de núcleos atómicos.
Como es costumbre, las nuevas partículas fueron identificadas después
de analizar meticulosamente los productos de su desintegración.

X X X V . L O S M I S T E R I O S D E L A Q U Í M I C A

UNO de los misterios de la química fue develado plenamente después de


una larga historia. Una versión moderna del viejo sueño alquimista lo
vería poblado de reacciones químicas y nucleares: la transmutación de
los compuestos y de los elementos. Hasta antes del descubrimiento de la
radiactividad, de la fisión y fusión nucleares y de otros fenómenos
subatómicos, las únicas reacciones contempladas eran totalmente
químicas: combinación, recombinación, composición y descomposición de
elementos. Esta visión de las reacciones químicas se concretó en la
segunda mitad del siglo pasado al establecerse la esencial distinción
entre compuesto y elemento.

La historia de las reacciones químicas en lo que va del siglo (y ya va


mucho) puede separarse en dos claros periodos, ambos indisolublemente
ligados al desarrollo de la física. En el primero se estableció la base de
nuestro entendimiento del mundo microscópico: el átomo y la molécula
vinieron a materializar de modo definitivo la concepción de los
compuestos de elementos distintos, y la física cuántica suministró el
entendimiento teórico necesario. Esta etapa culminó alrededor de 1930 y
se sintetiza en una famosa frase del también famoso Pablo Adrián
Mauricio Dirac: "La química está ya resuelta en principio." Para qué decir
lo que esta frasecita ha pesado en el ánimo de los científicos, que durante
años se han desvelado para cambiar el "en principio" por un punto final.
Estos años forman la segunda parte de la historia reciente de la química;
y decimos que forman porque estamos viviendo la transición a la que tal
vez sea una tercera.

En efecto, el primer cálculo detallado y completo de la más sencilla de las


reacciones químicas (entre un átomo y una molécula de hidrógeno) fue
enunciado en los 70 casi simultáneamente por dos pares de científicos: A.
Kupperman y G. Schatz, del Instituto Tecnológico de California, y R. Wyatt
y A. Elkowitz de la Universidad de Austin. Estos cálculos revisten una gran
importancia. Sirvieron de referencia para probar qué tan buen cubero es
el ojo de los químicos que proponen soluciones aproximadas, las que son
indispensables para entender reacciones químicas más complejas.
Además, los cálculos teóricos muestran la necesidad de realizar nuevos
experimentos que puedan compararse con los primeros. De todo esto
resulta un entendimiento detallado que se reflejará en mejores láseres
químicos, entre otras muchas aportaciones.

X X X V I . L O S F E N Ó M E N O S A L I N E A L E S

BUENA parte del progreso de las ciencias físicas se sustenta en la gran


aplicabilidad de una observación de sentido común: si dos cosas se
parecen mucho, sus comportamientos serán casi idénticos. Planteada de
esta manera, la actividad de los científicos se ha concentrado en
descubrir el sentido profundo de decir "se parecen" y en inventar
conceptos y técnicas para entender el "comportamiento". No obstante,
todos conocemos fenómenos que no siguen esa regla, y la ciencia que sin
haberlos ignorado totalmente nunca los tomó demasiado en serio, ahora
los enfrenta.

La dinámica de las poblaciones, el desarrollo de los seres vivos, la


mecánica de los fluidos y muchos otros campos abundan en ejemplos de
esos fenómenos: ¿qué es lo que hace que de unas cuantas células casi
idénticas se desarrollen órganos perfectamente diferenciados? ¿Por qué
una barra de hierro al doblarse bajo presión puede adoptar una y mil
configuraciones?
La complejidad de estos fenómenos puede relacionarse con una
característica de las ecuaciones que describen su evolución,
característica que se denomina "falta de linealidad", "alinealidad" o , en
horrible engendro, "no linealidad". El estudio de estas ecuaciones, que
son básicas en el entendimiento de los fenómenos mencionados, se ha
emprendido con mucho valor y tesón en los últimos años; aunque no hay
que olvidar que ya hace 200 años Don Leonardo Euler comenzó a
analizarlas y nunca se han relegado por completo. Como resultado de
estas investigaciones, el vocabulario matemático se ha enriquecido con
términos imaginativos: matemáticas del caos, teoría de ramificaciones y
cascadas de bifurcaciones.

El aspecto esencial que presentan las ecuaciones alineales es que, si


bien bajo ciertas circunstancias tienen sólo una solución, basta un
pequeñísimo cambio en dichas circunstancias para que se den dos
soluciones posibles a esto se le llama una bifurcación, y al igual que con
la vida de un personaje de novela, al encadenarse unas circunstancias
tras otras, llegan a una increíble riqueza de variaciones. Éstas producen
el rompedero de cabezas de los científicos y nuestro asombro ante la casi
infinita variedad de los seres vivos, las olas del mar y las llamas del fuego.

X X X V I I . L A P R E D I C C I Ó N D E
T E R R E M O T O S

LA PREDICCIÓN de terremotos parece ser una técnica que adelanta a


paso lento y firme. Los expertos, imbuidos de una sana cautela, se
resisten a anticipar el día de la victoria. Una materia de discusión fue
suministrada hace unos años por noticias procedentes de China. En
efecto, parece que en ese país es más fácil predecir los movimientos de
la corteza terrestre que los de la política y la sociedad.

Hace unos años, coincidiendo con el comienzo de la Revolución Cultural,


China inició un programa de estudio de los temblores muy extenso.
Además de incorporar el análisis de los síntomas premonitorios
considerados en otros países, en China se toman también en cuenta los
ruidos subterráneos y el comportamiento de los animales. Mediante esta
combinación de técnicas ortodoxas con otras poco convencionales, los
científicos chinos predijeron la ocurrencia de varios terremotos de gran
intensidad. No se sabe a ciencia cierta en cuántos de ellos han acertado,
aunque en un caso la predicción bien puede haber salvado miles de
vidas: después de la evacuación de la población en la provincia de
Liaoning, se produjo un terremoto de gran intensidad (magnitud 7.3) que
destruyó casi totalmente una ciudad de 100 000 habitantes.
La noticia acerca de estos triunfos de los sismólogos chinos circuló
ampliamente en los medios "masivos" de información. No obstante, debe
temperarse la expectativa de alcanzar un resultado espectacular de la
noche a la mañana. El camino más seguro y posiblemente el más rápido
para llegar a predecir los grandes sismos, está claramente indicado por la
dinámica del propio método científico: una juiciosa combinación de
factores empíricos y teóricos, aunada a una profunda revisión crítica.

X X X V I I I . D I N O S A U R I O S

LA EXPLOSIÓN científica de la posguerra ha ocasionado que miles de


personas en todo el mundo puedan vivir de investigar siguiendo las
estrictas reglas del juego. Ellas investigan todo: lo útil, lo importante, lo
difícil, lo que les gusta, lo que sus jefes les ordenan o lo simplemente
enigmático; y lo hacen en serio. De esta manera se encuentran resultados
que, además de otras virtudes, parecen extraídos de aquella famosa
plana periodística titulada "Increíble pero cierto"; éste es el caso de varios
estudios acerca de los dinosaurios, publicados hace tiempo en Nature.

¿Sabía usted que los dinosaurios probablemente sufrían desmayos si


tenían la ocurrencia de levantar mucho la cabeza? ¿y que los que no
fueran propensos a esos desmayos tenían el corazón hipertrofiado?
Parece además que esos monstruos no podían haber correteado detrás
de ninguna pobre víctima, por la sencilla razón que casi nunca corrían, y
que si se decidían a hacerlo no lograrían alcanzar ni a un niño de ocho
años.

X X X I X . E L N I T R Ó G E N O D E L A S P L A N T A S

DESDE hace siglos la rotación de cultivos se usa empíricamente por


numerosos agricultores para renovar las tierras de labor. Pero con el
aumento escandaloso en la demanda mundial de alimentos, desde hace
muchos años se ha buscado la manera de darle una manita a la
naturaleza. Se sabe que el elemento esencial para los cultivos es el
nitrógeno y que la principal dificultad estriba en que la mayoría de las
plantas no pueden "fijarlo", esto es, no pueden asimilar el nitrógeno
molecular tan abundante en nuestra biósfera, sino sólo el nitrógeno
contenido en el amoníaco.

La manera fácil, o bruta, de remediar esta deficiencia consiste en


suministrar a las plantas el amoniaco en forma adecuada; esto ha
propiciado la construcción de gigantescas plantas de amoniaco que usan
un proceso químico conocido como de Haber, el cual involucra el
consumo de grandes cantidades de petróleo o carbón, y el manejo de las
sustancias a temperaturas de 500°C y a presiones hasta de 400
atmósferas. Por ello, la producción industrial de amoniaco ha sido y sigue
siendo una piedra clave en el esfuerzo por incrementar la productividad
agrícola, incluso en países como el nuestro, donde coexiste pacíficamente
la agricultura tecnificada con amplias regiones que todavía no salen de la
etapa neolítica.

Pero hay dos razones para buscar otras soluciones del problema. La
primera razón es de pesos: con los energéticos cada día más caros, el
amoniaco y los fertilizantes que lo usan, también son cada vez menos
baratos. La segunda razón es más profunda: comparado con el proceso
industrial, el proceso que tan naturalmente usa la naturaleza en muchas
bacterias y plantas que sí fijan el nitrógeno (y que son aquéllas cuyo
cultivo hay que alternar en la rotación de plantíos) es mucho más eficaz.
El que este proceso natural sea además de eficaz tremendamente
complejo, es más bien un acicate al ingenio y al tesón de los
investigadores.

En la naturaleza, el nitrógeno se convierte en amoniaco gracias a la


acción de una enzima de estructura muy complicada, llamada
nitrogenasa. Formada por dos proteínas con pesos moleculares de 220
000 y 60 000, la nitrogenasa es sujeto de intensas investigaciones por
grupos en diversas partes del mundo. El objetivo de estas investigaciones
es la formulación de un modelo del funcionamiento de esa enzima, el cual
claramente sólo se alcanzará después de muchos esfuerzos ya que,
como expresó el doctor Leigh, de la Universidad de Sussex: "No podemos
construir un modelo de algo que nos es esencialmente desconocido."

No obstante esta realista expresión de modestia científica, queda un


camino por explorar y que tal vez reditúe en un plazo mediato, pero no
muy largo: independientemente de nuestra ignorancia sobre el
mecanismo natural de fijación, se estudia ya la manera de aislar e
identificar los genes responsables del control de dicho mecanismo, lo
cual, aunado a las cada vez más refinadas técnicas de ingeniería
genética, permitiría finalmente transferir esos genes a las plantas. Ésta es
una de las prometedoras líneas de investigación que se están siguiendo
en los centros de Ingeniería Genética y de Fijación de Nitrógeno, que la
Universidad Nacional tiene en la ciudad de Cuernavaca.

X L . L A F L E C H A D E L T I E M P O

NACEMOS, crecemos y morimos. Todos los seres vivos hacen lo mismo


a nuestro alrededor. Los días se suceden y no regresan, las cosas se
gastan. El tiempo pasa inexorablemente fuera y dentro de nosotros en un
fluir avasallador. El pasado y el futuro, el nacimiento y la muerte, han
inspirado mitos fascinantes y maravillosas obras de arte. Del nacimiento
de los dioses al fin de los tiempos: de los Vedas y el Popol Vuh al
Apocalipsis. Y en medio de todo, el hombre que intenta vanamente
detener el tiempo a la manera de Proust o de Muerte sin fin.

Cuando decimos que el tiempo pasa nos referimos a toda una


experiencia: el pasado es distinto del futuro. La única dimensión que tiene
el tiempo, a diferencia de las tres del espacio, manifiesta una esencia
distinta según el sentido en que se le mire. El sentido o dirección que le
damos a cada una de las tres dimensiones del espacio es totalmente
relativo: la distinción entre detrás y delante, arriba y debajo, o derecha e
izquierda, aunque sea útil y necesaria, es mera convención. La
fundamental diferencia entre pasado y futuro le impone al tiempo una
dirección, como la punta se la da a una flecha.

El conocimiento científico confirma la direccionalidad del tiempo en una


amplísima variedad de fenómenos. La flecha del tiempo existe en todo lo
que tiene historia o muestra evolución, como el Universo, la Tierra y las
especies vivas. Para resumir este hecho, fundamental en tan diversas
situaciones, la ciencia hace distinción entre dos tipos de fenómenos
naturales: los reversibles y los irreversibles. En estos últimos se
manifiesta la flecha del tiempo: cuando ellos ocurren, siempre hay algo en
la situación final que permite distinguirla de la inicial.

Para explicar esta distinción es útil un ejemplo cinematográfico. Podemos


proyectar una película en cualquiera de dos sentidos; pero si en ella se
muestra algún proceso irreversi ble, la proyección "al revés" mostrará un
proceso que es imposible en la naturaleza. En este caso el efecto es
sorprendente. La sorpresa se origina al ver, gracias al artificio del cine, un
fenómeno imposible: los pedazos que por sí solos se reúnen en el vaso ,
la crema de afeitar que se reintegra a su recipiente, la flor ya seca que
reverdece y acaba por convertirse en semilla. La existencia de procesos
irreversibles se ha resumido en la llamada ley de la entropía o segunda
ley termodinámica, que permite, además, cuantificar el grado de
irreversibilidad de un proceso cualquiera.
A pesar de la irremediable presencia de la flecha del tiempo, los
científicos han descubierto un nivel de acontecimientos donde el tiempo
parece fluir de igual modo en un sentido que en su opuesto: el de los
fenómenos microscópicos. En el mundo de los átomos y las moléculas no
hay procesos irreversibles: ahí son posibles todas las historias, sin
importar su sentido. Estrictamente, en ese nivel no hay "historia" ni
"evolución": por cada fenómeno con un pasado y un futuro, hay otro que
los tiene invertidos y que es igualmente posible.

Mas esta reversibilidad de los procesos microscópicos plantea una


cuestión esencial de la ciencia contemporánea: ¿cómo pueden coexistir
ambos niveles? ¿Por qué el tiempo no tiene punta de flecha en el reino
microscópico y sí la tiene en el macroscópico? La pregunta adquiere
mayor relevancia si recordamos la tendencia entre los científicos a
explicar el todo en términos de sus partes. ¿Cómo es posible que el todo
de un cuerpo tenga una propiedad no sólo distinta, sino contraria a la de
sus partes?

La clave del enigma parece centrarse en lo innumerable de las partes que


componen un cuerpo macroscópico. Hace muchos años, Enrique
Poincaré creó el equivalente científico del mito del eterno retorno:
cualquier sistema que siga las leyes de la mecánica newtoniana siempre
regresará a su situación original. Este teorema de Poincaré parece relegar
la flecha del tiempo a una mera ilusión. Sólo que el tiempo que se tarda
un sistema en regresar a su estado prístino aumenta enormemente al
tomar cuerpos o sistemas cada vez más grandes. Un cuerpo de la escala
humana, por ejemplo, tardaría más tiempo en retornar a su situación
original que todo el tiempo que ha transcurrido desde el Gran Pum que
señaló el principio de nuestro universo. Según estas ideas, la
irreversibilidad ocurre, pero tiene un aspecto transitorio aunque
larguísimo.

Estos últimos argumentos se conectan con otra cara de la flecha del


tiempo: la idea científica y contemporánea del Universo nos lo muestra
como algo que ha evolucionado, que está en continua expansión desde el
Gran Pum hace varios miles de millones de años. No se sabe todavía si
esta expansión continuará indefinidamente o si será seguida por otra
etapa de contracción. Pero lo que sí es seguro es que también existe una
flecha del tiempo cósmico. ¿Existe alguna relación entre las flechas
cósmica y termodinámica, entre la expansión del Universo y el crecimiento
de la entropía?

Otro elemento esencial en esta cuestión del tiempo es el concepto de


información. Cuando observo o describo un fenómeno siguiendo
minuciosamente la pista de todas las partículas que en él intervienen no
aparece la irreversibilidad por ningún lado; pero basta observar cualquier
propiedad global, esto es, del conjunto de partículas, para que surja la
flecha del tiempo. Esta dualidad se pretende explicar algunas veces
diciendo que en el segundo caso se maneja información parcial y por
necesidad incompleta del sistema que se estudia, y que tal falta de
información, o incertidumbre, crecerá con el transcurso del tiempo; para
finalizar, se arguye que es precisamente el incremento en la incertidumbre
lo que se manifiesta como irreversibilidad. Estos argumentos, basados en
la teoría de la información, tienen un tanto de subjetivismo: pretenden
explicar un hecho natural sustentándose en lo que el hombre conoce o
desconoce acerca de él. Para explicar la irreversibilidad es necesario
tomar en cuenta otro hecho esencial: la imposibilidad de hacer
mediciones cabalmente exactas. Es éste el origen de una incertidumbre
que aunque sea muy pequeña es ineludible, y es la evolución de dicha
incertidumbre lo que le da un sentido al tiempo.

En otros órdenes hay incógnitas más difíciles de despejar. Al examinar el


mundo exterior podemos tomar el papel de observadores o jueces que no
se involucran en el fenómeno que analizan. Pero la flecha del tiempo
también se manifiesta dentro de nosotros. Nuestra conciencia es
francamente direccional; hace una tajante distinción entre pasado y futuro,
entre recuerdo y adivinación. Existimos durante años, pero sólo vivimos
un instante y sólo tenemos conciencia del pretérito. La flecha del tiempo
psicológico, la que sentimos con mayor intensidad y que nos afecta
vitalmente, es, sin lugar a dudas, la más inescrutable.

X L I . S A L V A M E N T O M E D I T E R R Á N E O

EL PESIMISMO ecológico es una característica de los medios "ilustrados"


contemporáneos. Además de la gravedad de la situación actual (basta
mirar lo que hemos hecho del Valle de México: ya no queda viva ningún
águila lo suficientemente idiota para pararse por aquí otra vez), nuestra
preocupación se intensifica al contemplar la inercia burocrática que habría
que vencer para resolver, o siquiera mejorar, el problema de la
contaminación. Por ello resulta consolador constatar que, por lo menos en
otras latitudes, se toman las acciones necesarias en los ámbitos
legislativo, administrativo y técnico.

El esperanzador ejemplo lo dieron los 16 países de la cuenca


mediterránea, los que en un lapso de escasos dos años llegaron a firmar
un convenio de anticontaminación del Mar Mediterráneo. Gracias a la
intervención del Programa del Medio Ambiente de las Naciones
Unidas (PMANU), y a la buena voluntad de las partes, se salvaron
numerosos escollos burocráticos y políticos (hay que considerar que entre
esos países están España, Yugoslavia, Israel y Egipto), para sentar las
bases de una intensa y coordinada actividad técnica y científica.
Según el convenio firmado a principios de 1975, el PNAMU maneja varios
proyectos de investigación en los que colaboran laboratorios de diversos
países. Estos proyectos generaron una gran cantidad de información
sobre concentraciones de contaminantes, obtenida mediante los mismos
instrumentos y referida a los mismos estándares. Esta información es
indispensable para tomar las decisiones concretas y específicas que
impidan que se convierta el Mediterráneo en un gigantesco Mar Muerto.
El total de la inversión en esos proyectos es una suma modesta para
contribuir a salvar la vida natural de la cuna de la civilización occidental.

X L I I . T U N G U S K A

LA GALERÍA de problemas famosos de la ciencia tiene diversos requisitos


de admisión; algunos problemas han alcanzado la notoriedad por el papel
histórico que jugaron, por su trascendencia social o simplemente por ser
muy difíciles de resolver. Otros han logrado fama por su singularidad, que
los coloca en la frontera entre lo científicamente entendible y lo
calenturientamente imaginable.

Entre estos últimos está el misterio de Tunguska, que se refiere a un


extraño fenómeno que ocurrió en la región de Siberia central del mismo
nombre a las 7:17 a. m., hora local, del 30 de junio de 1908. En esa
ocasión y lugar se dio una gigantesca explosión que devastó un área de
taiga de 30 km de radio. Si sólo se contara con el relato de un granjero
que, estando a 60 km del lugar, vio cómo casi se quemó la camisa que
llevaba puesta, el fenómeno habría quedado en el saco donde los
científicos echan reportajes de ovnis, de marcianos y otras cosas del "más
allá". Pero la evidencia de una real explosión en Tunguska es sólida: el
observatorio de Irkutsk registró perturbaciones magnéticas, y muchos
sismógrafos registraron el concomitante temblor de tierra. Además, las
noches de Europa y del Asia Occidental fueron excepcionalmente
brillantes, y hasta en California, dos semanas después del suceso se
redujo la transparencia de la atmósfera.

La primera exploración científica del lugar estuvo a cargo de Leónidas


Kalik, quien la efectuó en 1927 con el apoyo de la Academia de Ciencias
de la URSS. Desde entonces, son muchos los investigadores que han
visitado el lugar y muchas las publicaciones y las hipótesis sobre la causa
del fenómeno. Dos investigadores que, atraídos por el misterio de
Tunguska, lo han reconsiderado con métodos modernos, son Ari Ben-
Menahen y Adolfo Bloch, del Observatorio Geofísico de Rehovot, Israel,
quienes usaron los datos extraídos de los registros de la época para
analizar el singular fenómeno. Entre las conclusiones a que llegan
resaltan la energía de la explosión, equivalente a 12.5 megatones
de TNT —para usar el familiar lenguaje de bombas y explosiones—, y su
localización a 8.5 km sobre el suelo.

Pero lo más atractivo de un fenómeno tan extraño es que los científicos


pueden echar a volar la imaginación para explicarlo. Entre las
explicaciones más jaladas de los cabellos están la de Jackson y Ryan que
sugieren bien podría haber sido un agujero negro; la de Hunt, Palmer y
Penny (aparecida en 1960 en las Transactions de la Sociedad Real de
Londres) que proponen que fue una masa casi crítica de uranio (una
verdadera bomba) de origen extraterrestre, y la de Cowan, Athur y Libby,
de que la explosión fue causada por un cuerpo formado por antimateria.
No obstante que estas hipótesis son lo bastante divertidas para que
encajen bien en la ciencia, parece que la explicación con mayor
probabilidad de triunfar es una más convencional ... y más antigua.

Ya en los años 30, Whipple y Astaponich habían propuesto,


independientemente, que el misterio de Tunguska se explica con suponer
que la cabeza de un cometa chocó de frentón contra la Tierra; en ese
caso, las pruebas registradas cuadran bien con un cometa relativamente
pequeño (con cabeza de unos 40 metros de diámetro), y la probabilidad
de que tal colisión ocurra (un choque cada 2 000 años) justifica tanto la
interpretación cuanto la conveniencia de viajar a Tunguska más seguido.

X L I I I . E L B U L L E T I N O F T H E A T O M I C
S C I E N T I S T S

LA HISTORIA del Bulletin of the Atomic Scientists comenzó pocos meses


después de las explosiones nucleares de Hiroshima y Nagasaki, cuando
millones de personas apenas se daban cuenta de lo que había sucedido.
Pero había un pequeño grupo muy enterado... y muy preocupado. Varios
científicos que habían jugado un papel crucial en la decisión de lanzar el
Proyecto Manhattan o participado activamente en él, ya habían tratado de
influir al gobierno norteamericano para impedir el uso de la bomba
atómica. Las pruebas experimentales en Nuevo México habían tenido
buen éxito, Alemania se había rendido, el Japón se desmoronaba... Pero
Roberto Oppenheimer, Leo Sziland, Jaime Franck. Alberto Einstein y
Eugenio Rabinowitch no contaban con la instauración del periodo de la
Guerra Fría.

Así nació el Bulletin, como manifestación de una conciencia sacudida ante


la pérdida de la inocencia. Con posterioridad, la revista amplió sus
intereses editoriales para incorporar las diversas implicaciones políticas y
sociales de la actividad científica. En la actualidad sigue representando la
mejor tradición liberal dentro del establishment norteamericano. Y el
adjetivo merece ser calificado ante quienes sólo atacan los dogmas de la
derecha desde posiciones igualmente dogmáticas. Restringido, claro está,
por la cultura norteamericana y sus sesgadas perspectivas, el Bulletin es
un verdadero foro donde se publican las críticas
al establishment provenientes de corrientes más radicales (por ejemplo,
Carlos Schwartz del movimiento conocido como Science for the People) y
aquellas dirigidas al mismo Bulletin por el ala reaccionaria (por ejemplo,
Eugenio P. Wigner).

Después de muchos años de ser dirigido por Rabinowitch y de pasar por


los problemas financieros que muchas revistas conocen, el Bulletin sigue
publicándose en Chicago, a unos cuantos metros del lugar donde Enrique
Fermi logró la primera reacción continua en cadena entre núcleos del
uranio, allá por 1942.

X L I V . M E T A L E S C O N M E M O R I A

MUCHOS sufrimos en los años escolares por no tener una memoria fiel;


entre los animales es un hecho que la memoria existe y no sólo en los
elefantes. ¿Y en el mundo inanimado? Pues allí también se da la
memoria. Claro que se trata de una memoria en un sentido sumamente
restringido y limitado; hay materiales que "recuerdan" lo que les pasó en
un pasado, y eso lo manifiestan comportándose de maneras distintas
según las peripecias de su historia. Todos nos hemos topado alguna vez
con algún metal particularmente necio, con algún alambre que pese a
nuestros esfuerzos conserva tenazmente su forma original. Pero lo que es
de veras sorprendente es que existen aleaciones que después de
quitarles una forma particular y de darles otra nueva, regresan
espontáneamente a su primer estado mediante un sencillo cambio de
temperatura.

Desde hace 40 años los metalurgistas conocían materiales que poseían


ese don de regresar a una forma previamente impuesta. No obstante, el
estudio y la búsqueda de aplicaciones de estos metales con memoria sólo
se intensificaron cuando Guillermo Buehler descubrió una aleación
llamada nitinol en un laboratorio de investigaciones militares de
los EU. Hoy se están viendo ya muchas aplicaciones pacíficas de los
metales con memoria: motores, seguros contra calentamientos filtros
intravenosos para coágulos, articulaciones óseas artificiales, ortodoncia y
un sinnúmero más. A quien piense en una pieza que pueda tomar
cualquiera de dos formas enteramente distintas, dependiendo sólo de un
cambio en la temperatura de unos cuantos grados, en un momento se le
ocurrirán decenas de aplicaciones.

X L V . L A F A M A D E L U C Y
EL TRABAJO de los antropólogos es muy arduo cuando tratan de reunir
sus rompecabezas: los restos fósiles de los homínidos primitivos de hace
millones de años. Buena parte del problema es que las piezas que se
tienen formaron parte de distintos rompecabezas, esto es, de distintos
individuos. El ingenio y el tesón permiten averiguar buena cantidad de
información sólo si se logra aclarar primero cuáles fósiles pertenecen a
cuál tipo. Afortunadamente, estas dificultades no se tuvieron con el
hallazgo francobritánico de un esqueleto, bastante completo, de tres
millones de años de antigüedad. El descubrimiento fue realizado por Don
Johanson y Marcelo Taieb en una región de Etiopía llamada Hadar, que
junto con la región de Kenya explorada por Ricardo Leakey ha sido la
mayor fuente de información sobre nuestro remotísimo pasado.

El esqueleto en cuestión, de una hembra muy famosa, hoy llamada Lucy,


perteneció a uno de los tres tipos de homínidos que en esa época
poblaban la región y es de muy baja estatura (alrededor de un metro).
Lucy era probablemente prima lejana de nuestros ancestros, otros
homínidos casi igual de chaparros, pero su familia no tuvo éxito en la vida
y desapareció. Otro tipo identificado, de un homínido más grandulón,
tampoco pudo sobrevivir. Gracias al descubrimiento del esqueleto de
Lucy, preservado bajo 100 metros de sedimentos, hoy entendemos mejor
esas historias tan antiguas.

X L V I . M U E R T E C E R E B R A L

LA NECESIDAD de contar con órganos frescos para trasplantes, ha


originado entre otras cosas un análisis de la definición legal de muerte y
un incremento en la investigación de la misma, considerada como
fenómeno natural. Dado que hoy es posible, en algunos casos, mantener
artificialmente el funcionamiento del cuerpo pese a la muerte del cerebro,
esta última ha merecido la atención de muchos grupos de investigación.
Además de los métodos eléctricos de detección de actividad cerebral, ha
sido necesario incrementar el estudio de la circulación sanguínea en el
cerebro, ya que es la suspensión de ella la que produce su muerte.
Para poder emitir un juicio seguro e inmediato acerca de la muerte del
cerebro, es necesario contar con pruebas que requieren equipo muy
refinado, las cuales normalmente no están consideradas por las normas
legales. Por fortuna, los casos de trasplante de un órgano vital que
obligan a un dictamen legal inmediato se dan sólo en los grandes
hospitales, en donde será relativamente sencillo contar con un laboratorio
para realizar las pruebas. Restaría, desde luego, revisar y actualizar la
legislación correspondiente en cada país.

X L V I I . E L O R I G E N D E L A S
G L A C I A C I O N E S

DESPUÉS de 100 años de polémicas, la explicación dada por


Milankovitch de las eras glaciales volvió a ganar adeptos entre los
climatólogos más conservadores, generalmente tibios ante ideas
revolucionarias. Milankovitch achaca la aparición de una glaciación a la
conspiración de varios cambios periódicos en el movimiento de nuestro
planeta: la precesión de su eje de rotación, el cambio en su inclinación
respecto a la eclíptica y la excentricidad de su órbita, son los efectos que
sumados hacen cambiar la cantidad de radiación solar incidente sobre
una latitud. Según los milankovitchianos, cuando esa radiación disminuye
lo suficiente, en condiciones apropiadas de precipitación y humedad, se
dispara una glaciación.

El modelito no ha podido probarse en definitiva como falso o verdadero.


La evidencia a favor cuenta con testimonios geológicos de Eberl (1930),
Broeker (1966) y Hays y compañía (1976). La argumentación en contra
señala que la teoría es demasiado simplista para las complicaciones
sutiles del cuadro de la climatología. Mas la teoría de Milankovitch tiene
una cualidad que hace tiempo perdió su autor: está viva.

Una muestra de ello es que ha permitido germinar nuevas e interesantes


investigaciones, como la de Juan Weertman, quien deduce las
dimensiones de las capas heladas que han cubierto los continentes
septentrionales durante los últimos 300 000 años. Su única suposición
que peca de poco realista es la de una precipitación que dobla la actual
en el norte del Canadá. Por lo demás, Weertman obtuvo resultados que
demuestran que los efectos apuntados por Milankovitch bien pueden
haber producido las glaciaciones. Al leer el trabajo de Weertman, no
dejamos de observar un punto que han pasado por alto otros críticos,
pero que será de interés para nuestros lectores: se predice que estamos
al comienzo de una glaciación que alcanzará su apogeo en sólo... 25 000
años.
X L V I I I . P R E O C U P A C I O N E S
M A T E M Á T I C A S

LAS MATEMÁTICAS tienen fama de esotéricas y a ella contribuyen la


mayoría de los matemáticos que, enamorados de su ciencia, no pueden
salir de su mundo para describírnoslo al resto de los mortales. Esto
dificulta enormemente las labores de divulgación de las matemáticas. Y
no me refiero a la difusión de las matemáticas de hace 50 o 100 años,
sino a las matemáticas de hoy, es decir, de las que hacen nuestros
matemáticos contemporáneos.

Para los que andamos en busca de chismes y noticias del mundillo de la


ciencia, la escasez de matemáticos divulgadores dificulta y casi
imposibilita cubrir "la fuente". Pero como en casi todo, las excepciones
vienen a rescatarnos del pantano: una de éstas es Gina Bari Kolata. Con
un estilo terso y conciso, con una rara habilidad para distinguir lo esencial
de un argumento y para explicarlo, la redactora (o redactor) de la
revista Science —para los que tenemos más de 30 años es difícil eludir la
evocación Lollobrigida del nombre, pese al apellido— nos lleva a vivir las
inquietudes y preocupaciones de lo matemáticos.

Ya hemos comentado que los matemáticos están teniendo que


acostumbrarse a vivir en el purgatorio de la duda, ante la imposibilidad
que presentan algunos enunciados para ser catalogados como ciertos o
verdaderos. Tal parece que las dudas abarcaran también otras
direcciones: hay afirmaciones que pueden ser probadas verdaderas o
falsas, pero su prueba es tan larga o laboriosa que nunca podría ser
cabalmente realizada por cerebro alguno, humano o electrónico. Esta
imposibilidad "práctica" de terminar la prueba de un enunciado
matemático ha sido investigada desde hace varios años por Alberto
Meyer, del MIT, y por Ricardo Stockmeyer, de la IBM. Ellos encontraron
que una afirmación arbitraria conteniendo 617 símbolos puede ser
"prácticamente imposible" de probar, en donde lo "prácticamente
imposible" quiere decir que requeriría de la ayuda de una computadora
con 10123 componentes, que es el número de protones que cabrían
empaquetados en el universo conocido.

Esta situación tan embarazosa ha hecho cambiar ya la actitud de algunos


matemáticos —casi tildados de traidores por sus colegas conservadores
—, que abogan por pruebas probabilísticamente correctas. Así, por
ejemplo, Miguel Rabin, de la Universidad Hebrea de Jerusalén, ha
presentado una forma de probar cuándo un número grande es primo, pero
la prueba fallará una en cada mil millones de veces. Quizá este nuevo
elemento de duda práctica en su hasta ahora exacto paraíso, haga que
los matemáticos lleguen a parecerse más a sus colegas los científicos
naturales (biólogos, físicos y químicos), quienes han aprendido a vivir
contentos con el consabido "dentro del error experimental".

X L I X . T R A N S F E R E N C I A T E C N O L Ó G I C A

LA TRANSFERENCIA de tecnología es tema de discusión generalizada


en los países desarrollados y en los que, como el nuestro, quizá nunca lo
estén. El problema medular es que nadie da algo por nada, así que
mientras se considere a la transferencia en una sola dirección, como
tendrá que hacerse en tanto no desarrollemos nuestra tecnología,
quedaremos mal parados. Esto no lo entienden muchos, ni en unos
países ni en los otros. En alguna ocasión, cuando todavía era secretario
de Estado de los EU, el mismo Enrique Kissinger hizo un ofrecimiento de
poner "una parte mayor de la tecnología de los EU a la disposición de las
naciones en desarrollo". Las medidas propuestas para lograr ésta y otras
transferencias parecidas, van desde un Instituto Internacional de
Industrialización (manejado por los EU, desde luego) hasta un technology
corps (que se inspira en el peace corps que tan poca paz produjo en la
era kennediana).

Varios científicos europeos y norteamericanos han criticado estas


propuestas argumentando que no se podrán implantar cabalmente. Mas
con la perspectiva que se logra mirando las cosas desde el lado estrecho
del embudo, tales críticas son claramente ingenuas aunque bien
intencionadas: lo peor que le puede pasar a un país pobre y atrasado es
que la política estadunidense de transferencia tecnológica se llegara a
realizar plenamente. Los países industrializados quieren intercambiar
aspectos secundarios de su tecnología (de la cual algo puede
aprovecharse) por ganancias económicas y políticas (haciéndonos más
dependientes de las fuentes primarias).

L . S O P A D E L E T R A S
EL DESCIFRE del código genético, una de las proezas científicas más
importantes de la historia, ha dejado como tarea su lectura. En efecto,
saber que la información biológica se concentra en el ADN y conocer el
alfabeto usado para contenerla, imponen como una de las labores más
importantes de la biología molecular el averiguar específicamente cómo
se escriben los mensajes bioquímicos.

El problema es semejante a tratar de leer un libro, escrito en alfabeto


romano, pero que no podemos abrir. Para resolver este problema de
lectura del ADN, los biólogos han seguido un método que, aprovechando
la analogía anterior, podría describirse como sigue: primeramente, al
incorporar algún elemento radiactivo en el proceso de impresión, marco
una de las letras del alfabeto con que se escribe el libro; después corto
las palabras y las frases en una letra específica, obteniendo fragmentos
del texto que puedo identificar por separado; este proceso lo repito con
cada letra del alfabeto. Resta el proceso de síntesis de información, que
pretende reconstruir el texto a partir de los segmentos yuxtapuestos.

En el caso real del ADN, el problema es más complicado debido a lo


microscópico del alfabeto, pero se ve simplificado por el número reducido
de caracteres del mismo (cuatro). Hasta hace unos años se contaba
solamente con técnicas para leer el ARN, pero no el
importantísimo ADN. Durante los últimos años se han logrado avances
significativos que permitirán la lectura e interpretación de gran cantidad de
información genética. Desde hace tiempo, gracias a técnicas elaboradas
inicialmente por Federico Sanger y A. R. Coulson, del Medical Research
Council de Gran Bretaña, y por Allan Maxam y Walter Gilbert de la
Universidad de Harvard, ha sido posible reducir drásticamente el tiempo
de lectura. Como ejemplo, hace unos diez años le llevaba a un grupo de
investigación cerca de dos años averiguar el ordenamiento de un
segmento de ADN con 20 elementos; hoy, esa labor se lleva al cabo en
únicamente un día. Sobra enfatizar la trascendencia de estos desarrollos
para el futuro inmediato de la biología. Para entretenimiento e ilustración
del lector, se dan a continuación tres sopas de letras, las cuales fueron
cocinadas cortando una frase después de cada una de las tres letras
usadas. El juego consiste en reconstruir la frase original.
El juego es muy sencillo. De hecho, en el caso del código genético una
buena parte del esfuerzo se va en hacer las sopas.

L I . L O S T É M P A N O S Y L O S D E S I E R T O S

EL PRÍNCIPE Mohamed Al Faisal, cuando era director de la Compañía


para Conversión de Agua Salina, de la Arabia Saudita, cual moderno
mecenas, contrató a una compañía francesa para estudiar la factibilidad
técnica y económica de remolcar grandes témpanos desde la Antártica
hasta su sediento país. Los resultados del estudio mostraron que esa
operación podría hacerse a un costo inferior al del proceso de desalación
de agua de mar y hasta se hicieron planes para comenzarla. De hecho, Al
Faisal llegó a fundar una compañía llamada Iceberg Transport
Internacional.

La idea es sólo una aparente novedad, ya que alrededor del año 1900
pequeños témpanos fueron remolcados desde la Antártica hasta
Valparaíso, Chile, y Callao, Perú. La posibilidad no deja de ser fascinante
por atrevida, y si es una muestra del uso que se le dio a los petrodólares
—además de los miles de becarios venezolanos, iraníes y árabes que
invadieron las universidades de Europa y los EU—, no cabe duda de que
en unas décadas la ciencia y la tecnología de los países más listos de
la OPEP será tan imaginativa y dinámica como la que más.

L I I . P O I N C A R É Y L A S C O M P U T A D O R A S
LA CONJETURA de Poincaré se refiere a un respetado y difícil problema
de matemáticas también llamado de "los cuatro colores". ¿Cuántos
colores distintos son necesarios para iluminar cualquier mapa, de modo
que dos regiones contiguas sean siempre de color diferente? Poincaré
conjeturó que cuatro colores son suficientes sin importar lo complicado del
mapa; desde entonces, los matemáticos —y no pocos amateurs— se han
quebrado la cabeza para tratar de probar si eso es cierto o falso.

Desde hace mucho se sabe que tres colores no son suficientes para
ciertos mapas: el de la República Mexicana es un ejemplo que requiere
cuatro colores —véase la esquina que forman Tlaxcala, Puebla, Hidalgo y
México: cada estado requiere un color distinto—. Así, para probar la
conjetura era necesario encontrar algún mapa que a fuerza necesitara
cinco colores —en cuyo caso la conjetura sería falsa—, o bien demostrar
que cualquier mapa imaginable requiere por lo más cuatro.

Esto último fue probado hace unos años por Kenneth Appel y Wolfgang
Haken de la Universidad de Illinois, EU. Para demostrar que Poincaré
había conjeturado correctamente, Appel y Haken, apoyándose en los
trabajos de otros investigadores, lograron reducir el problema general de
un mapa bidimensional arbitrario al análisis de 1936 casos particulares.
Este análisis lo efectuaron con la ayuda de una computadora debido al
gran número de casos que lo requerían, y a que el examen de cada caso
es muy laborioso. Como el escepticismo tiene asegurado un lugar entre
los científicos desde tiempos de Descartes, la demostración de la
conjetura está siendo revisada con sumo cuidado para ver si no contiene
algún error: pero Appel y Haken ya han logrado convencer a muchos
críticos que se habían distinguido por destruir previas "demostraciones"
que resultaron incorrectas.

Con esto parece que la historia de un famoso problema matemático ha


llegado a su fin. Una de las consecuencias del entierro es que los
matemáticos calificados de puros tendrán que enfrentarse al uso creciente
de una herramienta tan sucia como la computadora.

L I I I . E N E R G Í A

LA ESTRATEGIA de abastecimiento de energéticos es un serio problema


mundial. Ante la crisis energética de los setenta, hasta parecía anunciar la
inminencia del límite del crecimiento. Después de las medidas de ahorro
energético por parte de los países industrializados, que contribuyeron a
meter en problemas a los productores de petróleo, ha disminuido la
preocupación al respecto. Sin embargo, el problema de garantizar el
abasto de energía sigue latente en todo el mundo. En México, dicho
abastecimiento fue declarado prioritario dentro de las políticas
gubernamentales desde 1976.

Si se dejan de lado las posibilidades técnicas en el siglo XXI, que incluyen


a la fusión nuclear como la de mejor perspectiva, las alternativas
presentes caben en tres rublos: medios convencionales (hidroenergía,
petróleo y carbón), energía nuclear (reactores de fisión) y medios
"exóticos" (energía solar, eólica, geotérmica y de mareas). La evaluación
tecnológica y económica de estas alternativas corresponde a un
tratamiento de fondo; aquí anotaremos solamente algunas implicaciones
de dichas posibilidades, que tienen un peso esencial en las decisiones al
respecto y que se han estado manifestando en diversos medios.

Primeramente observamos la oposición entre la corriente "ambientalista" y


la "energicista". La solución que acarrea la energía más barata casi nunca
conlleva la mejor conservación del ambiente. La actitud política
predominante parece ser de rancio eclecticismo: ni tanto que queme al
santo, ni tan poco que no le alumbre. Tal fue el resultado, por ejemplo, de
una intensa y cara batalla que se libró en el estado de
California, EU, sobre la instalación de plantas nucleares; mientras los
ambientalistas perdían en las urnas, se llegó a una transacción en el
congreso estatal. Tales batallas se libran a diario en los países
industrializados con resultados más o menos parecidos; pero en nuestros
subdesarrollados países las fuerzas no están equilibradas debido a la alta
prioridad del desarrollismo y a la debilidad de los grupos ambientalistas.
Si bien nuestra estructura industrial es cuantitativamente menos dañina
por ser raquítica, sus efectos son cualitativamente más graves por falta de
responsabilidad técnica y administrativa.

La segunda cuestión de política energética es de


nacionalismo vs. transnacionalismo. La dependencia de fuentes externas
de energía es un factor esencial a evitar para lograr un sano desarrollo
interno. Como caso ilustrativo de un nefasta política está el Brasil, que
comenzó a preocuparse muy tarde por explotar sus propias bases
energéticas; como ilustración de una decisión acertada en este sentido
está Francia, que partiendo de una escasez local de petróleo, carbón y
caídas de agua, se lanzó con oportunidad en un plan nucleoeléctrico que
suministra ya cerca del 70% de su energía a partir de yacimientos
franceses de uranio y de una avanzada industria nuclear, también
nacional.

Una tercera faceta política es de puro neoimperalismo.

Así, por ejemplo, los EU están preocupados por incrementar su


potencialidad nuclear "pacífica", no únicamente por la inseguridad del
abasto petrolero por la OPEP (preocupación que podría quizá clasificarse
como nacionalismo de rico), sino también por la pérdida del monopolio
tecnológico nuclear del que durante años disfrutaron y que acarrea "una
mayor pérdida de influencia de los EU, como preocupadamente
manifiesto el director de la influyente revista Science.

El último ingrediente de este coctel de energéticos también está asociado


a la alternativa nucleoeléctrica y es el imperialismo a la antigüita: las
llamadas potencias nucleares (en el sentido militar) no están dispuestas a
perder el monopolio que en conjunto imponen al resto de los países. El
argumento favorito de los monopolizadores nucleares —sean capitalistas
o socialistas— está sustentado en la reducción al absurdo y podría
plantearse más o menos así: ¿se imaginan a Idi Amín con una atómica en
la mano?

L I V . N E O M E S M E R I S M O

EL MESMERISMO pasó a la historia sin haber adquirido nunca un buen


status científico, aunque de vez en vez resurge disfrazado, como en las
pulseras magnéticas que se pusieron de moda hace unos años. Con
estos antecedentes, la mención de posibles efectos curativos de ondas
electromagnéticas largas (para distinguirlas de los rayos infrarrojos y X)
provoca la incredulidad de los científicos, quienes recuerdan la fortuna de
muchos charlatanes.

Desde hace varios años se han estado usando en medicina ondas


electromagnéticas de muy alta frecuencia en el tratamiento de lesiones o
heridas de diversos tipos. La evidencia acumulada en los últimos 20 años
muestra que el tratamiento con pulsos electromagnéticos, con frecuencia
en la banda de un metro, acelera el proceso de regeneración de tejidos
lastimados. Si esta técnica no ha salido de la etapa experimental en
diversos hospitales, principalmente de los EU y el Canadá, es porque ella
produce multiplicidad de efectos y porque todavía se desconoce el
mecanismo por el cual la onda electromagnética interactúa con los
procesos celulares.

Todo indica que la onda electromagnética afecta los potenciales eléctricos


a través de la membrana celular, lo que a su vez modifica el transporte de
iones por la misma. Éstos son fenómenos muy complejos a los que habrá
que dedicarles muchas investigaciones que podrían conformar una nueva
especialidad: la electrobioquímica. Además, el adelanto del tratamiento
con pulsos electromagnéticos indudablemente estimulará nuevas vías de
investigación que quizá deparen importantes sorpresas.
L V . P E L I G R O S D E L A C I E N C I A

HACE varios años, Stanley Cohen y Heberto Boyer descubrieron una


técnica de la que se ha desarrollado vertiginosamente una nueva
disciplina. La ingeniería genética parecería venir a realizar los sueños de
muchas mentes ingenuas y calenturientas. Desde los pegasos, grifos,
centauros y sirenas, hasta el pavoroso zorrillofante de Al Capp, sobran
testimonios de la capacidad imaginativa para enmendar la plana de la
madre naturaleza a fuerza de engendros.

La ingeniería genética, mediante la técnica del ADN recombinado, permite


cruzar seres vivos sin importar su familia, género o especie. Esta
posibilidad contrasta con la situación anterior de la genética, que
sustentada en la cría selectiva de los organismos aprovechaba con
pasividad la aparición espontánea o inducida de mutantes. Como un
resultado práctico de estas investigaciones clásicas, contamos con frutas
de cualquier estación, con cereales de gran rendimiento y con ganado de
alto registro. Aunque cabe señalar que fueron esencialmente los mismos
mecanismos de evolución dirigida los que, más o menos
inconscientemente, aprovechó la humanidad durante milenios para llegar
a domesticar plantas y animales.

Las nuevas técnicas de la ingeniería genética abren un horizonte


insospechado, y provocan las reacciones de quienes ven en esta amplitud
de miras una fuente de aciagos peligros. La preocupación no es
extravagante: no se teme que algún monstruo, al estilo del que creó el
doctor Frankenstein, asuele las de por sí poco seguras calles del Boston
nocturno, sino la aparición o producción involuntaria de un microscópico
agente muy patógeno. La versión hollywoodense del peligro, más que las
encarnaciones de Karloff y Chaney, sería entonces The Andromeda
Strain.

Como fiscal en el juicio vs. la ingeniería genética, que se escenificó en


Cambridge, Mass., al final de los setenta, destacó Jorge Wald, premio
Nobel, quien consideró insuficientes las reglas propuestas por
los National Institutes of Health de los EU —y que son semejantes a las
propuestas en la Gran Bretaña por un grupo consejero en manipulación
genética— para evitar los peligros de la experimentación en este campo.
Imbuido del más puro espíritu conservador, Wald declaró a The
Sciences, revista de la Academia de Ciencias de Nueva York: "Mis
sentimientos son ambivalentes, la nueva tecnología me entusiasma por su
virtuosismo y su potencialidad intelectual y práctica; sin embargo, el
precio a pagar es muy alto, quizá demasiado alto." Los defensores han
sido numerosos e ilustres, incluyendo también varios premiados con el
Nobel, como David Baltimore, Josué Lederberg y Howard Temin. Aceptan
la necesidad de regulación, pero están convencidos de que la
investigación en ingeniería genética debe y puede proseguir minimizando
los peligros.

La defensa ganó el caso en Cambridge. Los laboratorios que ya llevan


varios años trabajando en ingeniería genética sin ningún accidente,
demuestran que los defensores tienen la razón. Aunque no puede uno
dejar de recordar las discusiones acerca de los peligros de la energía
nuclear. Los daños causados por accidentes nucleares suman un número
mucho menor de víctimas que las de Hiroshima y Nagasaki. El peligro
más grande, con la energía nuclear o la ingeniería genética, no lo
constituyen los accidentes o los descuidos, sino el uso mal intencionado o
irresponsable.

L V I . C I E N T Í F I C O S T R A M P O S O S

LA CIENCIA tiene fama de infalible, pero está hecha por mundanos


científicos. ¿Cómo evitar que los yerros de éstos se reflejen en aquélla?
La respuesta está en la historia de la ciencia misma, o como dicen los
pomposos, en el "método científico". Al pasar de muchos años se han ido
creando y afinando las reglas de un juego que pretende la objetividad
suprema: que cualesquiera observadores lleguen siempre a las mismas
conclusiones acerca de un problema, y tantas veces como quieran. En la
actualidad, las reglas del juego científico incluyen criterios para clasificar
conclusiones y problemas como "científicos", esto es, simplemente, como
válidos y conservan como elemento esencial la obtención de datos
mediante experimentos.

¿Cómo garantizar que los científicos no hagan trampa en su negocio? En


los aspectos teóricos, de planteamiento, deducción y conclusión,
el offside se dirime por la crítica dura de los demás investigadores, los
que al juzgar un escrito científico, desempeñan el múltiple papel de
colegas, jueces de línea y adversarios. La crítica suele ser despiadada,
para pesar y mortificación del científico novel, subdesarrollado o
inmaduro. Por ello en la ciencia moderna la patente del oficio la suministra
la publicación (no la impresión) del resultado de los desvelos del
interesado.
Pero en cuanto a los indispensables datos experimentales, el único
testimonio válido sigue siendo la repetición de los mismos por personas
ajenas al autor (aquí tampoco vale mano negra). Los descubrimientos
más importantes en campos de moda y muy competidos, son siempre
sujetos a esta prueba, y, debido a ello, los investigadores involucrados se
esfuerzan por curarse en salud probando y comprobando ellos mismos
sus resultados.

Aunque no falta quien, por precipitación o impericia, se lanza al ruedo —


recordamos el "descubrimiento de un cuark— sin haberse probado
siquiera con una vaquilla; o a quien, después de haber alcanzado la
celebridad y de que sus conclusiones fueron probadas ciertas, se le
encuentra "algo raro en sus datos".

Es famoso el caso de Jorge Mendel, el padre de la genética, cuyos datos,


al ser revisados en 1936, fueron hallados "demasiado buenos para ser
ciertos". Más recientemente, M. S. Swaminanthan, impulsor de la
revolución verde en la India, fue acusado también de presentar datos
falseados. La dificultad de descubrir a los científicos tramposos es mayor
en los campos científicos menos importantes, ya que es poco interesante
y escasamente retribuyente el repetir experimentos poco glamorosos. En
estas últimas áreas la crítica experimental anda más despacio y pueden
pasar muchos años antes de que alguien descubra "algo raro" en los
datos del científico poco escrupuloso.

L V I L V O L C A N E S

EL AVANCE de la vulcanología es sorprendente: no sólo se ha logrado


aclarar el origen de los fenómenos volcánicos, sino que las modernas
técnicas de detección permiten predecir la actividad de volcanes
particulares. Buena parte de la tarea consiste en determinar cuándo vale
la pena estudiar cierto volcán.

Hay algunos que son evidentemente activos, que han tenido erupciones
recientes y que por estar cerca de áreas densamente pobladas no
deberían estar sin supervisión. De éstos existen en el mundo más de 700
y sólo unos cuantos han sido estudiados con detalle. Hay otros volcanes
que, sin estar realmente activos, han eruptado de vez en vez, con
períodos de reposo hasta de miles de años. A estos volcanes se les
clasifica hoy como durmientes, para distinguirlos de los verdaderamente
extintos, de los que no se espera ninguna actividad.

A veces ocurren sorpresas desagradables y trágicas, como la del Chichón


en el Sur de la República, o como la erupción del monte Lamington en
Nueva Guinea que mató a casi 3 000 personas... y ni siquiera se sabía
que era volcán. En Guadalajara hay evidencia de 12 erupciones
prehistóricas, y por ello no puede considerarse como zona volcánica
extinta. Cerca de la ciudad de México y dentro del mismo Distrito Federal
tenemos varios volcanes, uno de los cuales, el Xitle, tuvo una erupción
hace 4 000 años y otra hace 2 000, la cual produjo esa belleza natural del
pedregal de San Ángel, que antaño sirvió de refugio a los aztecas y que
hoy prácticamente desaparece debajo de palacetes y de chozas.

L V I I I . P E D R O L E O N I D O V I C H K A P I T S A

SE HABLA mucho de la tecnología, de la economía y de la política de los


energéticos, y se relega a un papel secundario la visión científica del
problema. El olvidar que la termodinámica y otras áreas de la física lidian
con los aspectos más esenciales y por tanto generales de los procesos
energéticos, es especialmente grave cuando se tienen que considerar
alternativas totalmente disímbolas entre sí. Pero entre tantos olvidadizos,
Pedro Leonidovich Kapitsa siempre trató de poner las cosas en su lugar.

Hasta poco antes de morir ya octogenario, Kapitza fue director del


Instituto de Problemas Físicos de la URSS, una institución relativamente
pequeña, con grandísima calidad e influencia —algunos aquí en México la
clasificarían como elitista—, y que él creó a partir de casi nada por allá de
1935. Kapitsa se formó bajo la dirección de otro gran físico, A. F. Ioffe, en
el Instituto Politécnico de Petrogrado por los años de la Revolución de
Octubre. Pese a las graves dificultades que enfrentaba la Unión Soviética,
su gobierno lo comisionó para trabajar en el Laboratorio Cavendish,
dirigido por Ernesto Rutherford, desde 1921 hasta 1934. Una vez pasada
la guerra, las políticas estalinistas lo tuvieron "congelado" entre 1946 y
1955. Pero en todo momento Kapitsa se mostró como un hombre de fibra
y de talento superior. La calidad de su producción científica era tan
grande que el Comité Nobel no pudo dejar de darle el premio, que recibió
en 1978.

Sin necesidad de recordarnos la vigencia de las dos primeras leyes de la


termodinámica para cualquier proceso energético, Kapitsa examinó
sistemáticamente el flujo de energía en cualquier transformación. El punto
central es que dicho flujo está constreñido por factores físicos en cada
proceso energético, de modo que para extraer con éste cierta potencia,
será necesario darle dimensiones mínimas al aparato que lo realizará.
Esto impone serias limitaciones para las fuentes de energía de gran
potencia, indispensables en nuestro mundo de grandes concentraciones
urbanas e industriales.

Al examinar las distintas fuentes energéticas con este criterio, se llega a


que la única fuente capaz de sustituir a los energéticos químicos —como
el carbón y el petróleo— es la nuclear. Además, se pueden entender las
dificultades actuales para realizar la fusión nuclear controlada también
como un problema de poco flujo energético. Pero quizá lo más importante
del interés que tuvo Kapitsa por los energéticos, no sean sus resultados
específicos, sino el rescatar una manera de pensar profunda y sintética
que está hoy naufragando en un mar de fruslerías técnicas.

L I X . F L U J O D E I N F O R M A C I Ó N

EL EXTENSO uso de computadoras ha planteado nuevos problemas


legales, algunos de nivel internacional. Uno de los más característicos se
refiere a la transferencia de datos de un país a otro. Excepto en tiempos
de guerra, fría o caliente, siempre ha habido un flujo liberal de información
científica entre países, pero ha estado naturalmente limitado por la
imposibilidad física de transportar y acumular grandes cantidades de
información. Esta situación ha cambiado radicalmente con el uso de
computadoras para almacenar y manejar nutridos bancos de datos y ya
hay muchos ejemplos en los que son compartidos entre distintos países.

El problema legal aparece en relación a los bancos de datos usados por


instituciones privadas —como bancos, compañías de seguros, agencias
de detectives, etc.— que acumulan información sobre personas. Cada
país, por lo menos los más desarrollados, tiene leyes para controlar el
manejo de tales bancos de datos de manera que no se infrinjan las
garantías individuales en cuanto a discreción y uso específico de la
información personal.

En la República Federal Alemana, por ejemplo, la ley obliga a destruir


toda la información con más de cinco años de antigüedad; se evita así
que se use información obsoleta sobre alguna persona y se obliga a la
empresa a obtener una nueva aprobación explícita por parte del sujeto
que da los datos. La diferencia en legislación al respecto, de un país a
otro, ya ha provocado dificultades, Mientras los gobiernos comienzan a
tener consultas en la materia, algunas compañías han mudado sus
bancos de datos a países con legislación más liberal. Se dio el caso de un
consorcio detectivesco que ha mudado su banco de datos a Luxemburgo,
donde lo puede consultar directamente por teléfono desde cualquier país
de Europa Occidental. Queda por otro lado el peligro de la exportación de
información gubernamental que, sin ser secreta, requiere de cierto grado
de discreción, el cual se garantizaba tradicionalmente por la mera
dificultad física de manejar numerosos y pesados volúmenes de archivo.

L X . T O R O S M A T E M Á T I C O S
HAY teoremas matemáticos de tan difícil resolución que los profesionales
se los ponen de "toritos"... y a veces hasta con apuestas. Hace más de 40
años, el matemático húngaro Pablo Erdös, junto con su colega Pablo
Turán, planteó un problema y ofreció 1000 dólares a quien lo resolviera.
Después de mucho tiempo, durante el cual todos los intentos fracasaron,
el matemático Szemerédi, también húngaro, pudo resolver por fin el
problema inventado por los dos Pablos y ganarse la apuesta.

La prueba presentada por Szemerédi permite ejemplificar lo largas y


difíciles que se han vuelto las demostraciones matemáticas en algunos
campos —en este caso se trata de un problema de combinaciones en la
teoría de conjuntos—. En efecto, Szemerédi nunca escribió su prueba
sino que, por alguna razón desconocida, prefirió dictársela a un colega.
Esta versión escrita era casi incomprensible, de modo que otro
matemático, Ronaldo Graham, de los EU, se impuso la tarea de
reescribirla para que otros pudieran entenderla. Graham tuvo que trabajar
durante varios meses en el asunto, y obtuvo al final un manuscrito de 100
páginas del más apretado razonamiento matemático. Aunque esta versión
pudo ser estudiada por el mismo Erdös —que tenía que convencerse
antes de pagar los 1 000 dólares— y por Klaus Roth, de la Universidad de
Londres, el propósito de Graham de volver legible el original se alcanzó
solo en lo mínimo: el número de matemáticos que han leído la
demostración, y que según ellos mismos la han entendido, no pasa de
diez.

Para aclarar las cosas —o para complicarlas—, un tiempo después Harry


Furstenberg, de la Universidad Hebrea de Jerusalén, presentó una
demostración distinta e independiente del mismo problema de Erdös y
Turán. La importancia de la prueba de Furstenberg estriba en que la
realizó en un campo de las matemáticas, la teoría ergódica, en apariencia
ajeno al del problema. La demostración de Furstenberg es evidentemente
más corta que la de Szemerédi ya que sólo tienen 82 páginas, aunque
también es muy difícil de seguir. Nadie sabe todavía cuál es la más difícil
de las dos por la sencilla razón de que nadie ha podido leer ambas.

L X I . A N A L O G Í A S A N I M A L E S
DESDE tiempos de Esopo ha sido popular aprovechar las semejanzas y
las diferencias entre las personas y los animales para hacer claro algún
punto o mensaje. Las técnicas usadas son la analogía, la caricatura, el
contraste y la reducción al absurdo. Los resultados aparecen en literatura,
moralística, folclor, ciencia y política. Englobando las dos últimas
actividades, ciertas mentes reaccionarias han usado con frecuencia, y
desde hace mucho, un falso paralelismo científico entre los animales y las
personas para ejemplificar y convencer acerca de sus propias y
retrógradas ideas políticas. Así, la rígida estructura social de las pobres e
imbéciles abejas —muy interesante como muestra de una primitiva
sociedad biológica— ha sido argumento en favor de la ley y el orden al
estilo fascista; o el dominio violento de unas especies sobre otras se usa
como pretendida justificación de colonialismos y racismos.

Dentro de estos abusos del maravilloso poder de la analogía, es raro


encontrar ejemplos que pretendan demostrar las bondades de la justicia y
la democracia, no tanto porque no existan algunas mentes "progresistas"
que estén racionalmente perturbadas, sino más bien porque los órdenes
zoológicos no se distinguen por sus méritos democráticos.

Por otro lado surge la intransigencia y el dogmatismo de algunas


mentalidades, supuestamente progresistas, ante planteamientos
científicos serios que abordan temas escabrosos por sus posibles
consecuencias políticas y sociales; esa reacción antirracional representa
también un peligro para el sano desarrollo científico, el cual, desde
cualquier punto de vista consistente, es ciertamente una garantía en
contra del pensamiento retrógrado. Un ejemplo notable de este último
peligro lo dio la controversia en torno del libro Sociobiology, y de su autor,
Eduardo O. Wilson, quien es profesor de la Universidad de Harvard, EU.

Eminente entomólogo, Wilson lanzó en su libro lo que puede ser la semilla


de donde germine una nueva disciplina: el estudio biológico de las
estructuras sociales. Después de haber recibido una crítica científica muy
favorable, Sociobiology fue duramente atacado en el New York Review of
Books por un grupo de académicos radicados también en Harvard. El
ataque fue político y estaba dirigido en contra del "contenido reaccionario
del libro", pero sucede que la tendencia política de Wilson no es patente
en ningún punto de su libro, de modo que la acusación era una
extrapolación por parte del grupo impugnador, extrapolación que Wilson
rechazó argumentando que él nunca ha escrito, ni dicho, ni pensado de
esa manera. ¿Cuál es el punto en discusión? Pues el resbaloso tema de
la influencia genética sobre una estructura social.

Es indudable que el asunto se presta para hacer las falsas analogías


como las que mencionamos más arriba, y llegar a falacias científicas de
claras implicaciones políticas. Debido a ello amerita que desde luego se le
critique para garantizar que no salgan nuevos Heribertos Spencers o
Guillermos Shockleys que vengan a "racionalizar" la injusticia social y
racial con argumentos científicos falsos o fuera de contexto. Es claro que
el punto central de la sociobiología estará a discusión por mucho rato,
aunque los primeros críticos de Wilson hayan metido la pata —haciendo
acusaciones que no podían probar.

Pero la discusión ya sacó a la luz un tema quizá más importante. En


efecto, se llegó a argumentar que "cualquier investigación sobre los
caracteres genéticos de la sociedad humana es necesariamente negativa,
por sus efectos sociopolíticos, y por tanto no debe realizarse en ninguna
circunstancia". El asunto es peliagudo aunque suene tan sencillo. En
efecto, si se demuestra que el resultado de una investigación va a tener
graves consecuencias para la humanidad, todo mundo estaría de acuerdo
en que tal investigación debe evitarse a toda costa. Pero entonces el
problema es aclarar quién es el que define lo negativo o lo malo. Inclusive
entre los que aceptamos la bondad de la igualdad y la justicia, habemos
muchos que preferimos rebatir la falacia con la razón y la confusión con la
claridad —aunque cueste más trabajo—, que aceptar la censura sobre
ciertas opiniones o campos de investigación.

L X I I . L A B R Ú J U L A L O C A

SI HACE 12 350 años se hubiera usted perdido en la selva y, para salir


del enredo, echara mano de su brújula, terminaría totalmente
desnorteado. En efecto, el profesor Moerner, de la Universidad de
Estocolmo, y el profesor Lanser, de la de Amsterdam, estudiaron unas
muestras de roca del fondo del Atlántico; ellas indican que en esa fecha el
campo magnético terrestre estaba apenas acomodándose para apuntar
en la dirección actual, después de haber apuntado en el sentido opuesto
durante varios miles de años.

Tal suceso no fue único en la historia de nuestro planeta; en el transcurso


de millones de años han ocurrido muchas inversiones del campo
magnético de la Tierra y han dejado su huella en las rocas de los fondos
oceánicos. La importancia del descubrimiento de Moerner y Lanser no
estriba pues en lo novedoso de una inversión magnética, sino en que
haya ocurrido una en esa fecha, tan reciente que ya había entonces
pobladores en América.

L X I I I . H O Y O S N E G R O S

EL DESARROLLO de la astronomía en los últimos decenios ha deparado


descubrimientos sensacionales. La imagen de un Universo formado por
estrellas, nebulosas y planetas, agrupados en galaxias y sistemas
planetarios, se ha enriquecido con objetos de propiedades singulares y de
nombres extraños, tales como pulsares, cuasares y hoyos negros. El
descubrimiento de los dos primeros constituyó una verdadera sorpresa
que puso a prueba la imaginatividad de los astrofísicos. De los tres, los
hoyos negros son los más extraños a nuestra común experiencia, aunque
su existencia fue vislumbrada con anterioridad a su descubrimiento, hoy
quizá cercano a su confirmación definitiva.

Además de dedicarse a formular las leyes de la ciencia, a los


investigadores les gusta enunciar reglas acerca de su oficio. Una de éstas
manifiesta de alguna manera la potencialidad del mundo natural, dice que
si hay algo que puede ocurrir, entonces ciertamente ocurrirá. Esta regla
resume una larga experiencia: casi todos los fenómenos o entes que ha
podido concebir la imaginación científica, y cuya existencia es
rigurosamente compatible con las leyes de la ciencia, más tarde o más
temprano resultan en efecto descubiertos. De las innumerables
predicciones del pensamiento científico, las que anticipan un ente todavía
inobservado y apenas sospechado rayan en lo fantástico e increíble.

Recordamos algunos ejemplos notables de estas anticipaciones: en 1905,


Alberto Einstein predijo la relatividad de la mediciones espaciales y
temporales, que ha sido confirmada desde entonces con amplitud;
alrededor de 1930, Pablo Dirac infirió la existencia de antimateria, que fue
descubierta pocos años después y que hoy es producida en minúsculas
cantidades y por brevísimos lapsos en varios laboratorios. A esta
categoría pertenece la predicción de hoyos negros y de sus propiedades.

Los hoyos negros nacen como una posibilidad dentro de las leyes
gravitacionales de Einstein. En la década de los sesenta, los teóricos
mostraron que si existiera un objeto con grandísima densidad, la fuerza
gravitatoria que atraería mutuamente a todas sus partes,
comprimiéndolas, podría superar a cualquier otra fuerza conocida que se
opusiese a tal compresión. En tal circunstancia, se produciría la implosión
o colapso del objeto, que iría reduciendo su tamaño e incrementando su
densidad de manera continua e irreversible. Pero la misma teoría
gravitacional predice algo aún más espectacular: el colapso llevaría al
objeto a un estado en el cual nada, absolutamente nada, ni siquiera la luz,
podría escapar hacia el exterior. Un objeto en tal estado no violentaría
ninguna ley física conocida, aunque represente un reto a nuestra
imaginación.

Tratemos de imaginar lo que significa el estado recién descrito: tenemos


ahí un objeto de una masa muy concentrada, de él nada puede escapar:
ni partículas, ni ondas de radio, ni rayos X, ni la luz visible. Esto quiere
decir que no podríamos observar directamente el objeto por ningún medio
imaginable, y que nada de lo que en él ocurriere podría tener efecto
alguno sobre lo que esté fuera de él mismo. Para casi todo propósito,
sería como si tal objeto no existiera en el universo observable, como si
fuera un agujero en el espacio: un hoyo negro. El nombre es descriptivo
aunque modesto en sus evocaciones; se trata del hoyo más negro que es
posible concebir y, abusando del lenguaje, se diría que es también el más
hoyo.

Para ayudar a imaginar un hoyo negro, conviene ver una serie de


ejemplos hipotéticos. Comenzamos con los pies bien puestos en el suelo:
para que un objeto escape de la atracción gravitatoria terrestre, al lanzarlo
al espacio desde la superficie de nuestro planeta, es necesario impulsarlo
con una velocidad de 11 km/s o mayor. A ésta se le llama velocidad de
escape. Para otro cuerpo celeste con la misma masa de la Tierra, pero
con la cuarta parte de su radio, la velocidad de escape es de 22 km/s. Así,
cuanto más pequeño sea el cuerpo de una cierta masa, esto es, cuanto
más denso sea, mayor será la velocidad necesaria para escapar a su
acción gravitatoria desde su superficie. De tener un cuerpo con sólo 1 km
de radio y la masa terrestre, se requeriría una velocidad de 2 200 km/s
para escapar de él. Y si ese mismo cuerpo tuviera un radio de unos 5 cm,
la velocidad de escape sería mayor que 300 000 km/s, la velocidad de la
luz. Esto último significa que de tal cuerpo no se podría escapar ni la luz,
la cual tiene la máxima velocidad posible de acuerdo con toda la
experiencia conocida y con la teoría de la relatividad. Ese cuerpo sería
entonces un hoyo negro.

De acuerdo con la teoría, los hoyos negros pueden ser de cualquier


tamaño según sea su masa. Podrían tener la masa terrestre y unos
cuantos centímetros de circunferencia, como en el ejemplo anterior, o ser
gigantescos hoyos con cientos de kilómetros de circunferencia y masa
entre 4 y 50 veces la del Sol, o también podrían ser minúsculos agujeros
de 1000 millones de toneladas de masa y el tamaño de una partícula
nuclear.

A pesar de todos los atractivos de los hoyos negros para la imaginación


científica, mientras su existencia no se observe directa o indirectamente
sólo quedarán como entes posibles en nuestro universo, pero hipotéticos.
La misma esencia de un hoyo negro lo hace muy difícil de detectar: no lo
podemos "ver" con ningún instrumento porque de él no sale ninguna
señal; cualquier búsqueda tiene que basarse entonces en los efectos
indirectos producidos por el cuerpo colapsado. Es obvio que cerca de la
Tierra no hay gigantescos hoyos negros, ya que de haberlos habido
hubieran sido descubiertos hace tiempo por sus efectos gravitatorios
sobre objetos visibles. Entonces, si hay hoyos negros cercanos ellos son
muy pequeños, y los muy grandes estarán necesariamente muy lejos de
nosotros. Dentro de la última posibilidad, lo más atractivo es que un hoyo
negro forme un sistema estelar binario con una estrella normal; el hoyo
negro tendría un efecto sobre su compañera y este efecto podría quizá
observarse y achacarse, fuera de toda duda, al hoyo negro.
Ésta es la línea de investigación iniciada en 1964 por dos astrofísicos
soviéticos: Zel'dovich y Guseynof. Al estudiar los centenares de sistemas
estelares binarios que se conocen, formados por dos estrellas que giran
alrededor de un centro común y en los que sólo una de ellas es visible,
Zel'dovich y Guseynof encontraron cinco candidatos viables a contar con
un hoyo negro. Desde entonces, otros estudios han incrementado este
número, aunque por un tiempo sólo era posible mostrar que dichos
sistemas binarios podían tener un hoyo negro.

La esperanza de llegar a confirmar o desechar la existencia de los hoyos


negros renació con el descubrimiento, en la década de los setenta, de
fuentes estelares de rayos X y con el posterior estudio de ellas mediante
satélites, iniciado con el Uhruru, satélite italonorteamericano. ¿Es posible
que estos rayos X sean producidos por la acción gravitacional de un hoyo
negro? En efecto, varias de las fuentes estelares de rayos x coincidían
con sistemas binarios sospechosos de tener un hoyo negro. Se ha
desatado así una intensa actividad de muchos astrofísicos, unos que
tratan de demostrar que los hoyos negros pueden producir los efectos
observados, y otros que, en el papel de abogados del diablo, se esfuerzan
por probar que los mismos efectos producidos por causas más
convencionales. De todo esto ha quedado un gran sospechoso: está
localizado en la constelación del Cisne y es conocido como Cygnus X-1;
consta de dos cuerpos, una estrella visible y el otro invisible, muy denso y
con una masa ocho veces mayor que la del Sol. Esta masa es tan grande
que podría explicar el colapso gravitacional que bien pudo haber formado
el hoyo.

Pero no todo ha sido buscar los hoyos negros. En paralelo con esta
búsqueda, los teóricos han aceptado el reto que significa para la física la
posible existencia de materia en condiciones tan extraordinarias. Por un
lado, se logró un avance teórico formidable gracias al genio de Esteban
Hawking, de la Universidad de Cambridge en Gran Bretaña. Hawking
combinó la teoría gravitatoria de Einstein con otras dos teorías físicas —la
mecánica cuántica y la termodinámica— para mostrar entre otras muchas
cosas que los hoyos negros producen la emisión, desde la región justo
fuera de su superficie, de radiaciones subatómicas. Ésta es una
contribución muy importante a la física contemporánea, aunque sus
consecuencias hoy apenas se vislumbran.

Por el otro lado, los hoyos negros se han usado ya como hipótesis para
explicar una amplia gama de fenómenos: se discute si en el centro de
algunas galaxias existen hoyos negros con masas cientos de millones de
veces la del Sol, si en el Gran Pum, que quizá fue el comienzo de nuestro
universo, se crearon hoyitos negros que han ido desapareciendo, y si el
misterio de lo cuasares, esos otros objetos enigmáticos que radian con
enormes potencias, puede ser explicado gracias a los mencionados
hoyos. De cualquier modo que resulten todas estas investigaciones, el
estudio de los hoyos negros ha empujado la frontera de nuestro
conocimiento hasta regiones hace unos años reservadas a la ficción y las
especulaciones.

L X I V . C A L A B A C I T A S T I E R N A S

SE ESTÁ conformando una nueva disciplina que quizá llegue a tener gran


influencia en nuestra vida diaria. Bajo el nombre de psicorreología se está
agrupando una gran cantidad de investigaciones dedicadas a
desenmarañar las sensaciones táctiles como lo duro, lo blando, lo espeso,
etc. Aunque llevamos mucho tiempo de decir que lo que estudia la ciencia
es el mundo que percibimos sensorialmente y que los maravillosos
instrumentos inventados por la ciencia no son sino extensión de nuestros
sentidos, tal parece que los investigadores decidieron hace mucho
preocuparse sólo de la vista y, en menor medida, del oído.

Desde el radiotelescopio hasta el microscopio electrónico, pasando por


todas las técnicas espectroscópicas, el instrumental científico nos permite
ver y oír los mundos de las galaxias y de los átomos. Pero nadie ha oído
decir que una estrella huele mal o que los cuarks tienen gusto amargo —
¡aunque sí pueden ser de "colores"!— ¿Será que el gusto, el olfato y el
tacto son tan humanos que es imposible extenderlos más allá de nuestra
realidad inmediata? Porque también en las artes estos tres son sentidos
definitivamente discriminados: la mayoría de las obras artísticas son para
verse u oírse. La vista y el oído son sentidos eminentemente
"intelectuales", mientras que los otros se consideran más "sensuales"

"Cegado por la pasión" evoca la imagen de alguien concentrado en lo que


toca, huele y gusta. La psicorreología viene así a llenar parcialmente este
olvido, y empujada por las necesidades tecnológicas de la industria
alimentaria, ha producido ya técnicas cuantitativas para medir conceptos
relacionados al tacto. Por ejemplo, ya existe una máquina llamada
"ternurómetro para chícharos" y no pasará mucho antes de que podamos
medir qué tan tiernas están las calabacitas.

L X V . P A B L O E R D Ö S

YA EN otras páginas mencionamos a Pablo Erdös. Considerado por


muchos como uno de los más grandes matemáticos contemporáneos,
Erdös tiene una personalidad que se presta para la anécdota: sin lugar fijo
de residencia, sin familia y sin empleo permanente, se dedica íntegra y
totalmente a las matemáticas; vive deambulando por las universidades del
viejo y del nuevo mundo, pernoctando en casa de colegas —dicen por ahí
que quien no ha recibido a Erdös en su casa no es realmente un
matemático— y sin tener otra propiedad que la ropa que lleva puesta.
Inclusive se las ingenia para escapar de las obligaciones mínimas de
pagar cuentas e impuestos: las primeras las paga el matemático Ronaldo
Graham, de los Laboratorios Bell, con el dinero que le pagan a Erdös por
las conferencias que dicta, y los segundos los calcula Daniel Kleitman
del MIT. Muy prolífico como autor, ha publicado más de 700 trabajos en
una variedad de áreas matemáticas, algunas de las cuales se originaron
con sus investigaciones.

La devoción por su ciencia no le impide a Erdös interesarse e informarse


de asuntos políticos, sociales, culturales y de otras ciencias. De hecho,
durante muchos años le fue negada la visa de entrada a los EU debido a
su apoyo moral y pecuniario a muy diversos movimientos políticos. Pero
aun en otros asuntos, Erdös no puede evitar ser anecdótico; un amigo
suyo cuenta que una vez encontró a Erdös enfrascado en una partida de
ajedrez con un colega, y que mientras éste, gran ajedrecista, estudiaba su
jugada, Erdös leía con aparente atención una enciclopedia de medicina.
Cuando su amigo le preguntó sobre el libro, Erdös le contestó: "por favor,
no me interrumpas, que estoy probando un teorema".

L X V I . J A C O B O D ' A R S O N V A L

EL SOL es el origen primario de muchos de nuestros recursos


energéticos. El petróleo, el carbón y las caídas de agua, derivan su
energía del Sol, que los primeros acumularon bioquímicamente hace
millones de años. Entre las múltiples manifestaciones de la energía solar
que adquirieron grandes vuelos con los apremios energéticos, hay una
poco conocida: el gradiente de temperatura en los océanos.

El efecto es conocido desde antaño y ya en 1881 un físico francés,


llamado Jacobo d'Arsonval, predijo que se llegaría a extraer energía
eléctrica al aprovechar la mayor temperatura de las capas oceánicas
superiores respecto a las más profundas. El principio se conoce ahora
como conversión de energía térmica oceánica, que la poca inventiva
lingüística de los científicos e ingenieros reduce a CETO, pese a que
podría llamarse proceso d'Arsonval en honor a su descubridor y
aprovechando la escritura francesa —que lo integra a la moda impuesta
por muchos comercios.

El proceso d'Arsonval durmió el sueño de los justos hasta 1930, cuando


un discípulo de d'Arsonval construyó una planta en Matanzas, Cuba, que
produjo 22 kilowatts y que fue destruida por una tormenta a las pocas
semanas. El fracaso inhibió a los experimentadores hasta 1964, cuando
Hilbert Anderson, un ingeniero estadunidense, retomó la idea. Diez años
después, en plena crisis energética, el gobierno de los EU invirtió ocho
millones de dólares para continuar el desarrollo y la investigación del
proceso d'Arsonval.

Si bien el proceso d'Arsonval es poco conocido, el principio de su


funcionamiento es sencillo: así como una máquina de vapor aprovecha la
diferencia de temperaturas entre la caldera y el medio ambiente, la
máquina d'Arsonval usa un fluido que se calienta en contacto con las
capas marítimas superficiales y se enfría con las profundas. La expansión
continua del fluido al calentarse se usa para mover un generador
eléctrico. Las plantas d' Arsonval se asemejan a gigantescas medusas de
concreto y acero que flotan casi totalmente sumergidas en el océano.

L X V I I . E C O N O M Í A M A T E M Á T I C A

GRAN PARTE del prestigio de las ciencias físicas proviene del refinado


lenguaje matemático que han desarrollado y asimilado. Y aunque muchas
de las matemáticas que usa un físico común y corriente son tradicionales
o primitivas, desde el punto de vista de los propios matemáticos, el
tenerlas como herramienta los lleva a mirar por encima del hombro a
investigadores de otras disciplinas, que todavía no pueden construir
rigurosos modelos matemáticos. Dentro de esta actitud de desprecio, los
científicos "duros" o naturales incluyen comúnmente a las ciencias
sociales, en las que creen encontrar una gran dosis de "cotorreo".

Ante esta presión externa, el investigador de ciencias sociales, que trata


de entender una realidad sumamente compleja, responde encogiendo los
hombros o poniéndose a aprender matemáticas. La posibilidad de contruir
un modelo matemático, que sea pertinente a la realidad bajo estudio, no
depende únicamente de la capacidad matemática y científica del
investigador, sino también de la madurez relativa de su disciplina. Así, por
razones obvias —el dinero se cuenta—, la economía fue invadida desde
hace tiempo por cierta parafernalia matemática, aunque a los ojos de un
científico "duro esta matematización parece trivial por la ausencia de un
modelo básico bien definido.

Esta situación ha comenzado a cambiar con la aparición de la economía


matemática, que recibió una fuerte influencia del libro de Arrow y
Hahn, General Competitive Analysis. Esta corriente de la economía ha
estado bajo el ataque de las escuelas tradicionales, comprometidas
ideológicamente, que alegan que la neutralidad aparente de la economía
matemática esconde intenciones reaccionarias. Pese a estos ataques, los
pocos economistas matemáticos han estado elaborando un verdadero
modelo de parte de la realidad económica. El esfuerzo tiene que ser muy
grande; como en toda la ciencia, será necesario distinguir qué es lo
esencial de una realidad muy compleja, de la que forma parte la vasta
información producida por los economistas durante muchos años. Será
también necesario aislar aquellas partes de la realidad que permitan el
análisis, y además encontrar o desarrollar la herramienta matemática
idónea.

Como uno de sus primeros resultados, la economía matemática produjo


un modelo riguroso, aunque por ahora estático, del problema de la
distribución de recursos en una sociedad. Es interesante que dicho
modelo no difiera en su estructura de los que abundan en las ciencias
físicas y químicas.

L X V I I I . L O S E L U S I V O S C U A R K S

DESDE que Gell-Man y Zweig crearon el modelo de los cuarks para


explicar las propiedades de una clase de partículas elementales, esos
misteriosos entes comenzaron a ganar adeptos entre los físicos. Ante las
pruebas experimentales que se acumulaban y la clásica belleza del
modelo —que a partir de unos cuantos cuarks construye los protones,
neutrones, mesones y demás— los escépticos perdieron poco a poco
terreno. Pero como todas esas pruebas son indirectas, los cuarks están
hoy como los átomos de hace un siglo, o como el "coco" de nuestra
infancia: casi todo el mundo cree en ellos pero nadie ha visto ni siquiera
uno. Tan difícil e infructuosa ha resultado la cacería de cuarks que
algunos creen que son intrínsecamente inobservables de manera aislada
y directa. Las dificultades psicológicas se incrementaron por su falaz
descubrimiento hace varios años: un físico que creyó haberlos observado
se apresuró a publicar su hallazgo, pero todo fue un fiasco que incluso
afectó la carrera del protagonista. Después de ese paso en falso, que
escandalizó a la comunidad científica internacional, nadie quiere
convertirse en efímera Cenicienta y que al día siguiente de bailar con el
principe le quede grande el zapato.

El valiente que se atrevió a anunciar el siguiente paso fue el doctor


Guillermo Fairbank, de la Universidad de Stanford, quien goza de una
bien merecida fama como investigador original y cauteloso. El
experimento realizado por Fairbank y varios colegas suyos nos trae
reminiscencias de la clásica experiencia de Millikan para medir —hace ya
muchos años— la carga del electrón: tomó una pequeña esfera de niobio
en estado superconductor y le midió la carga eléctrica. La carga de la
pelota se modificaba después de cada medición añadiéndole unos pocos
electrones o positrones. Como resultado, la carga de la bolita aumentaba
o disminuía en unidades de la carga electrónica, del mismo modo que
brinca la ranita que usan los niños en la escuela primaria para aprender a
sumar. El chiste del procedimiento está en detectar si las cargas medidas
están colocadas con simetría respecto al cero de la escala; una asimetría
podría deberse a que la bolita de niobio tuviera una carga electrónica
fraccionaria. De acuerdo con Fairbank, su experimento mostró en dos
ocasiones que la tan mencionada pelotita —de 1/4 de milímetro de
diámetro— tenía una carga cercana a una tercera parte la del electrón:
¡justamente la peculiar carga eléctrica de uno de los cuarks!

Aunque Fairbank asegura que él y su equipo eliminaron meticulosamente


cualquier otra causa que pudiera producir el mismo efecto, el experimento
no ha pasado la prueba de fuego: nadie lo ha podido reproducir. Con las
cosas como van, las pruebas indican que los cuarks son capaces de
eludir cualquier trampa que les tendamos para observarlos. De hecho, la
misma teoría de los cuarks tiene que tomar en cuenta esta elusividad
como una de sus propiedades más importantes.

L X I X . L A S P O P U L A R E S C A S T Á S T R O F E S

DESDE su aparición, la teoría de las catástrofes mostró ser gran


taquillera. Parecería que casi todas las disciplinas científicas cuentan con
fanáticos de las catástrofes, que se han dedicado a aplicar dicha teoría a
troche y moche: la física, la psicología, la biología, la sociología, la
etología, la ecología, la lingüística, la economía y hasta la politología han
recibido el influjo de la teoría de las catástrofes. Sin pretensiones
escatológicas, la teoría de las catástrofes se originó con René Thom, del
Instituto de Altos Estudios de Francia, al estudiar la "catástrofe"
representada por el brinco o discontinuidad en la solución de ciertas
ecuaciones matemáticas; los brincos ocurren inesperadamente al variar
continua y suavemente los parámetros que en esas ecuaciones aparecen.
A partir del análisis de este tipo de problemas, Thom construyó su teoría,
la cual ha sido desarrollada y aplicada por muchos y en particular por
Cristóbal Zeeman, de la Universidad de Warwick en la Gran Bretaña.

Es tal la variedad de problemas a los que fue aplicada la teoría de las


catástrofes —desde la turbulencia en los fluidos hasta la agresividad de
los perros, pasando por los motines en las prisiones— que se vio
acompañada de una verdadera campaña publicitaria. Inclusive recibió la
atención entre los medios no especializados, del Newsweek y del New
York Review of Books. Pero tras tan sonado "éxito", la teoría tuvo que
enfrentarse a la crítica sistemática y hábil de un número creciente de
matemáticos. Las acusaciones fueron en contra de los trabajos de
Zeeman y otros "aplicadores", más que en contra de Thom y la teoría
original misma. Los críticos, entre los que sobresalió Héctor Sussmann de
la Universidad Rutgers, en los EU, mostraron que las mencionadas
aplicaciones se hicieron con una lamentable falta de rigor y que se
exageraron en demasía tanto sus resultados cuanto sus posibilidades.
Entre los que apoyaron a Sussmann en sus críticas estuvieron
matemáticos de la talla de Esteban Smale y Marcos Kac.

Los buscadores de catástrofes tuvieron que batirse en retirada. Ya en la


tranquilidad de sus cubículos, los matemáticos que sí habían captado el
mensaje de Thom continuaron su trabajo. Este callado esfuerzo muy
lejano del mundanal ruido de los diarios, nos ha estado abriendo un nuevo
campo de posibilidades: fenómenos alineales, bifurcaciones y muchos
más. En particular, el trabajo de Thom ha contribuido a conformar la
nueva disciplina llamada biología matemática: el inicio de un largo camino
que llevará a tratar los fenómenos biológicos mediante modelos y leyes
expresadas en lenguaje matemático.

Es curioso que la polémica en contra y a favor de la teoría de las


catástrofes casi no tuvo repercusión en México por la sencilla razón de
que la teoría misma no llegó a tiempo a nuestro medio subdesarrollado.
La lentitud para aprender cosas nuevas se convierte así en clara ventaja
al no tener que olvidarlas cuando han sido probadas erróneas.

L X X . N O T A S M U S I C A L E S

LA ORIGINALIDAD de los grandes compositores ha sido puesta en duda


por Dennys Parsons, quien además de ser jefe de relaciones públicas de
la Biblioteca Británica se dedica en sus ratos libres a espulgar bien
conocidas melodías y temas musicales. Parsons usa el sencillo
expediente de la nota flotante, con el cual clasifica a una melodía de
acuerdo con el tono de cada nota en relación a la nota inmediata anterior;
esto es, se registra si una nota está por encima, igual, o por debajo de su
predecesora. Si usamos las letras S (sube), I (igual) y B (baja), y
denotamos a la primera nota mediante un asterisco (*) podemos describir
algunos de los hallazgos de Parsons.

En un total de 30 compositores analizados (desde Bach hasta Wagner, en


orden alfabético), Parsons encontró un gran consenso en las preferencias
de temas musicales así clasificados: una gran mayoría (22) prefiere
comenzar una melodía con *SS, como segunda preferencia (14) se tiene
*SB, y así siguen hasta llegar al noveno y más impopular tema que es *BI.
El análisis ulterior de 3 005 temas por otros 270 compositores, más 3 763
canciones populares, llevó a Parsons al sorprendente descubrimiento de
que una gran mayoría de los compositores occidentales tienen casi
idénticas preferencias en las tres primeras notas de los temas musicales
que construyen. La Ley Empírica que de aquí se deduce establece que,
para no salirse del camino trillado, hay que preferir a las nueve posibles
combinaciones en el siguiente orden: *sube sube, *sube baja, *baja sube,
*baja baja, *igual igual, *igual sube, *sube igual, *igual baja y el patito feo
*baja igual.

L X X I . A N I V E R S A R I O D E N E W T O N

EN 1977 se celebró el 250 aniversario de la muerte de Isaac Newton.


Aunque no estemos convencidos de la importancia de las efemérides ni
del santoral científico, estos recordatorios son una excusa tan buena
como cualquier otra para reflexionar acerca de nuestros predecesores.
Aunque siempre existen riesgos. Como con el comentario periodístico que
se dio acerca de una bella ceremonia en el Palacio de Bellas Artes, con
motivo de otro aniversario: uno de nuestros diarios anunció que se
"recordaría la obra del gran músico (sic) Federico Gauss".

Para evitar un posible fiasco de algún ingenuo que busque en la


Enciclopedia un mínimo de datos acerca de Newton, hay que advertir que
la fecha citada de su muerte y que está inscrita en su tumba en la Abadía
de Westminster es el 20 de marzo de 1726. La primera reacción sería
pensar que el 250 aniversario ¡debió haberse celebrado en 1976! Sólo
que la fecha de 1726 está de acuerdo con el calendario Juliano, que
Inglaterra no abandonó sino hasta 1751, mientras que el calendario
Gregoriano había sido aceptado por los demás países europeos desde
1582. De modo que, según el calendario todavía vigente, Newton murió
en 1727.

Otra muy popular confusión del mismo origen, es la que refiere que
Newton nació el año en que murió Galileo (1642). Para los que gustan de
repetir esta coincidencia —y que quizá lo hagan por creer en la
transmigración del espíritu científico— es necesario aclarar que Newton
nació el 5 de enero de 1643 del mismo calendario en el que la muerte de
Galileo ocurrió el 8 de enero de 1642.

L X X I I . V I D A E X T R A T E R R E S T R E

LA BÚSQUEDA de vida extraterrestre no es sólo ocupación predilecta de


los ferrizes de este mundo. Sin creer por ello que va a aparecer un
marciano bajando de un platívolo, muchos investigadores toman muy en
serio la posibilidad de detectar la existencia de vida inteligente en el
Universo. La razón detrás de su interés está en que, si bien sólo una de
100 000 estrellas es candidata a tener a su alrededor un planeta similar al
nuestro, son tantas las estrellas de nuestra Galaxia —100 000 millones de
billones— que la búsqueda bien merece la pena.

Para tratar de captar una señal proveniente de una civilización


extraterrestre, los científicos usan los gigantescos radio telescopios que
también sirven para menos exóticos fines. Los radio telescopios son
grandes antenas cuyo poder de detección depende de su tamaño y del
equipo electrónico anexo; el mayor con el que se cuenta actualmente está
en Arecibo, Puerto Rico, y tiene 300 metros de diámetro. De 1960 a 1980,
entre distintos grupos se han "escuchado" cerca de 1 000 estrellas en un
radio de 80 años-luz desde nuestro Sistema Solar; los resultados han sido
negativos. No obstante, para tomar en cuenta los cálculos de probabilidad
correspondientes con alguna esperanza de buen éxito, será necesario
buscar entre las 100 000 estrellas que están hasta 1 000 años-luz de
distancia. Existe un programa en la Unión Soviética para estudiar todas
las estrellas "adecuadas" dentro de un radio de 100 años-luz. El programa
comenzó en 1975 y se extenderá hasta 1990, contemplado un incremento
en la capacidad de detección para alcanzar posteriormente los 1 000
años-luz de distancia.

Por otro lado, la capacidad de emitir una señal de radio con una potencia
suficiente para ser "escuchada" con medios similares a los nuestros, está
fuera de duda para cualquier civilización como la terrestre o algo más
avanzada. De hecho, con la tecnología contemporánea podríamos
hacernos escuchar hasta a varios cientos de años-luz y con un gran
esfuerzo financiero llegaríamos hasta 10 000 años-luz.

Todos estos cálculos suenan muy bien y están hechos por personas
bastante serias y responsables. Pero al calcular la probabilidad de que
exista otra civilización en el Universo, con la cual podríamos entrar en
comunicación, hay factores que han sido frecuentemente olvidados. Las
únicas formas de vida y de civilización que conocemos son las que se han
desarrollado en nuestro planeta, y pese a la imaginación de los novelistas
y los científicos, no hemos podido concebir otras formas que sean
radicalmente distintas. Así las cosas, nadie ha tomado en cuenta la
probabilidad, o más bien la improbabilidad, de que una civilización como
la nuestra pueda sobrevivir más allá de los pocos milenios que llevamos,
milenios que son sólo un instante en la escala cosmológica.

L X X I I I . B I O L O G Í A Y S O C I E D A D

LA POLÉMICA acerca de la influencia biológica sobre las sociedades


humanas es la forma moderna de la gran discusión que comenzó con
Carlos Darwin. Pero 100 años no han pasado en vano. Los actores han
cambiado y la trama se ha complicado. Paradójicamente, los herederos
de la más pura mentalidad reaccionaria —que antaño se levantó con
vehemencia en contra de la teoría darwiniana— son hoy acérrimos
defensores del determinismo biológico y evolucionista en el
comportamiento social e individual del hombre. Por su parte, quienes
hace 100 años recibieron con beneplácito las ideas de la evolución de las
especies, y las defendieron, cuentan con sucesores que niegan toda
injerencia biológica —¡materialista!— sobre la sociedad. La transmutación
no debería sorprender tanto a los que han visto un partido comunista
defender la libertad sindical y al partido de derecha abogar por la justicia
social. Esta característica camaleónica no es novedad entre políticos ni
entre científicos.

La lección por aprender, en el caso de las teorías científicas, es distinguir


cuándo se toma partido por motivos extracientíficos y cuándo no. En la
discusión sobre las relaciones biología-sociedad, la trama se enredó con
la aparición de un buen número de libros que pretenden popularizar
conceptos e ideas de la antropología y la etología. Con autores salidos de
los foros de Broadway, como Roberto Ardrey, o de un cubículo
universitario, como el mismísimo Conrado Lorentz, han aparecido La
génesis africana, Agresión, El mono desnudo, El zoológico humano y
muchos otros con la característica común de evitar el rigor científico. Para
colmo, Eduardo Wilson cometió igual pecado en el último capítulo
de Sociobiology, después de haberlo evitado virtuosamente durante los
26 primeros.

Roberto Martin, investigador de la Sociedad Zoológica de Londres, llevó


un aire de sensatez a la discusión del asunto: "El hombre no es una
cebolla; no puede uno simplemente pelar sus capas de cultura para
descubrir en su interior a un homúnculo biológico." Pero aun si el
comportamiento humano no tuviera una contribución biológica, "éste debe
haber evolucionado y su evolución explicarse". La historia y la evolución,
la biología y la cultura son, al igual que antes el cuerpo y el alma, parte
del mismo fenómeno.

L X X I V . E L C H A R L A T Á N D E L A S
B E R M U D A S
DESPUÉS de embolsarse muchos millones de pesos, provenientes de los
incautos que compraron El triángulo de las Bermudas, su autor Carlos
Berlitz publicó Without a Trace, en el que relata una sarta de historias
que, como en su primer libro, son puro cuento. Dada la peligrosidad de los
charlatanes para la salud cultural de toda sociedad, cabe mencionar unos
cuantos puntos respecto a las Bermudas y su triángulo. Como Lorenzo
Kusche había ya publicado un libro en el que dio el resultado de
reexaminar más de 50 casos presentados por Berlitz —encontrando que
las "misteriosas desapariciones" están sustentadas en citas equivocadas,
interpretaciones distorsionadas y evidencias falsas—, éste, en su nuevo
libro, atacó a aquél por incrédulo, pero se abstuvo de relatar ninguna
nueva "desaparición": ahora se trata de ovnis, visiones y monstruos
increíbles.

Varios de los nuevos cuentos fueron investigados por Graham Massey —


productor del programa Horizons de la BBC— y de nueva cuenta encontró
que las fuentes eran inexistentes o que las personas citadas habían sido
mal interpretadas, excepto en el caso de un señor ya desde hace mucho
firme creyente de cualquier charlatanería. En su nuevo libro, Berlitz
aprovecha una valiosa técnica pseudocientífica: presentar un fenómeno
extraño, seguirlo con una explicación razonable que le quita lo exótico, y
de inmediato sugerir que tales explicaciones son demasiado simples para
ser verdad. Pero en fin... quien por su culpa es güey...

L X X V . C O M U N I C A C I Ó N A S E G U R A D A

HAY concepto revolucionarios que parecen perogrulladas y el campo de


la tecnología no es la excepción. Dentro de los variados aspectos que las
dos superpotencias tienen que cuidar en su desenfrenada competencia
armamentista, destaca el de sus respectivos sistemas de
telecomunicaciones. La preocupación esencial es la de crear un sistema
de comunicación capaz de sobrevivir un ataque nuclear generalizado.
Una solución sería construir estaciones de telecomunicación que fuesen
prácticamente indestructibles; mas esta exigencia es tan estricta que su
costo está incluso por encima de los gigantescos presupuestos militares
de los EU y la URSS. Por ello, el problema lo plantean los comunicólogos
de esta otra manera: ¿cómo construir una estructura confiable a partir de
componentes que no lo son en absoluto?

En los EU, la persona que encontró la solución es Pablo Baran, ingeniero


cincuentón que trabajó durante 10 años para la Rand Corporation y que
hoy dirige una oscura compañía en California. Mientras estuvo en la
Rand, Baran desarrolló el concepto llamado pachet switching, que dio
lugar a una enciclopedia de trece volúmenes, cinco de ellos todavía
mantenidos en secreto.
El chiste del packet switching —que alguien calificó como lo más
importante en telecomunicaciones desde que Arturo C. Clarke concibió el
uso de satélites para el propósito—, estriba en que el mensaje pueda
llegar al destinatario a través de cualquier ruta disponible de la red de
comunicación. Con ello sólo es necesario que alguna ruta esté disponible
en algún momento, lo que puede casi asegurarse en una red extensa y
muy interconectada, aunque cada elemento pueda fallar individualmente.
Éste es un claro ejemplo de cómo problemas muy complejos se resuelven
—a veces— con ideas muy sencillas. De hecho, no es necesaria una
tecnología avanzada para llegar a la esencia del packet switching: los
heroicos vietnamitas establecieron, durante la invasión yanqui a su país,
un sistema de comunicación y transporte fundado en el mismo principio a
lo largo del camino de Ho Chi Min. Los mensajes y pertrechos,
distribuidos sobre toda una red de personas en bicicleta, no fueron
detenidos por el más violento e intenso bombardeo de la historia; aunque
heroicos en extremo, los vietamitas no eran indestructibles; aun así, el
sistema que desarrollaron resultó más confiable que cualquier línea
ferrocarrilera, naviera o carretera.

Otro ejemplo de packet switching, éste antiquísimo y un tanto folclórico,


es el de los "borregos", chismes y murmuraciones. Si quiero estar seguro
que el "borrego" llegue a alguien en particular, lo único que tengo que
hacer es "distribuir el mensaje" en toda una red retransmisora de
intermediarios; no importa que algunos olviden el mensaje y que la
mayoría no conozca a quien está dirigido: el chisme lleva en clave la
identidad del destinatario y a él llegará.

L X X V I . E L O R I G E N D E L A V I D A

DESDE hace tiempo se especula si algunas de las epidemias que sufre la


humanidad provienen del espacio. Los proponentes modernos de esta
idea son Fred Hoyle y Chandra Wickramasinghe, ambos profesores
del University College de Cardiff, País de Gales, quienes consideran
factible que sean los cometas los responsables de ciertas pandemias y,
más aún, del origen de la vida en nuestro planeta.

Los autores de esta explicación arguyen en contra de la teoría de Oparin


y Haldane de que la vida se originó a partir de una "sopa primigenia",
formada por muchas sustancias químicas complejas en la superficie de
nuestro planeta hace miles de millones de años. Hoyle y su colega hacen
notar la falta de pruebas evidentes y la poca probabilidad de ciertas
condiciones para que dicha sopa se haya dado hace mucho tiempo en la
Tierra. En su opinión, no hay indicios de una época cuando la atmósfera
era reductora ni que puedan haberse dado las intensas tormentas
eléctricas necesarias para formar las moléculas prebióticas.
En un franco y arriesgado vuelo de la imaginación —usual en la carrera
de Hoyle, quien se ha hecho notorio por la fertilidad de sus neuronas—,
Hoyle y su compañero proponen que fueron cometas los que acarrearon
desde el espacio interestelar moléculas de aminoácidos, de polisacáridos
y de compuestos heterocíclicos nitrogenados, en cantidades y
concentraciones suficientes para haber desencadenado la historia de la
vida en nuestro planeta. Como los cometas han seguido su continuo,
aunque a veces errático, peregrinar por los confines del Sistema Solar,
ellos habrían seguido contaminando de cuando en cuando la Tierra con
nuevas moléculas y virus "cocinados" en el núcleo de los mismos
cometas. La hipótesis es extraordinaria; dada la notabilidad de Hoyle, no
pasará mucho tiempo sin que aparezcan las críticas, positivas o
meramente sanguinarias, que la pongan en su lugar. Cualquiera que sea
el destino que corra, debemos alegrarnos de constatar que la ciencia
moderna no requiere inventar ovnis para lanzar ideas que merecerían ser
sensacionales.

L X X V I I . E P P U R ' S I M U O V E

CUANDO la revolución de Copérnico destronó la antigua visión


ptolomeica, la Tierra dejó de ser el centro del Universo y se convirtió en
uno más de los cuerpos del firmamento; pero con ello la Tierra no sólo
perdió su posición privilegiada y única, sino que además dejó el reposo
para moverse. Desde entonces, una serie de descubrimientos nos han
mostrado cada vez nuevas facetas de este movimiento.

Gira la Tierra alrededor del Sol en una órbita elíptica, casi circular, que
recorre con una velocidad de 30 kilómetros por segundo. Pero el Sol
tampoco es el centro del Universo, sino que sólo es una de las
innumerables estrellas que forman nuestra galaxia. En relación a las
estrellas más cercanas, el Sol viaja a unos 20 km/s en dirección de la
estrella Vega, de la constelación de la Lira, y la Tierra lo acompaña en
este movimiento. Mas la Galaxia gira también, cual gigantesco vórtice de
estrellas, y el Sol y sus vecinas no son ajenos a este giro; el Sol sigue una
trayectoria, en torno al centro de la Galaxia, que le lleva 200 millones de
años circundar. Durante la última vuelta del Sol y sus planetas alrededor
del centro galáctico, aquí en la Tierra aparecieron y se exinguieron los
dinosaurios, brotaron las primeras flores, volaron las primeras aves y
evolucionaron los mamíferos. Esta trayectoria la sigue el Sol —y nosotros
con él— a una velocidad mucho mayor que las anteriores, cercana a los
200 km/s y que apunta hoy hacia el lugar donde vemos la constelación del
Cisne.

La cadena de movimientos no termina aquí. Nuestra galaxia ha resultado


ser una entre muchas y ni siquiera ella puede considerarse como centro
del Universo. Así, la Galaxia se mueve respecto a las galaxias más
próximas, en lo que se conoce como el "grupo local" a unos 100 km/s,
desplazándose en dirección de la Nebulosa de Andrómeda, otra enorme
galaxia espiral muy semejante a la nuestra.

Todos estos movimientos, todas estas velocidades, son relativos a algún


otro objeto del Universo: de la Tierra respecto al Sol, de éste respecto a
sus vecinos, de éstos respecto al centro galáctico y, finalmente, de
nuestra galaxia respecto a sus vecinas del grupo local.

Hasta la fecha se han observado miles de galaxias. Algunas son tan


lejanas que su luz tarda miles de millones de años en llegar hasta
nosotros. En esta escala gigantesca, que abarca todo el Universo hoy
observado, los grupos de galaxias se alejan los unos de los otros. Esta
mutua y creciente separación se ilustra con una sencilla analogía:
piénsese en un pastel relleno de nueces mientras se hornea, al irse
hinchando el pastel, todas las nueces se irán separando una de otras. Así
es como los imaginamos al Universo en continua expansión.

La expansión del Universo sugiere una remota época cuando toda la


materia estaba sumamente concentrada; a partir de entonces, como en
una gran explosión, las distintas partes del Universo han estado en
permanente movimiento, impulsadas unas de las otras cada vez más
lejos. Una de las más grandes hazañas científicas de nuestro tiempo ha
sido, sin duda alguna, el concebir el estado del Universo en esos
instantes del Gran Pum. Basta leer The First Three Minutes, el maravilloso
libro de Esteban Weinberg que lleva al lector hasta los primeros
momentos de nuestro Universo.

Como resultado del Gran Pum primigenio, no sólo se produjo la expansión


de materia del cosmos, sino también una intensa radiación
electromagnética. Con el transcurrir de muchos millones de años, esta
radiación fue diluyéndose a la mano de la expansión universal. En el
presente, dicha radiación permea tenuemente el espacio interestelar y se
le conoce como radiación de fondo; fue descubierta en 1964 mediante
radiotelescopio y es uno de los rastros del pasado más remoto del
Universo.

El descubrimiento de la radiación de fondo hizo preguntarse a los


astrónomos: ¿cuál es la velocidad de la Tierra respecto a esta tenue
radiación? La respuesta fue encontrada hace unos años por un grupo de
investigadores de la Universidad de Berkeley, en los EU. Mediante un
avión U-2, del tipo que alcanzó notoriedad por utilizarse en el espionaje
internacional —y que se conoció por el público cuando la URSS derribó
uno de estos aparatos que espiaba su territorio—, los investigadores
observaron con detenimiento la radiación de microondas que incide sobre
nuestro planeta desde el cosmos. El resultado de estas investigaciones
arrojó nueva luz sobre nuestra parte del Universo: en apariencia, nuestra
galaxia se mueve respecto a la radiación de fondo con una velocidad de
600 km/s. Esta velocidad es tan grande que se concluye que las demás
galaxias del grupo local se desplazan similarmente respecto a dicha
radiación. Otros grupos de galaxias, más alejadas de nosotros, parecen
moverse con velocidades semejantes pero en direcciones distintas que
nosotros.

Este descubrimiento tendrá una gran influencia sobre nuestra imagen


científica del Universo. En lugar de un cosmos donde los grupos de
galaxias se alejan uniformemente unos de otros, parece ocurrir que,
además de esa expansión, la materia del Universo esté separada en
grandes supercúmulos de galaxias, los cuales se desplazan entre sí con
grandes velocidades. Este descubrimiento no pone en peligro el modelo
del Gran Pum, pero muestra que la naturaleza es más compleja y rica de
lo que hasta hace poco pensábamos.

La medición de la velocidad de la Tierra respecto a la radiación de fondo


nos recuerda los infructuosos esfuerzos de los científicos de finales del
siglo XIX quienes trataron de detectar el movimiento de la Tierra a través
del éter, esa sustancia elusiva que se creía que permeaba todo el
espacio. Los científicos de esa época no detectaron movimiento alguno y
se vieron encajonados en una conclusión inaceptable, filósoficamente,
desde tiempos de Galileo: según ella, la Tierra sería el único cuerpo
inmóvil de todo el Universo. La salida la encontró Einstein al hacernos ver
que el éter era un mero engendro hipotético e innecesario, y que por tanto
el no detectar su movimiento era una simple consecuencia de que no
existía. Éste fue una de las fuentes de la teoría especial de la relatividad.
En un problema semejante, pero mucho más serio, se hubieran visto los
científicos contemporáneos si la velocidad de la Tierra o de la Galaxia,
respecto a la radiación de fondo, hubiese resultado nula. Pero no lo es y
podemos estar tranquilos de que nuestro planeta no cuenta con ningún
privilegio en el cosmos; excepto, quizá, por nuestra propia existencia.

L X X V I I I . L O S E X P E R T O S Y E L G R A N
P Ú B L I C O

LA IMAGEN que el público tiene de la ciencia y los científicos es, por


decirlo positivamente, bastante curiosa. Para tratar de definirla un poco
más, Roberto G. Shepherd y Erich Goode, ambos profesores en
universidades del noroeste de los EU, hace varios años se pusieron a
analizar quiénes son los científicos que conoce el "gran" público. Para ello
distinguieron dos tipos de artículos que llegan a la gente: los que tienen
como noticia a un descubrimiento o invención, y los que se concentran en
la personalidad de algún hombre de la ciencia, al que se considera
"experto". Además, y para tomar un caso que garantizara la atención del
público, Shepherd y Goode examinaron un tema de clara actualidad: las
investigaciones acerca de los efectos de la mariguana.

Para tal efecto, los autores reunieron un total de 271 artículos científicos
acerca del tema de la mariguana, incluidos en el Index Medicus, y por otro
lado examinaron tres prestigiados diarios norteamericanos y 26 revistas
de amplia circulación, donde encontraron 275 artículos periodísticos que
se referían promordialmente a los efectos médicos de la hoy
famosa Cannabis.

Como resultado de su tarea, Shepherd y Goode descubrieron que "el


destino típico de las investigaciones científicas, incluso en un tema de
actualidad, es no recibir ninguna atención por parte de la prensa". Esta
conclusión se desprende del hecho de que sólo 20 artículos científicos —
de los 271— fueron citados por la prensa, y eso en sólo 53 ocasiones.
Aunque, en honor a la verdad, los estudios acerca de la mariguana que sí
llamaron la atención en la prensa, recibieron también el beneplácito de la
comunidad científica: ellos tenían cuatro y media veces más citas
científicas que el promedio.

Pero la historia es más interesante en cuanto a los artículos periodísticos


que se refieren principalmente a la opinión de algún "experto". De las 513
"autoridades" citadas por la prensa, ¡el 28% eran desconocidos por la
comunidad científica y ni siquiera pudieron ser localizados! Pero además,
otro 36% es totalmente desconocido por sus trabajos acerca de la
mariguana; así,—por ejemplo, el Science Citation Index, la revista más
autorizada que compendia las citas de los trabajos científicos en revistas
de todo el mundo, no contiene ninguna cita de esos trabajos, si es que
existen. Y el número total de citas, de trabajos del conjunto de 513
"expertos", es 30 veces menor que el promedio para quienes aparecen en
el Index Medicus con artículos sobre el tema de la mariguana.

Mas los "expertos" no son desconocidos en la comunidad científica. En


efecto, lo que parece ser el común denominador de estos "expertos" es
que son reconocidos en otras áreas científicas ajenas al tema en cuestión
o, con más frecuencia, que tienen puestos de mando en instituciones
científicas. En verdad, los reporteros deberían prestar más atención a sus
fuentes científicas; lo que están haciendo es equivalente a entrevistar al
rector de una universidad para interrogarlo acerca del campeonato de
futbol... sólo porque esa universidad tiene un buen equipo.
L X X I X . C U B E T A Z O A L A S O C I O B I O L O G Í A

DURANTE una reunión de la Asociación Norteamericana para el Avance


de la Ciencia (AAAAS), se celebró un simposio acerca de la sociobiología,
donde se discutieron los aspectos culturales y biológicos (genéticos) del
comportamiento social. La reunión comenzó muy apropiadamente con los
tintes y matices de las más álgidas discusiones científicas. Eduardo
Wilson, portavoz aparente del "movimiento sociobiológico", reiteró su
convicción de que hay "evidencia sustancial y diversa que apoya la noción
de que los genes influyen por lo menos algunas formas de
comportamiento social humano" y otras afirmaciones en la misma
dirección. Por su parte, el biólogo Esteban Gould argumentó que incluso
cuando alguna forma particular de comportamiento es beneficiosa para
una comunidad, no se puede inferir necesariamente que ella es un
producto de la evolución biológica, sino que una explicación meramente
cultural es igualmente factible. Según Gould, actualmente no hay manera
de discriminar entre ambas explicaciones.

L X X X . D U D A S S E X U A L E S D E L O S
L A G A R T O S

EL ESTUDIO de la naturaleza depara muchas sorpresas y lleva a los


investigadores hasta cuestiones inusitadas. Muy ilustrativo es el caso del
doctor David Crews, del Museo de Zoología Comparada de Harvard,
quien ha estado estudiando la vida sexual de los lagartos. Lo
sorprendente del caso es que el lagarto macho tiene dos penes, de modo
que el pobre animal tiene que resolver la pregunta no sólo de cuándo sino
de con cuál. Crews descubrió primero que, en condiciones normales, los
lagartos no tienen preferencia por ninguno de sus dos órganos, pero que
después de que uno de ellos les fue extirpado, mostraban una tendencia
clara a copular con el pene que les quedaba. Esto podría interpretarse
como mera falta de estupidez por parte de los mutilados lagartos, pero el
doctor Crews demostró que esta última cualidad no les falta. Después de
castrar a los lagartos en el lado opuesto al del pene previamente
extirpado, los animalitos tan mal tratados mostraron una fuerte preferencia
por copular con el pene ausente.

Crews no ha podido explicar el mecanismo de decisión en estos lagartos,


pero cree que hay una conexión directa entre los testículos y el cerebro.
Aunque esta última conclusión debería circunscribirse, pese a ejemplos
sospechosos que casi cualquiera puede conocer, a los lagartos.

L X X X I . P E R I O D I S M O C I E N T Í F I C O

EN UNA ocasión, un diario capitalino, serio y de gran circulación, publicó


en primera plana la fotografía de tres científicos "después de anunciarse
que ellos descubrieron una tercera forma de vida: la de organismos
producidos por (sic) el metano". Perplejo por no conocer siquiera cuál
podría ser la segunda forma de vida —ya ni hablar de una tercera—, un
joven profesor de bioquímica tuvo la paciencia de investigar el verdadero
sentido de la supuesta noticia.

El metano es universalmente aceptado como uno de los principales


constituyentes de la atmósfera terrestre en la época cuando aparecieron
los primeros organismos vivientes del planeta. Además, el papel del
metano como precursor de las más sencillas biomoléculas conocidas ha
sido demostrado experimentalmente en los laboratorios. Ante tal
panorama, ¿cuál podría ser la novedad de una forma de vida proveniente
del metano? El misterio se aclaró rápidamente: no se trataba de una
tercera forma de vida —que hubiera necesitado de una segunda—, ya
que el descubrimiento que mereció la fotografía de primera plana no fue
de organismos "producidos por" el metano sino, simplemente, de
organismos "que producen" metano y que como tales podrían representar
una línea evolutiva diferente a la de los organismos procariotes y
eucariotes.

La sutil y esencial confusión quedó en la mente de los lectores; una carta


al director del diario quedó sin aclaración ni respuesta. Si no fuera porque
es muestra de un síntoma generalizado, el asunto podría relegarse como
simple consecuencia de un lapsus brutus por parte de algún agobiado
redactor. Pero casos como éste se dan con demasiada frecuencia para no
tomarlos en serio. Si se examina el origen de tantas noticias
desorientadas y desorientadoras, se encuentra —además del
ahisevaísmo—un claro ejemplo de dependencia tecnológica: casi todas
las notas periodísticas de índole científica provienen de agencias
noticiosas eufemísticamente llamadas internacionales. Tales notas se
escogen y traducen descuidadamente del inglés, sin ningún criterio
científico y en ocasiones sin el más elemental sentido común. Esta
manifestación de colonialismo científico ha logrado resultados notables:
una noticia acerca de genética escribía "gente" en vez de "gene" —con
las ridículas confusiones imaginables—, y un diplomático comentarista de
la televisión consideró gran hazaña que una mosca brincara 50
centímetros —lo que es poca cosa para un insecto volador—, cuando el
bicho campeón de salto había sido una esforzada pulga. Pasó la fly por
la flea y ni se dio cuenta.

L X X X I I . H U E L L A S A N C E S T R A L E S

HASTA hace unos años, los únicos rastros de los ancestros de la especie


humana y de su extinta parentela eran huesos fósiles y algunos
rudimentarios utensilios. Los descubrimientos más importantes están
asociados con la hoy famosa barranca de Olduvai, Tanzania, y con la
también famosa familia de antropólogos Leakey. Pero ya se cuenta con
un nuevo rastro: a unos 40 kilómetros de Olduvai, en la misma Tanzania,
el antropólogo inglés Andrés Hill descubrió las huellas de seis pisadas,
dejadas por alguien que paseó por ahí hace más de 3 millones de años.

¿Cómo fue el individuo que las hizo? La respuesta no es tan elemental


como lo hubiera pensado Holmes: el individuo caminaba erecto, de
manera similar a como lo hacemos nosotros, pero al pisar cruzaba el pie
derecho a la izquierda y el izquierdo a la derecha. Los sospechosos se
reducen a dos: a un Homo, verdadero superabuelo de nosotros, y a un
Australopitecus, pariente desgraciado que nunca llegó a mucho en su vida
ni en su descendencia. En el mismo lugar donde se encontraron las
huellas —endurecidas por el sol y rellenas con ceniza volcánica—, María
Leakey descubrió dientes y fragmentos de mandíbula del Homo y del
Australopitecus. La estructura ósea, reconstruida a partir de los huesos
fósiles de la pelvis y de las extremidades, indica que ambos caminaban
en dos pies. Es necesario estudiar con más cuidado las diferencias en el
posible funcionamiento biomecánico de las dos especies para finalmente
identificar quién dejó las huellas. Desde que la misma María Leakey hizo
el anuncio de estos descubrimientos, se han encontrado otras cuantas
huellas en los alrededores de las primeras.

L X X X I I I . O T R A V E Z L A S B E R M U D A S

EL TRIÁNGULO de las Bermudas también recibe la atención del mundo


socialista. Como los ingenuos y los charlatanes se dan en todas las
naciones y sistemas económicos, en todas las naciones es necesario
trabajar en el derrumbe de patrañas. Después de las investigaciones que
mostraron la clara falsedad de las "historias" acerca de esa región del
Atlántico, fue una expedición soviética la que durante dos año se dedicó a
estudiar el malhadado Triángulo. Con base en el navío de
investigación Académico Vernadsky, los estudios realizados no hallaron
nada de misterioso, pero suministraron mucha información acerca de la
dinámica del oceáno y de su atmósfera. En voz del profesor Leónidas
Brejovskij, presidente de la Comisión de Estudios Oceanográficos de
la URSS: "No hay nada misterioso en el océano excepto su inmensidad,
que es difícil de imaginar. Hay muchísimos problemas a resolver que son
más interesantes que los mitos acerca de acontecimientos
sobrenaturales."

L X X X I V . R U I D O P A R A L A T A R T A M U D E Z

TODOS aprendimos la historia de que Cicerón, magnífico orador, era


tartamudo. También recordamos la anécdota acerca de la manera en que
el mismo Cicerón corregía su defecto de dicción: metiéndose varias
piedrecillas a la boca. Quien haya tratado de hablar con piedras en la
boca —sea tartamudo o no— sabe lo difícil que es darse a entender así, y
el riesgo que se corre de romperse la dentadura.

Para encontrar una manera más eficaz y segura de corregir la


tartamudez, en los casos que sea intratable por otros medios, una
compañía británica aprovechó un fenómeno conocido: cuando un
tartamudo se ve obligado a hablar en un ambiente muy ruidoso —como
cerca de una catarata— frecuentemente lo hace con buena dicción. Como
sería en suma incómodo para el tartamudo y sus oyentes el que
deambulara con un radio o tocacintas a todo volumen, la Universidad de
Edimburgo desarrolló un dispositivo llamado Edinburg Masker, el cual
hace llegar un ruido al oído del paciente —mediante un auricular— para
enmascarar su propia voz. El ruido se genera únicamente cuando el
paciente habla y es generado por su misma voz. El anuncio del
adminículo informa que se ha logrado gran mejoría en 9 de cada 10
pacientes... aunque no aclara si acaban hablando a gritos.

L X X X V . L A B R Ú J U L A O L M E C A
TAL parece que la civilización olmeca fue la primera en inventar la brújula
magnética, con lo que se adelantó a los chinos en casi 1000 años. En
efecto, en las ruinas olmecas de San Lorenzo, Veracruz, se encontró
hace varios años un pequeño objeto imantado, al que se puso por nombre
M-160 y que por azares del imperialismo científico se encuentra ahora en
la Universidad de Michigan, EU, a donde fue llevado por sus
descubridores, P. Kroster y M. D. Coe. Este curioso artefacto fue
estudiado con meticulosidad por Juan B. Carlson, investigador de la
Universidad de Maryland, quien concluyó que el M-160 fue usado como
brújula.

Las pruebas presentadas por Carlson apuntan a la habilidad de los


olmecas para trabajar el hierro, puesta de manifiesto por varios y
extraordinarios espejos bruñidos, así como a su preocupación por orientar
sus construcciones de una manera particular. Con esta base, el estudio
del objeto imantado y de sus características muestra como muy probable
su uso al modo de una brújula. El artefacto es una barrita de 3.5 cm de
longitud, y si se le pone a flotar sobre un corcho en agua o mercurio, su
eje se orienta 36° al oeste del norte magnético. La edad del objeto M-160
es mayor de 3 000 años, lo que convertiría, si el resultado de la
investigación se confirma, en el imán de brújula más antiguo del mundo.

Este descubrimiento puede ser motivo de orgullo para los modernos


mexicanos, pero los que no se podrían tan contentos son los antiguos
olmecas, al ver que nosotros tenemos que esperar a que vengan
científicos extranjeros a descubrir lo mejor de nuestro pasado.

L X X X V I . F A L L I D O D E S C U B R I M I E N T O

ENTRE las cosas que los físicos han estado buscando sin encontrar
están los cuarks y los monopolos magnéticos.

Estos últimos son unas partículas submicroscópicas cuya existencia haría


más bellas las leyes de la física. Hasta la fecha, el electromagnetismo
muestra una clara falta de simetría: si bien hay cargas eléctricas que
originan los campos electrostáticos, no se han podido detectar las
correspondientes cargas magnéticas. La fuente magnética más elemental
que se conoce es un dipolo, que se puede pensar como la unión de dos
monopolos, uno "norte" y el otro "sur", pero ninguno de éstos se han
encontrado, aislado del otro, en la naturaleza. No obstante, ninguna ley de
la física prohíbe la existencia del monopolo magnético, por lo que la
cuestión se reduce a contestar tres preguntas: ¿existe el monopolo
magnético?, si la respuesta es no, ¿por qué? y si la respuesta es sí, ¿por
qué no lo hemos observado entonces?
Hace unos años, el mundo de la física se entusiasmó con el anuncio del
descubrimiento del monopolo magnético. El experimento usaba un
sandwich formado por varias capas de detectores de partículas y que fue
subido a la estratósfera en un globo. Las partículas cósmicas que
cruzaran el sandwich dejarían su huella en cada uno de los detectores, de
modo que las características de cada partícula podían deducirse del
rastro que dejaran en el sandwich. Los autores del experimento, P. Buford
Price y W. Zack Osborne, encontraron entre muchísimos rastros uno solo
cuyas características, según ellos, coincidían con las de la tan buscada
partícula.

Pero parece que los "papás" del monopolo se precipitaron al anunciarlo


sin tener debida cuenta de todos los factores que influyeron en su
experimento. En un congreso sobre rayos cósmicos que se celebró en la
Universidad de Bristol, poco después del anuncio de Price y Osborne,
tuvieron que enfrentarse a Pedro Fowler, quien resultó ser un crítico
demoledor. En efecto, Fowler presentó una interpretación, de los mismos
resultados, sustentada en una identificación más convencional: el rastro
del supuesto monopolo bien pudo haberse producido por un núcleo de
platino, que reaccionó para convertirse primero en osmio y al final en
tantalio. De hecho, semejante posibilidad también fue señalada en
California por Luis Álvarez. Ante los hechos, los anticipados
descubridores tuvieron que regresar a su laboratorio para encontrar
argumentos en contra de sus críticos y para diseñar quizá nuevos
experimentos. Quién sabe si se llegue a descubrir el monopolo, pero Price
y Osborne violaron una ley de oro de la ciencia: no achacar a un nuevo
ente el efecto que puede ser causado por un bicho convencional; como en
Conan Doyle, es menester eliminar primero a todos los posibles
sospechosos.

L X X X V I I . I Z Q U I E R D I S M O N A T U R A L

LA MATERIA de los seres vivos es en definitiva izquierdista, en cuanto


puede polarizar la luz en el sentido levógiro. Esta propiedad de la materia
viva natural se origina en la estructura de los aminoácidos que la forman,
que actúa sobre la luz y le comunica el giro a la izquierda. Lo
sorprendente es que, si los aminoácidos se sintetizan en el laboratorio,
entonces no muestran ninguna preferencia por la izquierda. Esto indica
que la tendencia predominante en el mundo natural hubo de haberse
instaurado, hace muchos millones de años, entre las moléculas que
dieron origen a los primeros seres vivos de los que descendieron —¿o
ascendieron?— todos los demás.

Pero todo esto descansa en la distinción entre derecha e izquierda, y tal


distinción, como bien saben los matemáticos, los físicos y los niños, es tan
sutil que casi sólo puede establecerse por convención. En efecto, si nos
pusiéramos en contacto con una persona de una civilización hasta ahora
desconocida, pero sin posibilidad de verla o de intercambiar dibujitos con
ella, nos costaría un trabajo horrible dilucidar si su "derecha" es la misma
que la nuestra, o si coincide con nuestra izquierda. La primera manera de
distinguirlas claramente fue descubierta por Yang y Lee, allá por 1956, al
estudiar la desintegración "beta" de los núcleos radiactivos. Este
descubrimiento les valió a sus autores el premio Nobel de Física.

Desde el descubrimiento de Yang y Lee, varios investigadores han tratado


de dilucidar si los rayos beta, que no son sino electrones emitidos por
algunos núcleos atómicos, pueden inducir, en la síntesis o
descomposición de las sustancias orgánicas, una preferencia por una
polarización levógira de la luz. Según el doctor Ulbricht, quien le ha
dedicado años a la cuestión, las pruebas parecen acumularse para indicar
que los rayos beta son capaces de producir ese efecto, aunque
permanece en el misterio el modo en que lo hacen.

L X X X V I I I . E N E R G Í A E Ó L I C A

LOS molinos de viento, que inspiraron en don Quijote las fantasías de su


realidad, inspiran hoy a quienes investigan cómo aprovechar la energía de
los vientos. Originada en el Sol, que al calentar nuestra atmósfera
produce corrientes convectivas, la energía eólica sólo ha podido usarse
en pequeña escala. Esta limitación se debe a la lentitud de los vientos,
que es común excepto en los tornados, los huracanes y demás meteoros
que son hoy indomables.

Entre los diseños novedoso de "molinos de viento" es notable el de Jaime


Yen, investigador de la Compañía Aeroespacial Grumman, quien concibió
algo así como un "tornado de bolsillo". Al aprovechar un fenómeno ya
conocido por Jacobo Bernoulli hace 250 años, Yen hace entrar el viento
por las paredes ranuradas de una torre vertical, para formar en el interior
un torbellino que se acelera al girar hacia el centro de la torre. Lo que
Bernoulli descubrió fue que al fluir un gas, la presión disminuye al
aumentar su velocidad, tal como en una autopista el tráfico se hace más
pesado cuanto más lento sea. Por ello es que en el centro de la torre de
Yen se reduce en mucho la presión, y entonces se absorbe aire por la
parte inferior. Esta corriente de aire es la que podría utilizarse para mover
una turbina o un generador, que según los cálculos generaría un
megawatt en una torre de 60 metros de altura y 20 de diámetro.

También podría gustarte