Otros Mundos - Paul Davies

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 683

«¿Qué es el hombre?

¿Cuál es la
naturaleza de la realidad»
Preguntas como éstas son discutidas
aquí a la luz de las sorprendentes
implicaciones de la teoría cuántica.
Llevando la teoría a sus conclusiones
lógicas, Davies pone en cuestión
nuestros supuestos sobre la naturaleza
del tiempo y del espacio y presenta una
visión radicalmente distinta del universo,
en la que caben múltiples mundos en un
superespacio de existencias
alternativas.
Paul Davies
Otros mundos
Espacio, superespacio y el universo
cuántico

ePub r1.0
Banshee 02.05.15
Título original: Other Worlds
Paul Davies, 1980
Traducción: Antonio Desmonts
Diseño de cubierta: orhi

Editor digital: Banshee


ePub base r1.2
Prefacio

Aunque la palabra «cuanto» ha pasado a formar


parte del vocabulario popular, pocas personas se
dan cuenta de la revolución que ha ocurrido en la
ciencia y en la filosofía desde los inicios de la
teoría cuántica de la materia a comienzos del
siglo. El pasmoso éxito de esta teoría para
explicar los procesos de las partículas
moleculares, atómicas, nucleares y subatómicas
suele oscurecer el hecho de que la propia teoría
se basa en principios tan asombrosos que sus
consecuencias totales no suelen apreciarlas ni
siquiera muchos profesionales de la ciencia.
En este libro he tratado de afrontar
abiertamente el impacto de la teoría cuántica
básica sobre nuestra concepción del mundo. El
comportamiento de la materia subatómica es
tan ajeno a nuestro sentido común que una
descripción de los fenómenos cuánticos suena a
algo así como Alicia en el país de las
maravillas. El propósito del presente libro, sin
embargo, no consiste tan sólo en pasar revista a
una rama notoriamente difícil de la física
moderna, sino en entrar en temas más amplios.
¿Qué es el hombre? ¿Cuál es la naturaleza de la
realidad? ¿Es el universo que habitamos un
accidente aleatorio o el resultado de un exquisito
proceso de selección?
La cuestión de por qué el cosmos tiene la
concreta estructura y organización que
observamos ha intrigado desde hace mucho a
los teólogos. En los últimos años, los
descubrimientos de la física y la cosmología han
abierto nuevas perspectivas de aproximación
científica a estas cuestiones. La teoría cuántica
nos ha enseñado que el mundo es un juego de
azar y que nosotros formamos parte de los
jugadores; que podrían haberse elegido otros
universos, que incluso pueden existir
paralelamente al nuestro o bien en regiones
remotas de espacio-tiempo.
El lector no necesita tener ningún
conocimiento previo de ciencia ni de filosofía.
Aunque muchos de los temas aquí tratados
requieren cierta gimnasia mental, he intentado
explicar cada nuevo detalle, desde el punto de
partida, en el lenguaje más elemental. Si algunas
de las ideas cuesta creerlas, eso da testimonio
de los profundos cambios acaecidos en la visión
científica del mundo que han acompañado al
gran progreso de las últimas décadas.
A modo de reconocimiento, me gustaría
decir que he disfrutado de fructíferas
conversaciones con el Dr. N. D. Birrel, el Dr.
L. H. Ford, el Dr. W. G. Unruth y el profesor
J. A. Wheeler sobre buena parte de las materias
de que aquí se habla.
Prólogo

La revolución inadvertida

Las revoluciones científicas tienden a asociarse


con las grandes reestructuraciones de las
perspectivas humanas. El alegato de Copérnico
de que la Tierra no ocupaba el centro del
universo inició la desintegración del dogma
religioso y dividió a Europa; la teoría de Darwin
de la evolución derrumbó la centenaria creencia
en el especial papel biológico de los humanos; el
descubrimiento por Hubble de que la Vía Láctea
no es sino una más entre los miles de millones
de galaxias desperdigadas a todo lo ancho de un
universo en expansión abrió nuevos panoramas
de la inmensidad celestial. Por tanto, no deja de
ser llamativo que la mayor revolución científica
de todos los tiempos haya pasado en buena
medida desapercibida para el público en general,
no porque sus implicaciones carezcan de interés,
sino porque son tan destructivas que casi
resultan increíbles, incluso para los propios
revolucionarios de la ciencia.
La revolución a que nos referimos tuvo lugar
entre 1900 y 1930, pero pasados más de
cuarenta años todavía truena la polémica sobre
qué es exactamente lo que se ha descubierto.
Conocida en general como la teoría cuántica, se
inicia como tentativa de explicar determinados
aspectos técnicos de la física subatómica.
Desde entonces, se ha desarrollado
incorporando la mayor parte de la microfísica
moderna, desde las partículas elementales hasta
el láser, y ninguna persona seria duda de que la
teoría sea cierta. Lo que está en cuestión son las
extraordinarias consecuencias que se derivarían
de adoptar la teoría literalmente.
Aceptarla sin restricciones conduce a la
conclusión de que el mundo de nuestra
experiencia —el universo que realmente
percibimos— no es el único universo.
Coexistiendo a su lado existen miles de millones
de otros universos, algunos casi idénticos al
nuestro, otros disparatadamente distintos,
habitados por miríadas de copias casi exactas de
nosotros mismos, que componen una
gigantesca realidad multifoliada de mundos
paralelos.
Para eludir este estremecedor espectro de
esquizofrenia cósmica, cabe interpretar la teoría
de manera más sutil, aunque sus consecuencias
no sean menos fantasmagóricas. Se ha
argumentado que los otros universos no son
reales, sino tan sólo tentativas de realidad,
mundos alternativos fallidos. No obstante, no se
pueden ignorar, pues es central para la teoría
cuántica, y se puede comprobar
experimentalmente, que los mundos alternativos
no siempre están completamente
desconectados del nuestro: se superponen al
universo que nosotros percibimos y tropiezan
con sus átomos. Tanto si sólo son mundos
fantasmales como si son tan reales y concretos
como el nuestro, nuestro universo no es en
realidad más que una infinitésima loncha de la
gigantesca pila de imágenes cósmicas: el
«superespacio». Los siguientes capítulos
explicarán qué es este superespacio, cómo
funciona y dónde nos acomodamos nosotros,
los habitantes del superespacio.
Habitualmente se cree que la ciencia nos
ayuda a construir un cuadro de la realidad
objetiva: el mundo «exterior». Con el
advenimiento de la teoría cuántica, esa misma
realidad parece haberse desmoronado, siendo
sustituida por algo tan revolucionario y
extravagante que sus consecuencias aún no han
sido debidamente afrontadas. Como veremos, o
bien se acepta la realidad múltiple de los mundos
paralelos o bien se niega que el mundo real
exista en absoluto, con independencia de
nuestra percepción de él. Los experimentos de
laboratorio realizados en los últimos años han
demostrado que los átomos y las partículas
subatómicas, que la gente suele imaginar como
«cosas» microscópicas, no son en absoluto
cosas, en el sentido de tener una existencia
independiente bien definida y una identidad
diferenciada e individual. Sin embargo, todos
nosotros estamos compuestos de átomos: el
mundo que nos rodea parece dirigirse de manera
inevitable a una crisis de identidad.
Estos estudios demuestran que la realidad,
en la medida en que realidad quiera decir algo,
no es una propiedad del mundo exterior de por
sí, sino que está íntimamente trabada a nuestra
percepción del mundo, a nuestra presencia
como observadores conscientes. Quizá sea esta
conclusión, más que ninguna otra, la que aporte
mayor significación a la revolución cuántica,
pues, a diferencia de todas las revoluciones
científicas anteriores, que apartaron
progresivamente a la humanidad del centro de la
creación y le otorgaron el mero papel de
espectadora del drama cósmico, la teoría
cuántica repone al observador en el centro de la
escena. De hecho, algunos científicos
destacados han llegado tan lejos como a
sostener que la teoría cuántica ha resuelto el
enigma del entendimiento y de sus relaciones
con el mundo material, afirmando que la entrada
de información a la conciencia del observador es
el paso fundamental para la creación de la
realidad. Llevada a su extremo, esta idea
supone que el universo sólo alcanza una
existencia concreta como resultado de esta
percepción: ¡lo crean sus propios habitantes!
Tanto si se aceptan como si no estas
últimas paradojas, la mayoría de los físicos está
de acuerdo en que, al menos en el plano
atómico, la materia se mantiene en un estado
de animación suspendida, de irrealidad, hasta
que se efectúa una medida u observación real.
Examinemos con detalle este curioso limbo que
corresponde a los átomos cogidos entre muchos
mundos e indecisos de adónde ir. Nos
preguntaremos si este limbo se reduce a lo
subatómico o bien si puede entrar en erupción
dentro del laboratorio e infiltrarse en el cosmos.
Las famosas paradojas del gato de
Schrödinger y del amigo de Wigner, en la que se
coloca un individuo, aparentemente, en un
estado de «vida-muerte» y se le pide que relate
sus sensaciones, se examinarán con vistas a
asegurarse de la verdadera naturaleza de la
realidad.
En la teoría cuántica ocupa un lugar central
la incertidumbre inherente del mundo
subatómico. El deseo de crecer en el
determinismo, donde todo acontecimiento tiene
su causa en algún acontecimiento anterior y el
mundo se despliega según un esquema
ordenado y regido por leyes, está
profundamente arraigado y constituye el
fundamento de muchas religiones. Albert
Einstein se adhirió firmemente a esta creencia
durante toda su vida y no pudo aceptar la teoría
cuántica en su forma convencional, pues la
revolución cuántica inyecta un elemento aleatorio
en el nivel más básico de la naturaleza. Todos
nosotros sabemos que la vida es algo arbitrario y
que nunca es posible predecir con exactitud el
futuro de los sistemas complejos, como son el
tiempo o la economía, pero la mayor parte de la
gente cree que el mundo es en principio
predecible, con tal de disponer de la suficiente
información. Los físicos solían creer que incluso
los átomos obedecían determinadas reglas,
moviéndose según algún sistema de actividad
preciso. Hace dos siglos, Pierre Laplace afirmó
que, si se conocieran todos los movimientos
atómicos, se podría trazar todo el futuro del
universo.
Los descubrimientos que han tenido lugar en
el primer cuarto de este siglo han revelado que
en la naturaleza existe un aspecto rebelde.
Dentro de lo que parece ser un cosmos regido
por leyes, hay un azar —una especie de
anarquía microscópica— que destruye la
predecibilidad mecánica e introduce una
incertidumbre absoluta en el mundo del átomo.
Sólo las leyes probabilísticas regulan lo que por
lo demás es un microcosmos caótico.
Pese a la protesta de Einstein de que Dios
no juega a los dados, al parecer el universo es
un juego de azar y nosotros no somos meros
espectadores, sino jugadores. Si es Dios o si es
el hombre quien lanza los dados, resulta que
depende de si en realidad existen o no múltiples
universos.
Sea azar o elección, el universo que
realmente percibimos ¿es un accidente o lo
hemos «elegido» entre un desconcertante haz
de alternativas? Seguramente la ciencia no tiene
ninguna tarea más urgente que la de descubrir si
la estructura del mundo que nos rodea —la
ordenación de la materia y de la energía, las
leyes a que obedecen, las cantidades que han
sido creadas— es un mero capricho del azar o si
es una organización profundamente significativa
de la que somos una parte esencial. En las
secciones posteriores del libro se presentarán, a
la luz de los más recientes descubrimientos
astrofísicos y cosmológicos, algunas ideas
nuevas y radicales sobre este particular.
Se sostendrá que muchos de los rasgos del
universo que observamos no pueden separarse
del hecho de que estamos vivos para
observarlos, pues la vida está muy
delicadamente equilibrada dentro de las escalas
del azar. Si se acepta la idea de los universos
múltiples, habremos elegido como observadores
una esquina diminuta y remota del superespacio
que no es en absoluto característica del resto,
una isla de vida en medio de los precipicios de
las dimensiones deshabitadas. Esto plantea el
problema filosófico de por qué la naturaleza
incluye tanta redundancia. ¿Por qué produce
tantos universos cuando, salvo una pequeña
fracción, han de pasar desapercibidos? Por el
contrario, si se relegan los demás universos a
mundos fantasmales, tendremos que considerar
nuestra existencia como un milagro tan
improbable como difícil de creer. La vida
resultará ser entonces verdaderamente azarosa,
más azarosa de lo que nunca habíamos
pensado.
La incertidumbre inherente a la naturaleza no
se limita a la materia, sino que incluso controla la
estructura del espacio y del tiempo.
Demostraremos que estas entidades no son
meramente el escenario sobre el que se
desarrolla el drama cósmico, sino que forman
parte del reparto. El espacio y el tiempo cambian
de forma y extensión —dicho sin rigor, van y
vienen— y, al igual que la materia subatómica,
su movimiento tiene algo de aleatorio e
incontrolado. Veremos cómo en la escala
ultramicroscópica los movimientos incontrolados
pueden destrozar el espacio y el tiempo,
dotándoles de una especie de estructura hueca y
espumosa, llena de «túneles» y «puentes».
Nuestra vivencia del tiempo está
estrechamente unida a nuestra percepción de la
realidad y cualquier intento de construir un
«mundo real» deberá hacer frente a las
paradojas del tiempo. El rompecabezas más
profundo de todos es el hecho de que, al
margen de nuestra experiencia mental, el tiempo
no pasa ni hay pasado, presente y futuro. Estas
afirmaciones son tan pasmosas que la mayor
parte de los científicos llevan una doble vida,
aceptándolas en el laboratorio y rechazándolas
sin pensarlo en la vida cotidiana. Pero la noción
de un tiempo en movimiento no tiene
virtualmente sentido ni siquiera en los asuntos
cotidianos, pese al hecho de que domine nuestro
lenguaje, pensamientos y acciones.
Quizás ahí radiquen los nuevos avances, en
desenredar el misterio de los vínculos entre el
tiempo, el entendimiento y la materia.
Muchos de los temas de este libro o son
más raros que si fueran inventados, pero lo que
debe destacarse no es su peculiaridad, sino el
que la comunidad científica los conoce desde
hace mucho sin haber intentado comunicarlos a
la opinión pública. Probablemente en razón,
sobre todo, de la naturaleza excepcionalmente
abstracta de la teoría cuántica, más el hecho de
que por regla general sólo se accede a ella con
ayuda de matemáticas muy avanzadas. Desde
luego, muchos de los temas de los siguientes
capítulos desafiarán la imaginación del lector,
pero las cuestiones son tan profundas e
importantes para nosotros que se debe intentar
salvar distancias y comprenderlas.
Capítulo I

Dios no juega a los dados

A comienzos de la década de 1920, un físico


norteamericano, Clinton Joseph Davisson, inició
una serie de investigaciones para la Bell
Telephone Company en las que bombardeaba
cristales de níquel con un haz e electrones
similar al haz que produce la imagen en las
pantallas de televisión. Percibió algunas
regularidades curiosas en el modo en que los
electrones se esparcían por la superficie del
cristal, pero no comprendió de inmediato su
enorme importancia.
Varios años después, en 1927, Davisson
dirigió una versión mejorada del mismo
experimento con un colega más joven, Lester
Halbert Germer. Las regularidades eran muy
pronunciadas, pero lo más importante fue que
ahora se esperaban, en base a una notable
teoría nueva de la materia desarrollada a mitad
de los años veinte. Davisson y Germer estaban
observando directamente y por primera vez un
fenómeno que dio lugar al hundimiento de una
teoría científica sólidamente implantada durante
siglos y que volvía del revés nuestras nociones
del sentido de la realidad, de la naturaleza de la
materia y de nuestra observación de la misma.
En realidad, tan profunda es la revolución del
conocimiento consiguiente y tan extravagantes
son las consecuencias que incluso Albert
Einstein, quizás el científico más brillante de
todos los tiempos, se negó durante toda su vida
a aceptar alguna de ellas.
La nueva teoría se conoce ahora como la
mecánica cuántica y nosotros vamos a examinar
sus asombrosas consecuencias sobre la
naturaleza del universo y de nuestro propio papel
dentro de él. La mecánica cuántica no es una
mera teoría especulativa del mundo subatómico,
sino un complejo entramado matemático que
sostiene la mayor parte de la física moderna.
Sin teoría cuántica, nuestra comprensión
global y pormenorizada de los átomos, los
núcleos, las moléculas, los cristales, la luz, la
electricidad, las partículas subatómicas, el láser,
los transistores y otras muchas cosas se
desintegraría. Ningún científico duda seriamente
de que las ideas fundamentales de la mecánica
cuántica sean correctas. Sin embargo, las
consecuencias filosóficas de la teoría son tan
pasmosas que, incluso pasados cincuenta años,
todavía resuena la controversia sobre lo que en
realidad significa. Para apreciar la profundidad de
la revolución cuántica hace falta entender, en
primer lugar, la imagen clásica de la naturaleza
tal como la concebían los científicos por lo
menos hasta el siglo XVII.
En los primeros tiempos, cuando los
hombres y las mujeres comenzaron a
preguntarse por los acontecimientos naturales
que ocurrían a su alrededor, su imagen del
mundo era bastante distinta de la que tenemos
hoy. Se daban cuenta de que ciertos
acontecimientos eran regulares y seguros, como
los días y las estaciones, las fases de la luna y
los movimientos de las estrellas, mientras que
otros eran arbitrarios y en apariencia aleatorios,
como las tormentas, los terremotos y las
erupciones volcánicas. ¿Cómo organizar este
conocimiento en forma de una explicación de la
naturaleza? En algunos casos, un
acontecimiento natural podía tener una
explicación evidente; por ejemplo, cuando el
calor del sol derretía la nieve. Pero la exacta
noción de causa-efecto no estaba bien
formulada. En su lugar, debió parecerles lo más
natural modelar el mundo según el sistema que
mejor entendían: ellos mismos. Es fácil
comprender por qué los fenómenos naturales
llegaron a considerarse manifestaciones del
temperamento y no de la causalidad. Así, los
acontecimientos regulares y seguros reflejaban
una actividad plácida y benevolente, mientras
que los acontecimientos súbitos y quizá violentos
se atribuían a un temperamento petulante,
airado y neurótico. Una consecuencia de lo
anterior fue la astrología, en la que el aparente
orden de los cielos se tomaba por el reflejo de
una organización más amplia que aunaba la
naturaleza humana y la celeste en un sistema
único.
En algunas sociedades los sistemas
animistas cristalizaron y se convirtieron en
personalidades reales. Existía el espíritu del
bosque, el espíritu del río, el espíritu del fuego,
etcétera. Las sociedades más desarrolladas
elaboraron una jerarquía de dioses compleja y
muy antropomórfica. El sol, la luna, los planetas,
incluso la misma Tierra, se consideraban
personalidades similares a las humanas y los
acontecimientos que les sobrevenían, un reflejo
de los bien conocidos deseos y emociones
humanos. «Los dioses están furiosos» debía
considerarse una explicación suficiente de alguna
calamidad natural, y se hacían los adecuados
sacrificios. El poder de estas ilustres
personalidades se tomaba muy en serio,
probablemente hasta el punto de constituir la
mayor fuerza sociológica.
Paralelamente a esta evolución surgió un
nuevo conjunto de ideas fruto de la creación de
asentamientos urbanos y de la aparición de los
estados nacionales. Para evitar la anarquía, se
contaba con que los ciudadanos se adaptaran a
un estricto código de conducta que se
institucionalizó en forma de «leyes». También los
dioses estaban sometidos a leyes y, a su vez,
en virtud de su mayor poder y autoridad,
refrendaban el sistema de leyes humanas con
ayuda de sus intermediarios, los sacerdotes. En
la temprana civilización griega, el concepto de un
universo regido por leyes estaba muy avanzado.
De hecho, la explicación de los acontecimientos
naturales rutinarios, como el vuelo de un
proyectil o la caída de una piedra, comenzaban
a formularse como «infalibles leyes de la
naturaleza». Esta nueva y deslumbrante idea de
que los fenómenos ocurrían sin supervisión,
estrictamente de acuerdo con la ley natural,
planteaba un agudo contraste con la otra visión
de un mundo orgánico regulado por los estados
de ánimo. Desde luego, los fenómenos
verdaderamente importantes —los ciclos
astronómicos, la creación del mundo y el mismo
hombre— seguían precisando la estrecha
atención de los dioses, pero las cuestiones
normales se desenvolvían por su propia cuenta.
No obstante, una vez que echó raíces la idea de
un sistema material que actúa según un
conjunto de principios fijos e inviolables, resultó
inevitable que el dominio de los dioses fuera
progresivamente erosionándose conforme se
iban descubriendo mayor número de nuevos
principios.
Aunque ni siquiera en la actualidad ha
desaparecido del todo la explicación teológica del
mundo material, los pasos decisivos para
asentar el poder de las leyes físicas se dieron,
hablando en sentido muy amplio, con Isaac
Newton y Charles Darwin. Durante el siglo XVI,
un gigante intelectual, Galileo Galilei, inició lo que
hoy llamaríamos una serie de experimentos de
laboratorio. La idea clave era que al aislar, en la
medida de lo posible, un fragmento del mundo
de las influencias ambientales, quedaría en
condiciones de comportarse de un modo muy
simple. Esta creencia en la simplicidad última de
la complejidad ha sido la fuerza impulsora de la
investigación científica durante milenios, y hoy
se mantiene intacta, pese a los sobresaltos que,
como veremos, ha recibido en los últimos
tiempos.
Una de las famosas investigaciones que
llevó a cabo Galileo consistió en observar la
caída de los cuerpos. Por regla general, se trata
de un proceso muy complejo que depende del
peso, la forma, la distribución de la masa y el
movimiento interno del cuerpo, así como de la
velocidad del viento, la densidad del aire,
etcétera. La genialidad de Galileo consistió en
señalar que todos estos rasgos sólo eran
complicaciones incidentales agregadas a lo que
realmente era una ley muy sencilla. Al reducir los
efectos de la resistencia del aire y utilizar cuerpos
de formas regulares, haciéndolos rodar por
planos inclinados (en lugar de dejarlos caer
directamente), simulando de este modo el efecto
de una gravedad muy reducida, Galileo se las
arregló para salvar la complejidad y aislar la ley
fundamental de la caída de los cuerpos. Lo que
hizo en esencia fue medir el tiempo que
necesitaban los cuerpos para caer desde
distintas distancias.
En la actualidad puede parecer un
procedimiento muy razonable, pero en el siglo
XVII fue un golpe de genio. En aquellos días, la
idea del tiempo era absolutamente distinta de la
nuestra: por ejemplo, no se aceptaba la idea de
un paso matemáticamente regulado del tiempo.
La duración temporal era desde siempre mucho
más afín a las antiguas ideas orgánicas, y su
concreción antes procedía de los ritmos
naturales del cuerpo humano, de las estaciones
y del ciclo celestial, que de los relojes de
precisión.
Con el descubrimiento de América y el
establecimiento de los viajes transatlánticos
regulares, las fuertes presiones militares y
comerciales estimularon la búsqueda de
sistemas de navegación este-oeste más
exactos. Pronto se comprendió que, mediante la
combinación de una exacta determinación de la
posición de las estrellas y de una exacta
medición del tiempo, era posible calcular la
longitud de un buque en medio del océano. De
este modo se inició la construcción de
observatorios y la ciencia de la moderna
astronomía posicional, así como la invención de
relojes cada vez más exactos. Aunque vivió una
generación antes de que Newton formalizara la
idea de un «tiempo absoluto, cierto y
matemático» y a dos siglos de distancia de los
horarios de trenes que por fin introdujeron este
concepto en la vida de la gente común, Galileo
identificó correctamente el papel central del
tiempo para describir los fenómenos del
movimiento. Su premio fue el descubrimiento de
una ley de una simplicidad desarmante: el
tiempo que se tarda en caer una distancia
partiendo del estado de reposo es exactamente
proporcional a la raíz cuadrada de la distancia.
Había nacido la ciencia. Había nacido la idea de
que una «fórmula matemática», en lugar de un
dios, supervisara el comportamiento del sistema
material.
El impacto de este descubrimiento no puede
subvalorarse. Una ley de la naturaleza en forma
de ecuación matemática no sólo implica
simplicidad y universalidad, sino también
manejabilidad. Significaba que ya no será
necesario seguir observando el mundo para
asegurarse de su comportamiento; también
podrá calcularse con papel y lápiz. Al utilizar las
matemáticas para modelar las leyes, el científico
podía predecir el comportamiento futuro del
mundo y retrodecir cómo se había comportado
en los tiempos pasados.
Por supuesto, en el mundo no sólo hay
cuerpos que caen, y hubo que esperar hasta la
monumental obra de Newton, a mediados del
siglo XVII, para que se produjera el impacto
completo de estas nuevas ideas revolucionarias.
Newton fue más lejos que Galileo y elaboró
detalladamente un sistema global de mecánica,
capaz de afrontar en principio todo tipo de
movimientos, que funcionó. La nueva
perspectiva de la física exigía nuevos progresos
en las matemáticas para describir las leyes
descubiertas por Newton. Se inventó el llamado
cálculo diferencial e integral.
Una vez más, el tiempo desempeñó un
papel central como catalizador de estos
progresos. ¿Con cuánta rapidez cambiaría su
velocidad un cuerpo sometido a la actividad de
una determinada fuerza? ¿Con cuánta rapidez
variaría la fuerza al desplazarse su lugar de
origen?
Éste era el tipo de preguntas a que debían
responder los nuevos matemáticos. La
mecánica de Newton es una descripción del
mundo en concordancia con el paso del tiempo.
Como consecuencia de esta reorientación
del pensamiento, se plantearon nuevas
cuestiones sobre el universo en las que el tiempo
y el cambio ocupaban un lugar destacado.
Mientras que en las culturas más antiguas la
armonía y el equilibrio —rasgos tan importantes
para el bienestar de los organismos biológicos—
constituían los aspectos sobresalientes, la
mecánica de Newton ponía el acento en las
cuestiones dinámicas de la naturaleza. Quizá no
sea una coincidencia que, a pesar del explosivo
desarrollo de la civilización en la época clásica,
las culturas prerrenacentistas fuesen en gran
medida estáticas, preocupadas por mantener el
«status quo». En contraposición, Galileo y
Newton, y más adelante Darwin, introdujeron el
concepto crucial de evolución en la visión
humana de la naturaleza.
Como tantas veces ha ocurrido en el
desarrollo del pensamiento humano, lo que
conduce a las revoluciones intelectuales es más
bien un cambio de perspectiva que una
información nueva. Otras culturas se habían
ocupado de temas tales como la manera de
evitar el disgusto del dios de las tormentas y
asegurar una buena cosecha, pero Newton y
sus matemáticas apuntaban a un tipo de
problema completamente nuevo: dado el estado
actual de un sistema físico, ¿cómo evolucionará
en el futuro? ¿Cuál será el estado final resultante
de un conjunto dado de condiciones iniciales?
Estos progresos intelectuales fueron
acompañados de cambios sociales: la revolución
industrial, la búsqueda sistemática de nuevos
conocimientos y tecnología y, sobre todo, el
concepto —tan dado hoy por supuesto— de una
comunidad «en vías de progreso» hacia un
mejor nivel de vida y un mejor control de su
medio ambiente. La transición de una sociedad
estática, influida por la naturaleza
temperamental, a una sociedad dinámica que
persigue el control de la naturaleza, debe mucho
a la nueva mecánica y su crucial concepto de
evolución temporal.
Otra idea importante que fue
adecuadamente clarificada por la mecánica de
Newton es la de los futuros alternativos, una
noción central para el tema de este libro.
Para comprender sus implicaciones se
requiere un cuidadoso examen de qué es
exactamente lo que se quiere decir con las leyes
matemáticas de la naturaleza. Como sabemos,
Galileo y Newton descubrieron que el
movimiento de los cuerpos materiales no es
casual y aleatorio, sino que está determinado por
matemáticas sencillas. Así pues, dada una
información sobre el estado de un cuerpo y su
entorno en un instante determinado, es posible
(al menos en principio) calcular el
comportamiento de ese cuerpo en el futuro (y en
el pasado). Cuidadosos experimentos confirman
que esto es cierto. Todo el espíritu de la idea
consiste en que el mundo no puede cambiar de
cualquier manera: los caminos disponibles para
el desarrollo se limitan a los que se ajustan a las
leyes. Pero, ¿hasta qué punto es restrictiva esta
limitación? Nuestra experiencia de la naturaleza,
repleta de una rica y en apariencia ilimitada
variedad de actividades interesantes y
complejas, no enlaza fácilmente con un mundo
tan rígido.
La reconciliación de la complejidad y la
obediencia se encuentra en la forma de las
matemáticas que se necesitan y en su relación
con la exigencia de «información» sobre el
sistema en algún momento inicial. Para precisar
lo dicho, podemos considerar la sencilla cuestión
práctica de lanzar una bola. Newton nos enseñó
que la trayectoria de un proyectil no es arbitraria,
sino que debe ser una curva bien determinada
de acuerdo con las leyes matemáticas. Sin
embargo, este mundo resultaría aburrido para
los deportistas si todas las bolas que se lanzaran
siguieran exactamente la misma trayectoria y,
desde luego, sabemos que eso no ocurre. En
realidad, las leyes no determinan en absoluto
una única trayectoria, sino tan sólo un tipo de
trayectoria. En el caso que nos ocupa, toda bola
seguirá una trayectoria parabólica, pero hay una
infinita variedad de parábolas. (La parábola es la
forma que se obtiene al cortar un cono
paralelamente a la cara opuesta. Es el borde
curvo del cono truncado).
Hay parábolas altas y delgadas, que
corresponden a bolas lanzadas casi
verticalmente, parábolas largas y bajas, como la
trayectoria de una pelota de béisbol, etcétera.
De hecho, la experiencia demuestra que
controlamos de dos modos la forma de la
trayectoria. Podemos decidir el tamaño de la
parábola variando la velocidad a que lanzamos la
bola y podemos variar la forma de la parábola
alterando el ángulo de lanzamiento. De manera
que existe una ley física según la cual todas las
bolas siguen trayectorias parabólicas, pero la
parábola que sigan vendrá determinada por dos
condiciones iniciales independientes: la velocidad
y el ángulo.
El objetivo de esta digresión sobre balística
elemental es señalar que en la naturaleza hay
algo más que leyes. Hay también condiciones
iniciales. Ahora podemos clarificar la cuestión de
qué información se precisa para determinar el
comportamiento concreto de un cuerpo según la
mecánica newtoniana. En primer lugar,
necesitamos conocer la magnitud y la dirección
de todas las fuerzas que actúan sobre un cuerpo
y cómo varían en el tiempo, y en segundo lugar
la posición y la velocidad del cuerpo en algún
momento, que también debe especificarse.
Dados todos estos datos, calcular dónde estará
el cuerpo y cómo se moverá en un momento
posterior es una simple cuestión matemática.
Uno de los primeros éxitos de la mecánica de
Newton consistió en explicar los tamaños, las
formas y los periodos de las órbitas planetarias
del sistema solar. Los planetas, incluida la Tierra,
están atrapados en órbitas alrededor del Sol por
la gravedad de este último cuerpo. Para calcular
los movimientos del sistema solar, Newton tenía
que conocer tanto la intensidad como la dirección
de la fuerza gravitatoria solar en todos los
lugares del espacio, y también las condiciones
iniciales, es decir, las posiciones y velocidades
de los planetas en un determinado momento.
Esta última información podían aportarla los
astrónomos, que controlan rutinariamente tales
cuestiones, pero la fuerza de la gravedad era un
asunto completamente distinto. Generalizando
los resultados de Galileo sobre la gravedad
terrestre, Newton conjeturó acertadamente que
el Sol, y de hecho todos los cuerpos del
universo, ejercen una fuerza gravitatoria que
disminuye con la distancia de acuerdo con otra
ley matemática exacta y simple: la llamada ley
de la gravitación universal. Una vez
matematizado el movimiento, Newton
matematizó asimismo la gravedad. Conjuntando
ambas cosas y utilizando el cálculo logró un gran
triunfo al predecir correctamente el
comportamiento de los planetas.
Desde los tiempos de Newton, esta
mecánica se ha aplicado a todos los pormenores
del sistema solar. Es posible mejorar los cálculos
originales teniendo en cuenta las diminutas
fuerzas gravitatorias que actúan entre los
mismos planetas, así como los efectos de su
rotación, las distorsiones de sus formas,
etcétera. Una operación habitual consiste en
calcular la órbita de la Luna y, a partir de ahí,
predecir las fechas de los eclipses futuros. Del
mismo modo, el cálculo puede aplicarse
retrospectivamente para determinar las fechas
de los eclipses pasados y compararlos con los
datos históricos.
La aplicación de la mecánica newtoniana al
sistema solar fue algo más que un ejercicio. Hizo
saltar por los aires la creencia secular de que los
cielos estaban gobernados por fuerzas
puramente celestiales. Incluso el gran refugio de
los dioses sucumbió ante las matemáticas de
Newton. Nunca ha habido una demostración
más espectacular del poder de la ciencia basada
en leyes matemáticas. Significaba que las leyes
de la naturaleza no sólo controlaban los procesos
menores de la Tierra, como la forma de la
trayectoria de los proyectiles, sino que también
gobernaban la misma estructura del cosmos:
una ampliación del horizonte hasta lo cósmico
que alteró profundamente las concepciones de la
humanidad sobre la naturaleza del universo y su
propio lugar dentro de él.
Las profundas consecuencias filosóficas de
la revolución newtoniana son más claras en la
cosmología: el estudio de la totalidad de las
cosas. Según Newton, el movimiento de toda
partícula material, de todo átomo, está en
principio total y absolutamente determinado para
todo el tiempo pasado y futuro con tal de
conocer las fuerzas imprimidas y las condiciones
iniciales. Pero las propias fuerzas, a su vez,
están determinadas por la localización y el
estado de la materia. Por ejemplo, la fuerza
gravitatoria solar es fija una vez que conocemos
su posición. De ahí se deduce que, una vez que
conozcamos las posiciones y los movimientos
de todos los fragmentos de materia, y
suponiendo que conozcamos también las leyes
que rigen las fuerzas entre los fragmentos,
podemos calcular toda la historia del universo, tal
como señaló Pierre Laplace.
Ahora bien, debe decirse desde el principio
que no se dispone de tal conocimiento y que,
aun cuando lo tuviésemos, no habría
computadora lo bastante grande para realizar los
cálculos. En la práctica, por supuesto, sólo es
posible calcular los subsistemas muy simples y
relativamente aislados (por ejemplo, el sistema
solar). Sin embargo, como cuestión de principio
continúa teniendo unas implicaciones
sobrecogedoras. La antigua concepción del
cosmos como sociedad de temperamentos que
coexisten en equilibrio deja paso a la imagen
inanimada e incluso estéril del «universo
mecánico». Inevitablemente, los
descubrimientos de Newton parecen relegar el
mundo entero a la condición de mecanismo que
marcha inexorable y sistemáticamente adelante
hacia un destino preestablecido, donde cada
átomo corre siguiendo una trayectoria retorcida
pero legislada hasta alcanzar un destino
inalterable.
Finalmente este cambio de perspectiva tuvo
su impacto sobre la religión. La primitiva idea
cristiana de un Dios activo que participaba de
cerca en los negocios mundanos, supervisando
los acontecimientos, desde la concepción de los
niños hasta las fases de la Luna, fue sustituida
por una idea más lejana de Dios como iniciador
del movimiento cósmico, que observa
pasivamente el desenvolvimiento de su creación
según sus propias leyes matemáticas. El espíritu
de esta transformación en divina pasividad y
automática legalidad lo capta Robert Browning
en su poema Pippa Passes: «Dios en su cielo,
Todo en orden en su mundo». El universo
mecánico, que se desarrolla uniformemente
según un plan, había llegado: fue tal el impacto
del pequeño prodigio del genio de Newton que
Pope escribiría: «Dios dijo: “¡Que exista Newton!”
y todo se iluminó».
A pesar del pasmoso logro intelectual de
imponer disciplina a un cosmos indomable, la
creación por obra de Newton de un universo
conformado a leyes rígidas tiene un aspecto
profundamente deprimente.
Cuando se ha hecho formar hasta el último
átomo, como si dijéramos, hay una chispa de
vida que desaparece del mundo. Un mecanismo
de relojería puede ser muy hermoso y eficiente,
pero la imagen de un universo que corcovea
insensatamente camino de la eternidad, cual
caja de música de grotesca complejidad, no
resulta demasiado tranquilizadora, sobre todo
teniendo en cuenta que nosotros formamos
parte de ese universo. Una víctima evidente de
tal visión es el libre albedrío. Si la entera
condición del pasado y del futuro de la materia
estuviera únicamente determinada por su
condición en cualquier instante concreto,
entonces nuestro futuro estaría obviamente
predeterminado hasta el último detalle.
Cualquier decisión que tomemos, cualquier
antojo, estarían en realidad acordados desde
hace miles de millones de años como el
inevitable resultado de una red de fuerzas e
influencias asombrosamente intrincada pero
totalmente predeterminada.
En la actualidad, los científicos reconocen
varios fallos en el razonamiento que conduce a
un universo predeterminado y mecánico, pero,
incluso dando por sentada la idea esencial, no
debe suponerse que las leyes newtonianas sean
tan restrictivas que sólo permitan un único
universo posible. Al igual que una bota puede
seguir cualquier trayecto entre una infinita
variedad de ellos, así también el conjunto del
universo sigue una infinita diversidad de
trayectorias hacia el futuro. Las condiciones
iniciales determinan cuál es exactamente la
trayectoria elegida.
Esto plantea la cuestión fundamental de qué
se entiende por «inicial». Más adelante veremos
que los cosmólogos modernos creen que el
universo no ha existido siempre, de manera que
debe haber habido alguna clase de creación,
aunque debió ocurrir hace unos quince mil
millones de años. De modo que tiene sentido
reflexionar sobre los siguientes problemas, todos
ellos fascinantes. ¿Qué condiciones iniciales de
la creación condujeron al universo que hoy
contemplamos? ¿Eran condiciones muy
especiales o, por el contrario, poseían
características muy generales? ¿Qué clase de
universo hubiera resultado de ser las condiciones
distintas?
La filosofía que subyace a lo dicho es que
nuestro universo no es más que uno del infinito
conjunto de universos posibles: tan sólo un
camino particular hacia el futuro.
Podemos estudiar las otras trayectorias con
ayuda de las matemáticas. Podemos sondear la
naturaleza de esa miríada de mundos
alternativos que pudieron haber existido y
preguntarnos: ¿por qué éste? En los siguientes
capítulos veremos cuán estrechamente está
implicada nuestra existencia en estas cuestiones
y cómo esos otros mundos fantasmales no son
meras curiosidades académicas sino que
realmente dejan sentir su presencia en el mundo
concreto que conocemos.
Una de las rarezas del universo mecanicista
de Newton es su patente contradicción con la
experiencia. Buena parte del mundo que nos
rodea parece acaecer más bien por azar que por
designio. Compárese, por ejemplo, el
comportamiento de una bola con el de una
moneda lanzada al aire. Ambas se mueven
según los principios de la mecánica de Newton.
Si se lanza la bola varias veces a la misma
velocidad y en la misma dirección seguirá
siempre la misma trayectoria, pero la moneda al
aire unas veces saldrá cara y otras veces cruz.
¿Cómo se pueden reconciliar estas diferencias
con un mundo donde la sucesión de los
acontecimientos está por completo
predeterminada?
Veamos en primer lugar lo que se entiende
por ley natural. Tal como la concibieron los
pensadores clásicos y fue incorporada más tarde
a la concepción newtoniana de la mecánica, se
supone que la ley describe el comportamiento de
un sistema material concreto sometido a un
conjunto concreto de circunstancias. Dado que
las leyes naturales, por definición, se entiende
que no cambian con el tiempo ni con el espacio,
es evidente que están estrechamente
relacionadas con la repetibilidad, un concepto
fundamental a la filosofía de la verificación de
teorías mediante la repetición de los
experimentos. En consecuencia, si la bola
lanzada se mueve según las leyes de Newton,
cuando se lance la bola una y otra vez en
idénticas condiciones, su trayectoria deberá ser
siempre la misma.
Un buen procedimiento para analiza este
problema consiste en usar el concepto,
anteriormente introducido, de un conjunto de
mundos. Imaginemos un conjunto (infinito si se
quiere) de mundos idénticos excepto en el
recorrido de la bola. En cada uno de los mundos
la bola se lanza a una velocidad y/o con un
ángulo ligeramente distintos. Hay toda una serie
de trayectorias, una por cada mundo; todas son
parabólicas, pero no hay dos idénticas. Es útil
denominar de algún modo a los distintos
mundos para poder distinguirlos. Un método
práctico consiste en trazar un diagrama en el que
las dos condiciones iniciales —velocidad y ángulo
— se conjuguen. Cada par de números
(velocidad, ángulo) determina un punto en el
diagrama que corresponde únicamente a un
mundo concreto y a una trayectoria concreta. De
este modo, cada mundo se caracteriza por un
par de números.
Examinemos ahora una familia de otros
puntos que rodean al que nos interesa. Estos
puntos representan otros mundos que, en cierto
sentido, son vecinos muy próximos del original.
Representan mundos donde las condiciones
iniciales han sufrido muy ligeras perturbaciones.
Si nos preguntamos por el comportamiento de la
bola en estos mundos próximos, encontramos
que sus trayectorias son muy similares a las del
original. En suma, una pequeña variación de las
condiciones iniciales causan solamente un
pequeño cambio en el movimiento subsiguiente.
En contraposición a lo anterior, examinemos
otra situación conocida, referida esta vez a
varias bolas. En el billar americano, el juego se
inicia lanzando uno de los jugadores la bola
blanca contra el grupo de las otras diez que
forman un apretado triángulo invertido. Tras el
impacto, las bolas se desperdigan por la mesa,
chocando y rebotando en las bandas, hasta que
finalmente se detienen (debido al rozamiento) en
alguna configuración. Por muchas veces que
repitamos la operación, y por mucho cuidado
que tengamos en colocar igual la bola de billar,
parece que nunca podemos contar con repetir
exactamente la misma configuración final. Al
parecer, este resultado nunca es predecible ni
repetible. ¿Dónde está la coherencia con la
mecánica determinista de Newton? Sigue siendo
posible designar cada uno de los miembros de
nuestro conjunto de mundos mediante puntos,
puesto que dado un único punto, es decir, un
ángulo y una velocidad determinados de la bola
de billar, la configuración final de las bolas estará
determinada por las leyes.
La diferencia entre este caso y el
lanzamiento de una única bola radica en las
propiedades del conjunto, no de un único
mundo, pues incluso condiciones iniciales en
realidad enormemente parecidas a las del caso
original producirán configuraciones finales de las
bolas drásticamente distintas. Cualquier cambio
mínimo en la velocidad o en el ángulo repartirá
las bolas de manera completamente distinta.
Como mejor pueden compararse estos dos
casos es diciendo que en el primero tenemos un
buen control sobre las condiciones iniciales,
mientras que no ocurre así en el segundo. La
configuración de las bolas del billar americano es
tan sensible a las menores perturbaciones que el
resultado es, más o menos, completamente
aleatorio. Si aplicamos una lupa al segundo
caso, veremos que en realidad hay entornos de
cada punto que, en ese mundo, producirán una
configuración final de las bolas similar a la de la
primera tirada. El problema es que estos puntos
están de hecho muy cerca del primero, es decir,
que las distancias se han acortado mucho, de tal
modo que, en la práctica, nunca lograremos la
misma localización dos veces.
La conclusión a sacar de este ejemplo es
que, en el mundo real, la predecibilidad
determinista de la naturaleza sólo se hace visible
si miramos el mundo por el microscopio. Sólo si
tenemos en cuenta el decurso detallado de cada
átomo podemos confiar en apreciar el
funcionamiento del mecanismo de relojería. A la
escala ordinaria, nuestra ignorancia o nuestra
falta de control de las condiciones iniciales
introduce una gran componente aleatoria en el
comportamiento del mundo. Durante mucho
tiempo los físicos creyeron que estas
limitaciones puramente prácticas eran la única
fuente de incertidumbres y azar. Se suponía que
los propios átomos se movían según las leyes
deterministas de la mecánica de Newton, es
decir, se pensaba que los átomos sólo se
diferenciaban de los objetos macroscópicos, cual
las bolas de billar, en la escala. De hecho,
partiendo de este supuesto, los físicos estaban
en condiciones de explicar satisfactoriamente
muchas de las propiedades de los gases y de los
sólidos, considerándolos como una enorme
acumulación de átomos cada uno de los cuales
se movía según las leyes de Newton.
Por supuesto, dado que en la práctica no era
posible calcular el movimiento individual de cada
átomo, se adoptaron ciertos sistemas de
establecer promedios. En cualquier caso, era
posible prever el comportamiento aproximado
del conjunto de los átomos.
Alrededor del cambio de siglo se descubrió
que los átomos no son, después de todo,
cuerpos sólidos indestructibles, sino que poseen
una estructura interna, bastante parecida al
sistema solar, con un pesado núcleo en el centro
rodeado por una nube de electrones ligeros y
móviles. Todo el sistema se mantiene unido
gracias a las fuerzas eléctricas que atraen a los
electrones negativos hacia el núcleo positivo. Es
natural que los físicos buscaran en la mecánica
de Newton el modelo matemático del átomo,
tratando de repetir el anterior éxito de explicar los
movimientos del sistema solar. Por desgracia, el
modelo parecía contener un defecto
fundamental. En el siglo XIX se descubrió que
cuando una carga eléctrica se acelera emite
radiaciones electromagnéticas, tales como ondas
luminosas, caloríficas o de radio. Un aparato
transmisor de radio utiliza este principio haciendo
que los electrones suban y bajen por la antena.
También en los átomos los electrones se ven
obligados a trazar órbitas curvas por efecto del
campo eléctrico del núcleo, y esta aceleración
debe hacerles emitir radiaciones. De ser así, el
sistema deberá perder energía en forma de
radiación y el átomo pagará el precio de
encogerse. Debido a ello el electrón será atraído
hacia el núcleo y tendrá que orbitar a mayor
velocidad para superar el campo eléctrico más
fuerte que hay allí.
El resultado será una emisión aún mayor de
radiación y un encogimiento todavía más rápido.
En realidad, el sistema será inestable y los
átomos acabarán derrumbándose al cabo de
muy poco tiempo. ¿Qué es lo que está mal?
La respuesta a este enigma no se descubrió
del todo hasta la década de 1920, aunque en
1913 se dieron ya algunos tímidos pasos en esta
dirección. En los capítulos posteriores
examinaremos con más detalle la solución;
bástenos por el momento decir que no sólo las
leyes de Newton fallaban al aplicarse a los
átomos, sino también otras leyes de las hasta
entonces conocidas. La sustitución de la teoría
no sólo demolió dos siglos de ciencia, sino que
puso en cuestión algunos supuestos básicos
sobre el significado de la materia y de nuestras
observaciones sobre ella. Esta teoría cuántica,
tal y como ahora se denomina, fue desarrollada
en varias etapas entre 1900 y 1930, y tiene las
más profundas consecuencias para la naturaleza
del universo y para nuestra situación dentro de
él.
Los experimentos dirigidos por Davisson,
que se han mencionado al principio de este
capítulo, constituyeron la primera observación
directa del funcionamiento de los nuevos y
asombrosos principios.
Supóngase que se lanza una bola desde el
lugar A y que ésta se mueve, siguiendo una
trayectoria, hacia otro lugar B. Al repetir la
operación cabría esperar que la bola siguiera
exactamente la misma trayectoria (en la medida
en que las condiciones iniciales fueran idénticas).
Esta propiedad también se esperaba de los
átomos y de las partículas que los constituyen,
electrones y núcleos. El sorprendente
descubrimiento de la teoría cuántica fue que
esto no es así.
Un millar de electrones distintos se
trasladarán de A a B siguiendo un millar de
trayectos distintos.
A primera vista parece como si el dominio
de las matemáticas sobre el comportamiento de
la materia haya llegado a su fin, vencido por el
espectro de la anarquía subatómica.
Es difícil excederse al subrayar las inmensas
consecuencias de este descubrimiento, pues,
desde que Newton descubrió que la materia se
comportaba según reglas determinadas, se
contaba con aplicar alguna clase de reglas a
todos los niveles, desde el átomo hasta el
cosmos. Ahora, sin embargo, parece que la
ordenada disciplina del mundo macroscópico de
nuestra experiencia se desmorone en el caos del
interior del átomo.
Aunque, como veremos, el caos subatómico
es en cierto sentido ineludible, este caos, por su
misma naturaleza, puede dar lugar a alguna
clase de orden. Para esclarecer esta enigmática
afirmación, pensemos en un parque rodeado por
una cerca y con dos puertas localizadas en
puntos opuestos, que denominaremos A y B.
Supongamos que el parque esté situado en una
vía pública que se utilice con frecuencia, de
manera que la gente tienda a entrar por la puerta
A, atravesarlo a pie hasta B y salir.
Si registráramos los trayectos de todos los
visitantes del parque, pongamos, en una hora, lo
característico es que la mayoría de los visitantes
avance según, muy aproximadamente, una
línea recta que vaya de A a B. Algunos, con
más tiempo o vitalidad, pasean un poco hacia
alguno de los lados y unos pocos (quizá los que
llevan perro o son todavía más vitales) se
acercan a los límites del parque. En ocasiones
sueltas se presentará un trayecto muy arbitrario
(quizá de un niño). Lo que importa es que, en
apariencia, las personas no se someten a
ninguna ley rígida del movimiento; se consideran
a sí mismas libres para elegir cualquier camino
para cruzar el parque. En realidad cualquier
individuo puede decidir mantenerse alejado del
camino más corto. A pesar de esto, cuando se
estudia un grupo lo bastante numeroso, es muy
probable que haya una concentración de
trayectorias alrededor de la línea recta.
Dados los suficientes sujetos, surge una
especie de orden, aun cuando por regla general
se quebrante la ley de «andar en línea recta». La
razón es que, cuando se estudia una gran masa
de personas, los caprichos y fantasías de los
distintos individuos se compensan y el
comportamiento colectivo muestra un
inconsciente conformismo. La razón que
subyace al conformismo concreto que aquí nos
ocupa es que las personas, por término medio,
propenden a elegir la vía más corta sin incurrir en
altos niveles de actividad. El camino en línea
recta desde A a B es el camino del menor
esfuerzo y de ahí que sea el seguido con mayor
frecuencia por cualquier peatón. Pero no tiene
que ser así; se trata de puras probabilidades.
El ejemplo de los paseantes por el parque es
muy parecido al de las partículas subatómicas,
que también eligen toda una diversidad de
trayectorias desde A a B, aunque prefieren las
que suponen un menor esfuerzo. De forma que,
una vez más, las trayectorias tienden a
agruparse alrededor del camino que precisa
menor esfuerzo. Al parecer, los electrones, lo
mismo que los humanos, no quieren esforzarse
demasiado. Ahora bien, lo significativo del
camino de menor esfuerzo es que coincide con
la trayectoria newtoniana: la trayectoria que se
calcularía a partir de las leyes de Newton.
Volviendo al ejemplo de los paseantes por el
parque, también podemos observar otro rasgo
interesante. Es más probable que sigan la línea
recta los individuos gordos, pesados, que no los
ligeros (por ejemplo, los niños). Esto se debe a
que el esfuerzo adicional necesario para
desplazar un cuerpo pesado por una trayectoria
serpenteante es mayor que en el caso de un
cuerpo ligero. Igual les ocurre a las partículas de
materia inanimada: las pesadas, tales como los
átomos o los grupos de átomos, es más
probable que se mantengan próximas a la
trayectoria del mínimo esfuerzo que los
electrones. Cuando las partículas son tan
pesadas que son macroscópicas (por ejemplo,
las bolas de billar), entonces es sumamente
improbable que se aparten de la trayectoria
newtoniana del mínimo esfuerzo más allá de
una distancia infinitésima. Ahora estamos en
condiciones de entender por qué la anarquía
atómica es coherente con la disciplina
newtoniana en lo que se refiere a los objetos
ordinarios. Las desviaciones de la ley están
permitidas, pero son absolutamente diminutas
excepto a escala subatómica, de manera que
normalmente no las percibimos.
Utilizando un principio matemático
comparable a la aversión humana a hacer
esfuerzos innecesarios, la teoría cuántica
permite calcular las probabilidades relativas de
todos los distintos trayectos que pueden seguir el
electrón o el átomo. Fundamentalmente, se
calcula la acción necesaria para que una
partícula se mueva siguiendo un trayecto dado
(lo que requiere una definición precisa de acción)
y se inserta en una fórmula matemática que
proporciona la probabilidad de la trayectoria. En
general, todas las trayectorias son posibles, pero
no todas son igual de probables.
Todavía necesitaremos saber cómo todo
esto impide que los átomos se colapsen o
derrumben. Una nueva y asombrosa revelación
sobre la naturaleza de la materia subatómica,
que aún demoraremos hasta el capítulo 3, es
también necesaria, pero de momento puede
darse una noción aproximada. Según la vieja
teoría, la partícula que orbita alrededor de un
núcleo debe ir trazando una espiral concéntrica
conforme disipa su energía en forma de
radiación electromagnética. Ésta es la trayectoria
clásica. Pero la teoría cuántica le permite seguir
otras muchas trayectorias. Si el átomo tiene
mucha energía interna, entonces el electrón se
situará lejos del núcleo y su comportamiento no
diferirá mucho de la representación clásica. No
obstante, cuando se ha perdido cierta cantidad
de energía en forma de radiación y el electrón se
acerca al núcleo, ocurre un nuevo fenómeno.
Es importante recordar que el electrón no se
mueve según una única trayectoria de A a B,
sino que describe órbitas. De modo que las
posibles trayectorias se cruzan y vuelven a
cruzarse según una complicada red, rasgo que
debe tenerse en cuenta a la hora de calcular el
comportamiento más probable del electrón.
Resulta tener una importancia crucial: existe un
estado de mínima energía por debajo del cual la
probabilidad de encontrar un electrón es
estrictamente igual a cero. En sus movimientos,
el electrón puede hacer excursiones
momentáneas hacia el núcleo, pero le está
prohibido detenerse en él. La localización media
del electrón resulta estar a unas diez mil
millonésimas de centímetro del núcleo, que es el
radio del átomo en el estado de menor energía.
En realidad, existe toda una serie de
investigaciones del átomo, y se emite luz cada
vez que el electrón hace una transición
descendente de un nivel energético a otro.
Puesto que los niveles representan una energía
fija, el átomo no emitirá cualquier cantidad de
luz, sino pulsaciones o paquetes que contienen
una determinada cantidad de energía,
característica de cada tipo de átomo. Estos
paquetes de energía se denominan cuantos y
los cuantos de luz se conocen como fotones. La
existencia de los fotones era conocida desde
mucho antes de que se elaborara la teoría
atómica tal como aquí se describe: la obra de
Planck, junto con la explicación del efecto
fotoeléctrico por Einstein, demostró que la luz
sólo brota en unidades de energía discretas. La
energía de cada uno de estos fotones es
proporcional a su frecuencia, de manera que la
propiedad que tiene la luz de colorearse es una
medida de su energía. Así pues, la luz azul, que
es de frecuencia alta, contiene bastantes más
fotones energéticos que los colores de baja
frecuencia, como el rojo. Pero aún más, puesto
que un determinado tipo de átomo (por ejemplo,
el hidrógeno) sólo emite determinados cuantos,
la calidad de la luz de cada clase de átomos
tendrá su distintivo. Pues los colores de la luz
procedentes del hidrógeno difieren
completamente de los colores procedentes,
pongamos, del carbono. Por supuesto, cada
átomo puede emitir todo un abanico, o espectro,
de colores correspondiente a toda la secuencia
de niveles energéticos (desigualmente
espaciados en cuanto a energía), y por eso la
teoría cuántica sirve para explicar el espectro
luminoso característico de los distintos productos
químicos. En realidad, pueden hacerse cálculos
que proporcionen, no sólo los colores exactos,
sino sus intensidades relativas, calculando las
probabilidades relativas que tienen los electrones
de seguir las distintas trayectorias que permiten
saltar entre los diferentes niveles.
Los arrolladores logros de la teoría cuántica
son sobradamente impresionantes, pero no han
hecho más que empezar. En los posteriores
capítulos veremos aplicaciones mucho más
amplias que la estructura atómica y la
espectografía. Una cosa hay que aún no se ha
explicado de la forma adecuada: cómo el
cruzarse y entrecruzarse de los electrones
conduce a tan drásticos cambios en su
comportamiento.
Hay aquí un profundo misterio: ¿Cómo sabe
un electrón que ha atravesado su propia
trayectoria?
Un fenómeno aún más extraordinario se
tratará en el capítulo 3: el electrón no sólo tiene
que conocer su propia trayectoria, ¡también debe
conocer las demás trayectorias que en realidad
nunca sigue!
Resumiendo los rasgos más significativos de
la revolución cuántica: encontramos que las
leyes rígidas del movimiento son en realidad un
mito. La materia tiene permitido vagar errante de
manera más o menos aleatoria, sometiéndose a
ciertas presiones, como es la aversión a hacer
demasiado esfuerzo. El caos absoluto, pues, se
elude porque la materia es perezosa al mismo
tiempo que indisciplinada, de modo que, en un
determinado sentido, el universo elude la total
desintegración gracias a la indolencia inherente a
la naturaleza.
Si bien no es posible hacer ninguna
afirmación taxativa sobre ningún movimiento
concreto, determinadas trayectorias son más
probables que otras, de tal forma que
estadísticamente podemos predecir con
exactitud cómo se comportará una gran masa
de sistemas similares. Aunque estos extraños
rasgos sólo resultan sobresalientes a escala
atómica, es evidente que el universo no es, a fin
de cuentas, un mecanismo de relojería cuyo
futuro esté absolutamente determinado. El
mundo no está tan controlado por leyes rígidas
como por el azar. Además, las incertidumbres no
son una mera consecuencia de nuestra
ignorancia de las condiciones iniciales, como se
pensó en otro tiempo, sino una propiedad
inherente a la naturaleza que se negó a creerla
durante toda su vida, rechazando la idea con la
famosa réplica: «¡Dios no juega a los dados!».
No obstante, la inmensa mayoría de los físicos
han llegado a aceptarla. En los siguientes
capítulos se pondrán de manifiesto las
sorprendentes consecuencias de un cosmos
básicamente incierto.
Capítulo II

Las cosas no siempre son lo que parecen

En el último capítulo hemos visto hasta qué


punto es central en nuestra visión del mundo la
idea newtoniana de un tiempo
matemáticamente exacto, que fluye uniforme y
universalmente del pasado hacia el futuro. No
vemos el mundo en forma estática, sino
evolucionando, desarrollándose, cambiando de
un momento al siguiente. En una época se
creyó que el futuro estado del mundo, al
desenvolverse de este modo, estaría
predeterminado por su estado presente, pero la
revolución cuántica derrocó tal idea. En lugar de
eso, el futuro es inherentemente incierto. La
teoría cuántica derribó el edificio de la mecánica
de Newton, pero, ¿qué fue de su modelo del
tiempo y del espacio?
Éste también se hundió, en una revolución
tan profunda como la cuántica pero que la
precedió en algunos años.
En 1905, Albert Einstein publicó una nueva
teoría del espacio, del tiempo y del movimiento
llamada la relatividad especial.
Ponía en cuestión algunos de los supuestos
más apreciados y habituales sobre la naturaleza
del espacio y del tiempo. Desde su primera
publicación, la teoría se ha comprobado
repetidas veces en experimentos de laboratorio y
en la actualidad es aceptada casi unánimemente
por los físicos. Entre las predicciones más
espectaculares de la teoría se cuenta la
existencia de la antimateria y los viajes en el
tiempo, la elasticidad del espacio y del tiempo, la
equivalencia de la masa y la energía y la
aniquilación de la materia. Como ampliación de
su trabajo de 1905, Einstein publicó en 1915 la
llamada teoría general de la relatividad. Aunque
no tan bien fundada experimentalmente, sus
predicciones son igual de fantásticas: espacio y
tiempo curvos, agujeros negros, la posibilidad de
un universo finito pero ilimitado, e incluso la
posibilidad de que el tiempo y el espacio se
disuelvan a la inexistencia.
La teoría de la relatividad se aventura en
estas extraordinarias posibilidades adoptando
una perspectiva radicalmente nueva sobre qué
es exactamente el mundo. Según las ideas de
Newton, que son la perspectiva del sentido
común que adopta la gente normal en la vida
cotidiana, el mundo cambia a cada momento.
En cualquier momento dado, el mundo supone
un estado determinado (aunque no por completo
conocido) de todo el universo.
Inevitablemente pensamos en todas las
demás personas, en todos los demás planetas y
estrellas, en las otras galaxias, en todas las
cosas que nos interesan, y las imaginamos en
determinadas condiciones concretas en este
momento, es decir, ahora. El mundo, pues, se
ve como la totalidad de todos estos objetos en
un momento concreto. La mayor parte de la
gente no duda de la existencia de un «mismo
momento» universal (ni tampoco lo dudaba
Newton).
La defunción de esta habitual manera de
concebir el tiempo la pone de manifiesto un
curioso fenómeno. Entre las constelaciones de
Águila y de Sagitario hay un prodigioso objeto
astronómico denominado un púlsar binario. En
apariencia, consiste en dos estrellas
derrumbadas o colapsadas que orbitan una
alrededor de la otra a muy corta distancia. Se
cree que estas estrellas son tan compactas que
incluso sus átomos se han desplomado en
forma de neutrones por obra de su propio peso
debido a la enorme gravedad. A resultas de la
gran densidad —las estrellas tienen unos pocos
kilómetros de diámetro— giran a una formidable
velocidad de varias veces por segundo. Una de
las estrellas está sin duda rodeada por un campo
magnético, pues cada vez que gira emite una
pulsación de ondas de radio (de donde viene el
nombre de púlsar), y durante los últimos cinco
años los astrónomos han estado controlando
estas vibraciones con el gigantesco
radiotelescopio de Arecibo, en Puerto Rico. La
regularidad de la rotación de la estrella de
neutrones se refleja en la exacta regularidad de
las emisiones, que en consecuencia pueden
utilizarse como un reloj estelar preciso, al mismo
tiempo que permite seguir el movimiento de la
estrella.
La regularidad de las pulsaciones
proporciona un ejemplo gráfico de la
imperfección del tiempo de sentido común. Al
ser tan masivas y estar tan juntas, las dos
estrellas de neutrones bailan la una alrededor de
la otra a una velocidad fenomenal, tardando
únicamente ocho horas en cada revolución
orbital: Un año de ocho horas. Por tanto, el
púlsar se mueve a una considerable fracción de
la velocidad de la luz, que es la misma que la
velocidad de las pulsaciones de radio. (La luz, las
ondas de radio y otras radiaciones, como el calor
infrarrojo, los rayos ultravioleta, los rayos X y los
gamma son ejemplos del mismo fenómeno
básico: las ondas electromagnéticas). Al girar el
púlsar alrededor de su compañero, a veces se
acerca a la Tierra y a veces se aleja, según la
dirección momentánea del movimiento. El
sentido común pensaría que cuando el púlsar se
acerca, las pulsaciones de radio se aceleran,
puesto que reciben el empuje adicional, en
dirección a nosotros, del propio movimiento de la
estrella, como lanzada por una honda. Por la
misma razón las pulsaciones deberían
desacelerarse al retroceder la estrella. De ser
así, la primera serie de pulsaciones debería
llegar mucho antes que la segunda, puesto que
recorrerían la enorme distancia que las separa
de la Tierra a mayor velocidad. En realidad, la
recepción de las pulsaciones de toda la órbita
debería extenderse por un intervalo de muchos
años, entremezclándose pues las pulsaciones de
miles de órbitas en una complicada maraña. Sin
embargo, la observación muestra algo
absolutamente distinto: desde todas las
posiciones orbitales llega una pauta regular de
pulsaciones limpiamente dispuestas en correcto
orden.
La conclusión parece enigmática: no hay
pulsaciones rápidas que adelanten a las
pulsaciones lentas.
Todas llegan a la misma velocidad,
espaciadas entre sí de manera regular. Esto
parece estar en flagrante contradicción con el
hecho de que el púlsar se esté moviendo, y una
vívida demostración de la contradicción la
proporciona el hecho de que las pulsaciones que
llegan a velocidad inalterada también transportan
información directa de que el púlsar se mueve a
gran velocidad. La información en cuestión va
codificada en las características de las mismas
ondas de radio, que tienen mayor frecuencia
cuando el púlsar está retrocediendo que cuando
se está acercando. Esta variación de la
frecuencia, similar al cambio del ruido de un
motor cuando un automóvil acelera, la utilizan
los radares de la policía para medir la velocidad
de los coches. La misma técnica demuestra que
el púlsar va disparado por el espacio, y sin
embargo sus pulsaciones alcanzan la Tierra a
una velocidad constante.
Hace un siglo, observaciones como ésta
hubieran causado consternación, pero hoy se
cuenta con ellas. Ya en 1905, Einstein predijo
tales efectos basándose en su teoría de la
relatividad. Una combinación de teoría
matemática y de experimentación condujo a
Einstein a una notable —y en realidad
difícilmente creíble— conclusión: la velocidad de
la luz es la misma en todas partes y para todos
los cuerpos, y esto es así independientemente
de la velocidad a que se muevan. En aquellos
días, las razones que respaldaban su críptica
afirmación se referían a las propiedades de las
partículas eléctricas en movimiento y a la
incapacidad de los físicos para medir la velocidad
de la Tierra utilizando señales luminosas. No nos
detendremos aquí en los detalles técnicos, salvo
para decir que la velocidad de la Tierra resultó
carecer por completo de sentido, puesto que
sólo los movimientos relativos (de donde
procede el apelativo de «relatividad») se pueden
medir. En lugar de eso, centrémonos en la
significación y las consecuencias de la fructífera
afirmación de Einstein.
Si un objeto retrocede con respecto a
nosotros y comenzamos a perseguirlo, es de
esperar que esta maniobra tenga como
resultado disminuir la rapidez con que retrocede.
De hecho, si se pone el bastante empeño en la
persecución, incluso es posible llegar a coger el
objeto. De manera que le velocidad relativa entre
uno y el objeto depende claramente del propio
estado de movimiento. No obstante, si el objeto
es una pulsación luminosa, no ocurre lo mismo.
Aunque pueda parecer increíble, cualquiera que
sea el empeño que se ponga en perseguirla
nunca se ganará ni un kilómetro por hora a la
pulsación luminosa. En verdad, la luz se mueve
muy deprisa (300 000 kilómetros por segundo),
pero incluso si viajáramos en un cohete al 99,9
por ciento de la velocidad de la luz, nunca se
conseguiría disminuir la velocidad a la que se
aparta de nosotros, por potentes que fueran los
motores del cohete.
Estas afirmaciones probablemente parezcan
puro sinsentido. Si alguien que permaneciera en
la Tierra observara la persecución y viera la onda
luminosa alejarse a 300 000 kilómetros por
segundo y al cohete persiguiéndola a una
velocidad casi igual, debería ver la distancia que
los separa ensancharse a tan sólo una fracción
de la velocidad de la luz. Sin embargo, de
aceptar la propuesta de Einstein (y los
experimentos confirman que es correcta), el
individuo situado en el cohete vería la misma
onda luminosa alejarse de él a 300 000
kilómetros por segundo.
La única manera de reconciliar estas
observaciones aparentemente contradictorias es
suponer que, desde el cohete, el mundo se ve y
se comporta de muy distinto modo que visto
desde la Tierra.
Una sorprendente demostración de esta
diferencia aparece si el astronauta hace un
experimento con ondas luminosas dentro de la
cabina espacial en el momento en que pasa por
encima de sus colegas situados en la Tierra. En
este momento se las arregla para lanzar dos
impulsos de luz en direcciones contrarias desde
el centro exacto del cohete, una hacia delante y
otra hacia atrás. Naturalmente, él ve cómo
ambos impulsos alcanzan los extremos opuestos
del cohete simultáneamente. Recuérdese que la
inmensa velocidad hacia adelante del cohete,
con respecto a la Tierra, no tiene ninguna clase
de efectos sobre la velocidad de los impulsos
luminosos tal como se observan desde el
cohete. No obstante, estos hechos tal y como
se presencian desde la Tierra no pueden ser los
mismos.
Durante el breve intervalo de tiempo que
tardan las ondas en recorrer la longitud del
cohete, el propio cohete avanza hacia delante
ostensiblemente. El observador situado en la
Tierra también ve que los dos impulsos se
mueven a la misma velocidad respecto a él,
pero desde su marco de referencia el cohete
está en movimiento: el extremo frontal del
cohete parece retroceder con relación al impulso
luminoso y el extremo trasero parece avanzar a
su encuentro. El resultado inevitable es que el
impulso dirigido hacia atrás llega antes. Ambos
acontecimientos no son simultáneos según se
observa desde la Tierra, pero sí lo son cuando
se ven desde el cohete.
¿Cuál de las dos versiones es la correcta?
La respuesta es que ambas son correctas.
El concepto de simultaneidad —el mismo
momento en dos lugares distintos— no tiene
significación universal. Lo que un observador
considera el «ahora» puede estar en el pasado o
en el futuro según la determinación de otro. A
primera vista tal conclusión parece alarmante. Si
el presente de una persona es el pasado de otra
persona y aún el futuro de una tercera, ¿no
podrían hacerse señales entre sí y permitir la
predicción del futuro? ¿Qué ocurriría entonces si
el observador una vez informado actuara para
cambiar ese futuro ya observado? Por suerte
para la coherencia de la física, no parece que
esta situación pueda presentarse. Por ejemplo,
en el caso del experimento del cohete, los
observadores sólo pueden saber que los
impulsos luminosos han llegado cuando reciben
alguna clase de mensaje. Pero el mensaje
necesita un determinado tiempo para
desplazarse. Para derrotar a la causalidad y
convertir el futuro en pasado (o viceversa),
evidentemente este mensaje debería
desplazarse a mayor velocidad que la luz
utilizada en el experimento. Pero, por lo que
parece, no hay nada que pueda moverse a
mayor velocidad que la luz. Si lo hubiese,
entonces la estructura causal del mundo
quedaría amenazada. Así pues, vemos que
pasado y futuro no son en realidad conceptos
universales, sino que sólo sirven para
acontecimientos que puedan ponerse en
conexión mediante señales luminosas.
Podríamos preguntarnos por qué no puede
ocurrir, sencillamente, que un cohete vaya
progresivamente acelerando y, por tanto, pueda
observarse desde la Tierra que atrapa a la luz.
Einstein demostró que eso es imposible.
Conforme se aproxima a la barrera de la luz, el
cohete y sus ocupantes comienzan a hacerse
cada vez más pesados. Cada vez es necesaria
una mayor cantidad de energía para superar la
inercia adicional y poder ir más rápido.
El aumento de la velocidad disminuye
regularmente y nunca se alcanza la velocidad de
la luz, por mucho que se insista. Naturalmente,
el astronauta no se ve a sí mismo ganando
peso; en lugar de eso, el mundo que lo rodea
aparece extrañamente distorsionado. Hablando
en términos simplistas, las distancias en el
sentido del avance parecen contraerse. En
consecuencia, visto desde el cohete. En
consecuencia, visto desde el cohete, el
astronauta sí que parece estar yendo cada vez
más deprisa, puesto que parece tener menos
distancia que recorrer en un tiempo dado.
Un astronauta en un cohete que se moviera
al 99,9 por ciento de la velocidad de la luz, vería
el Sol a sólo seis millones de kilómetros de la
Tierra y lo alcanzaría en únicamente 22
segundos.
Aunque parezca increíble, los observadores
situados en la Tierra, que no percibirían tal
contradicción, medirían la distancia al Sol en 150
millones de kilómetros y la duración de este viaje
muy largo sería de más de ocho minutos. La
conclusión parece ser que el tiempo, según se
percibe desde el cohete, avanzaría a una lentitud
veintidós veces mayor que en la Tierra. La
verdadera sorpresa, empero, llega cuando el
astronauta vuelve la mirada hacia la Tierra. Si
realmente los acontecimientos suceden en el
cohete con veintidós veces más lentitud que en
la Tierra, entonces podría parecer que si el
astronauta mirase hacia la Tierra con un
telescopio tendría que ver las cosas ocurriendo
veintidós veces más deprisa de lo normal. En
realidad, en lugar de ver acelerarse veintidós
veces los acontecimientos, vería exactamente lo
contrario: una Tierra a cámara lenta. Ambos
observadores verían el tiempo del otro como
transcurriendo con lentitud. Esta relación
simétrica entre los observadores en movimiento
se halla en el corazón de la teoría de la
relatividad, que sólo asigna significado al
movimiento en relación con otros observadores.
Por tanto, es imposible decir que el cohete se
mueve y la Tierra permanece quieta, o
viceversa, de manera que todo efecto
presenciado por uno de elos debe presenciarlo
también el otro.
No existe ninguna incoherencia real en el
hecho de que cada observador vea lentificarse el
tiempo del otro si recordamos que están muy en
desacuerdo sobre qué momento del marco de
referencia del otro debe considerarse el
correspondiente al «presente». Sólo pueden
comparar los tiempos mediante el dilatado
proceso de enviarse señales entre sí, lo que al
menos lleva el tiempo que tarda la luz en ir del
uno al otro.
La realidad del efecto de dilatación del
tiempo se pone de manifiesto si el cohete
regresa a la Tierra y se comparan directamente
los relojes de la Tierra con los del cohete. El
asombroso descubrimiento es que los dos
tiempos de los observadores han estado en todo
momento desacompasados. Lo que puede
haber sido un viaje de pocas horas para el
astronauta, habrá supuesto días en el tiempo
terráqueo. Tampoco se trata de un extraño
efecto fisiológico: el cohete sólo habrá percibido
unas pocas horas de duración en los varios días
transcurridos en la Tierra.
La idea del tiempo elástico dio lugar a un
verdadero escándalo cuando Einstein la dio a
conocer en 1905, pero desde entonces muchos
experimentos han confirmado su realidad. El
más preciso de estos experimentos utiliza
partículas subatómicas porque son muy fáciles
de acelerar hasta cerca de la velocidad de la luz
y suelen llevar un reloj incorporado. Se pueden
crear mesones mu o, dicho en breve, muones
en las colisiones subatómicas controladas, que
tienen una vida de unos dos microsegundos
antes de desintegrarse en partículas materiales
más conocidas, como los electrones. Cuando se
mueven a cerca de la velocidad de la luz, la
dilatación del tiempo aumenta su vida, según
nuestras mediciones, varias veces. Por
supuesto, dentro de su propio marco de
referencia siguen durando dos microsegundos.
Una buena comprobación del efecto se
realizó en el laboratorio acelerador de partículas
del CERN (Ginebra) a comienzos de 1977,
cuando se creó un rayo de muones a alta
velocidad y se colocó dentro de un anillo
magnético, de tal forma que se pudiera medir su
duración. El experimento confirmó la cifra de
dilatación temporal prevista por la teoría de la
relatividad con una exactitud del 0,2 por ciento.
Una posibilidad sugestiva que abre el efecto
de dilatación del tiempo es el viaje en el tiempo.
Conforme se acerca a la velocidad de la luz,
la escala temporal del astronauta se distorsiona
cada vez más con respecto al universo. Por
ejemplo, lanzado a un centenar de kilómetros
por hora menos que la velocidad de la luz,
podría realizar un viaje a la estrella más próxima
(a más de cuatro años luz de distancia) en
menos de un día, aunque el mismo viaje,
medido desde la Tierra, supondría más de
cuatro años. El ritmo de su reloj viene a ser unas
1 800 veces más lento cuando se observa
desde la Tierra que cuando se observa desde el
interior del cohete. A una milla por hora por
debajo de la velocidad de la luz, la dilatación
temporal es de 18 000 veces y el viaje, visto
desde el cohete, parece un trayecto de autobús,
aunque sigue duranto varios años desde el punto
de vista de la Tierra. A esta colosal velocidad, el
astronauta podría rodear toda la galaxia en
pocos años (en tiempo del cohete) ¡y regresar a
la Tierra para encontrarse en el siglo cuatro mil!
Aunque las hazañas de tales viajes deben
quedar definitivamente en el reino de la ciencia-
ficción (consumirían una cantidad de energía
suficiente para alimentar toda nuestra tecnología
actual durante millones de años), la dilatación del
tiempo constituye un hecho científico
comprobado.
El objeto de mencionar estos extraordinarios
efectos es subrayar que las nociones de espacio
y de tiempo no son como las piensa la mayor
parte de la gente. El elemento esencial que ha
inyectado en la física la teoría de la relatividad es
la subjetividad. Las cosas fundamentales, como
la duración, la longitud, el pasado, el presente y
el futuro, ya no pueden considerarse un marco
sólido dentro del cual vivimos nuestra vida. Por
el contrario, son cualidades elásticas y flexibles,
y sus valores dependen precisamente de quién
los mida. En este sentido, el observador
comienza a desempeñar un papel bastante
central en la naturaleza del mundo. Ha perdido
todo sentido preguntar qué reloj es el que va
realmente bien o cuál es la distancia real entre
dos lugares o qué es lo que ocurren en Marte
ahora. No existen duración, extensión, ni
presente común reales.
Al principio de este capítulo veíamos que la
relatividad adopta una perspectiva
absolutamente nueva con respecto a lo que en
realidad es el mundo. En la vieja imagen
newtoniana, el universo consiste en una
colección de «cosas», localizadas aquí y en otros
lugares en este momento. La relatividad, por su
parte, revela que las «cosas» no siempre son lo
que parecen, mientras que los lugares y los
momentos están sometidos a reinterpretación.
La imagen relativista de la realidad es un
mundo compuesto de acontecimientos y no de
cosas.
Los acontecimientos son puntos en el
espacio y el tiempo, sin extensión ni duración:
las cinco en punto en el centro exacto de
Picadilly Circus es un acontecimiento (aunque
probablemente muy poco interesante). Los
acontecimientos cuentan con la universal
aquiescencia de todos los observadores, aunque
por lo general habrá desacuerdo sobre cómo o
cuándo ocurren los acontecimientos.
A pesar de la relatividad de lo que se
consideraban formalmente cualidades absolutas
y concretas, queda todavía alguna clase de
organización espacio-temporal acorde con el
sentido común. Por ejemplo, las discrepancias
entre el «momento presente» interpretado por
diversos observadores y el alargamiento elástico
del tiempo no pueden ser tan violentas que en
realidad lancen el pasado en el futuro de tal
forma que pueda verlo un mismo observador.
Es decir que, aunque algunos acontecimientos
pueden ser considerados pasados para un
observador, futuros para otro y presentes para
un tercero, la secuencia de dos acontecimientos
causalmente conectados siempre será
presenciada en el mismo orden. Si el disparo de
la pistola destruye el blanco, entonces ningún
observador, cualquiera que sea su estado de
movilidad, verá destrozarse el blanco antes de
que se dispare la pistola.
Empero, la correcta relación causal sólo se
mantiene debido a la norma de que los
observadores no pueden superar la barrera de la
luz y desplazarse a mayor velocidad.
Si esto fuera posible, causa y efecto podrían
intercambiarse y el astronauta retrocedería en el
tiempo lo mismo que penetraría en el futuro.
Entonces nos encontraríamos con un sino similar
al de la señorita Brillo,que viajaba mucho más
deprisa que la luz. Un día se marchó, de manera
relativa, y regresó la noche anterior.
El caos causal que surgiría de visitar el
propio pasado parece ser únicamente una
posibilidad novelesca.
En un mundo de cambiantes perspectivas
espaciotemporales, se precisa un nuevo lenguaje
y una nueva geometría que tenga en cuenta al
observador de manera fundamental. Los
conceptos newtonianos del tiempo y el espacio
eran extensiones naturales de nuestras
experiencias cotidianas. La teoría de la
relatividad, por su parte, exige algo más
abstracto, pero también, creen muchos, más
elegante y revelador. En 1908, Hermann
Minkowski señaló que efectos peculiares como
la contracción del tamaño y la dilatación del
tiempo no parecerían tan antinaturales si
dejáramos de pensar en el espacio y en el
tiempo y, en su lugar, pensáramos en el
espacio-tiempo. No se trata de una mera
monstruosidad cuatridimensional inventada por
los matemáticos para confundir a la gente, sino
de un modelo del mundo mucho más exacto y
de hecho más simple que el de Newton. Su
sentido resulta visible en ejemplos sencillos
como la extensión espaciotemporal del cuerpo
humano. Es obvio que éste tiene una extensión
en el espacio (alrededor de 180 cm) y una
duración en el tiempo (de unos setenta años), de
manera que tiene extensión en el espacio-
tiempo. Lo que hace que esta afirmación sea
algo más que una perogrullada es que las dos
extensiones, la espacial y la temporal, no son
independientes. Lo cual no quiere decir que las
personas altas vivan más tiempo ni nada por el
estilo, sino que, visto desde un cohete situado
sobre la Tierra, el hombre podría parecer que
mide un metro y que vive ciento cuarenta años.
Una manera elegante de considerar lo anterior
es pensar que el tamaño físico y la duración de
la vida son meras proyecciones en el espacio y
en el tiempo, respectivamente, de la más
fundamental extensión espaciotemporal. Como
siempre ocurre con las proyecciones,la extensión
de la imagen depende del ángulo con respecto al
objeto, lo cual sigue siendo cierto en el espacio-
tiempo lo mismo que en el espacio. De donde
resulta que los cambios de velocidad actúan de
manera muy parecida a las rotaciones en el
espacio-tiempo; concretamente, al alterar la
propia velocidad, estamos girando nuestro
cuerpo cuatridimensional alejándolo del espacio y
acercándolo al tiempo, o viceversa. Así pues, la
extensión espaciotemporal del terrícola se
mantiene inalterada cuando se ve desde un
cohete: ¡tiene sencillamente noventa
centímetros de longitud de su cuerpo
convertidos en setenta años de vida!
Haciendo algunos números se descubre que
una pequeña longitud temporal vale por una
enorme cantidad de distancia. No será tampoco
sorprendente, teniendo en cuenta su papel
fundamental en la teoría, que la velocidad de la
luz actúe como factor de conversión.
Por tanto, un año de tiempo corresponde a
un año luz (unos diez billones de kilómetros) de
espacio; un pie (30 centímetros) resulta
aproximadamente en un nanosegundo (una mil
millonésima de segundo).
El espacio-tiempo es algo más que una
forma cómoda de visualizar la dilatación del
tiempo y la contracción de la longitud. Para el
relativista, el mundo es espacio-tiempo, y ya no
piensa en objetos que se mueven en el tiempo,
sino que se extienden por el espacio-tiempo.
Dado que no pueden dibujarse las cuatro
dimensiones sobre una hoja de papel, sólo se
muestran dos dimensiones del espacio; el
tiempo discurre verticalmente hacia arriba y el
espacio horizontalmente. La línea serpenteante
muestra la trayectoria de un cuerpo en
movimiento. Para no recargar el diagrama, se ha
reducido la extensión espacial del cuerpo de
modo que se representa con una línea en lugar
de con un tubo.
Si el cuerpo permanece en reposo, la línea
será recta y vertical. Cuando se acelera, la línea
se curva. La partícula primero se mueve
brevemente hacia la derecha para volver atrás,
luego más hacia la derecha, para disminuir la
velocidad y regresar al estado anterior. Estos
trayectos en el espacio-tiempo se llaman líneas
de universo y representan la historia completa
del sistema de objetos.
Si el diagrama se ampliara hasta abarcar
todo el espacio-tiempo (todo el universo durante
toda la eternidad), sería una imagen de la
totalidad de los acontecimientos y contendría
todo lo que la física puede decir del mundo.
Volviendo a la espinosa cuestión de qué es
realmente el mundo, vemos que para un
relativista es espacio-tiempo y líneas de
universo. Según esta imagen del universo, el
pasado y el futuro son tan absolutamente reales
como el presente; de hecho, no es posible hacer
ninguna distinción universal entre pasado,
presente y futuro. De donde se deduce que las
cosas no ocurren en el espacio-tiempo, sino que
simplemente son.
¿Cómo hemos de reconciliar el carácter
estático, de una vez por todas, del universo
relativista con el mundo de nuestra experiencia
donde ocurren acontecimientos, las cosas
cambian y nuestro medio ambiente evoluciona?
Nosotros no percibimos el mundo como una
plancha de espacio-tiempo surcada de líneas, de
manera que ¿qué es lo que falla?
Nuestra percepción real del tiempo parece
diferenciarse en dos aspectos esenciales del
modelo del tiempo tal como lo concibe esta
teoría. El primero es la aparente existencia de un
«ahora» o instante presente. El segundo es el
flujo o movimiento del tiempo desde el pasado
hacia el futuro. Comencemos por examinar qué
es lo que se entiende por «ahora». El presente
desempeña dos papeles; separa el pasado del
futuro y proporciona el filo con que nuestra
conciencia se abre paso por el tiempo desde el
pasado hacia el futuro. Como la proa de un
barco, el presente arrastra tras de sí una estela
de sucesos y experiencias recordados, mientras
delante están las aguas desconocidas. Estas
observaciones parecen tan naturales como para
estar por encima de toda sospecha, pero un
atento examen pone de manifiesto varios fallos.
Desde luego, no puede existir el presente porque
cada momento del tiempo es el momento
presente cuando ocurre. Lo que quiere decir que
hay ahoras pasados, ahoras futuros y ahora.
Pero al no haber ninguna cualidad externa con la
que calibrarlo, muy poco puede decirse sobre el
«presente» que no sea tautológico.
Una analogía popular es considerar al
observador como una línea de universo en el
espacio-tiempo, dotada de una lucecita. La luz
se mueve ascendiendo lenta y regularmente por
la línea conforme el observador toma conciencia
de los sucesivos momentos posteriores. No
obstante, este artilugio es un verdadero fraude,
puesto que utiliza la idea de movimiento en el
tiempo y, en cuanto tal, intuitivamente, implica
otro tiempo, externo al espacio-tiempo, en
relación con el cual se miden sus progresos.
Todo esto parece conllevar que ahora no es más
que otra manera de etiquetar los instantes y que
hay tantos ahoras como instantes. Ya hemos
visto que ahora no es, de ninguna manera, una
caracterización universal y que distintos
observadores discreparían sobre cuáles
acontecimientos son o no son simultáneos, pero
parece ser que, incluso para un único
observador, la noción del presente no tiene
demasiado sentido.
Idéntico cenagal de contradicciones y
tautologías se presenta al examinar la idea del
flujo del tiempo. Tenemos la profunda sensación
psicológica de que el tiempo avanza del pasado
hacia el futuro, según un progreso que borra el
pasado de nuestra existencia y da lugar al futuro.
En la literatura pueden encontrarse muchos
ejemplos que describen esta sensación: el río del
tiempo, el tiempo que corre, el tiempo que
vuela, el tiempo por venir, el tiempo ido, el
tiempo que no espera a nadie… San Agustín lo
veía de este modo: «El tiempo es como un río
compuesto de los acontecimientos que ocurren y
su corriente es fuerte; tan pronto algo aparece,
ya ha sido arrastrado».
Tan fuerte es esta sensación cinética que si
hay un candidato a ser nuestra vivencia más
fundamental éste es el tiempo como actividad.
Pero, ¿dónde está el río en nuestro diagrama
espaciotemporal?
Si el tiempo fluye, ¿a qué velocidad avanza?
Un segundo por segundo, un día por día: la
pregunta carece de sentido. Cuando
observamos un objeto que se mueve por el
espacio utilizamos el tiempo para medir la
velocidad a la que pasa, pero, ¿qué se puede
utilizar para medir la velocidad con que pasa el
propio tiempo? Sería asombrosa la pregunta:
¿pasa el tiempo? Sin embargo, nada que
objetivamente pueda medirlo en el mundo que
nos rodea demuestra que pase. No hay ningún
instrumento que pueda recoger el flujo del
tiempo ni medir la velocidad a que avanza. Es
un error general creer que ésa es precisamente
la función del reloj. Pues el reloj mide los
intervalos del tiempo, no la velocidad del tiempo,
una diferencia que es análoga a la diferencia que
hay entre una regla y un velocímetro. El mundo
objetivo es el espacio-tiempo, que incluye todos
los acontecimientos de todos los tiempos. No
hay presente, pasado ni futuro.
Una de las fascinaciones del tiempo es la
gran disparidad entre nuestra percepción como
observadores conscientes y sus propiedades
físicas objetivas. No podemos eludir la
conclusión de que las cualidades del tiempo que
nosotros consideramos más vitales —la división
en pasado, presente y futuro, y el movimiento
hacia adelante de cada una de estas divisiones
— son puramente subjetivas. Es nuestra propia
existencia la que otorga al tiempo vida y
movimiento.
En un mundo sin observadores conscientes,
el río del tiempo dejaría de fluir. A veces el flujo
del tiempo se atribuye a una ilusión fruto de una
confusión profundamente enraizada en la
estructura temporal de nuestro lenguaje.
Posiblemente, una inteligencia extraterrestre
sería absolutamente incapaz de comprender la
idea misma.
Por otra parte, la confusión de nuestro
lenguaje (que indudablemente existe) bien puede
ser el resultado de la antes mencionada
incompatibilidad entre el tiempo objetivo y el
subjetivo. Es decir, puede ser que nuestra
sensación de un tiempo que fluye no sea el
resultado del barullo del lenguaje y del
pensamiento, sino viceversa: un intento de
utilizar el vocabulario enraizado en nuestra
fundamental vivencia psicológica del tiempo para
describir el mundo físico objetivo. Quizá existan
realmente dos tipos de tiempo —el psicológico y
el objetivo— y debamos desarrollar dos modos
de descripción para hablar de ellos.
He escrito realmente en cursiva porque la
cuestión de qué se entiende aquí por real es
importante. Muchas personas defenderían que
la verdadera realidad debe ser independiente de
la conciencia del observador, de manera que al
tiempo subjetivo o psicológico, por su misma
naturaleza individual, no puede atribuírsele la
dignidad de real. Sin embargo, esta experiencia
individual parece ser que la comparten todos los
observadores conscientes que pueden
comunicarse entre sí, de modo que quizá sea
tan real como el hambre, la lujuria y los celos.
No debemos suponer que en el espacio-
tiempo objetivo desaparece todo vestigio de
pasado-futuro.
Sin duda se puede determinar qué hechos
concretos se sitúan en el pasado o en el futuro
de otros, y comprobar esta relación con los
instrumentos de laboratorio.
Nuestro diagrama del espacio-tiempo tiene
un arriba (futuro) y un abajo (pasado) bien
definidos y asimétricamente relacionados entre
sí, como demostrará un sencillo ejemplo. Es un
típico ejemplo de un cambio de tiempo
asimétrico, porque es irreversible: la película
cinematográfica de la explosión pasada al revés
inmediatamente delataría la trampa porque
mostraría la milagrosa autoorganización de los
fragmentos en un sistema bien ordenado. Del
mismo modo, al invertir el diagrama se produce
la misma secuencia imposible. El mundo está
repleto de influencias perturbadoras como ésta
que proporcionan una diferenciación material y
objetiva entre el pasado y el futuro. No obstante,
no definen el pasado ni el futuro. La distinción es
la misma que la asimetría entre la mano
izquierda y la derecha: la Tierra rota en sentido
contrario a las agujas del reloj en el Polo Norte,
de manera que siempre va hacia la izquierda,
por así decirlo, lo que aporta una auténtica
distinción entre izquierda y derecha. Sin
embargo, sabemos que es absurdo preguntar
qué parte de la Tierra está más a la izquierda y
qué país se sitúa a mitad de camino entre la
derecha y la izquierda.
Derecha e izquierda definen direcciones, no
lugares. Del mismo modo, pasado y futuro
definen direcciones temporales y no momentos.
Las direcciones en o a través del tiempo
tienen objetivamente significado, pero no el
calificar los acontecimientos de pasados o
futuros. En el capítulo 10 se examinará con
mayor atención la naturaleza del tiempo y
nuestras percepciones del mismo.
La contraposición entre el tiempo físico y
nuestra vivencia del tiempo subraya el
fundamental papel que juega la conciencia del
observador en la organización de nuestras
percepciones del mundo.
En la antigua visión newtoniana, el
observador no parecía desempeñar ningún papel
importante: el mecanismo de relojería iba dando
vueltas adelante, por completo indiferente a si
alguien o a quién lo observaba. La visión del
relativista es diferente. Las relaciones entre
acontecimientos tales como el pasado y el
futuro, la simultaneidad, la longitud y el intervalo
resultaban estar en función de la persona que los
percibe, y sensaciones tan entrañables como el
presente y el paso del tiempo se desvanecen
por completo del mundo exterior para alojarse
exclusivamente en nuestra conciencia. La
división entre lo real y lo subjetivo ya no aparece
tan claramente trazada y uno comienza a
albergar sospechas de que la entera idea de un
«mundo real exterior» puede desmoronarse por
completo. Los capítulos posteriores mostrarán
cómo la teoría cuántica exige la incorporación del
observador al mundo físico de una forma aún
más esencial.
La teoría de la relatividad que expuso
Einstein en 1905 trastocó muchas concepciones
sobre el espacio, el tiempo y el movimiento,
pero sólo fue el principio. En 1915 publicó una
teoría ampliada —la llamada teoría de la
relatividad general— en la que proponía
posibilidades aún más extraordinarias. Hemos
visto que el espacio y el tiempo no son fijos, sino
en cierto sentido elásticos; pueden ensancharse
y encogerse según quién los observe. A pesar
de esto, el espacio-tiempo, la síntesis
cuatridimensional del espacio y del tiempo, se
suponía rígido. En 1915, Einstein planteó que el
propio espacio-tiempo era elástico, de modo que
podía estirarse, doblarse, retorcerse y cerrarse.
Así pues, en lugar de limitarse a proporcionar al
escenario donde los cuerpos materiales
representan sus papeles, el espacio-tiempo es
en realidad uno de los actores. Naturalmente, no
nos resulta fácil visualizar cómo es una curvatura
en cuatro dimensiones, pero matemáticamente
una curvatura en cuatro dimensiones no es más
especial que una línea curva (una dimensión) o
una superficie curva (dos dimensiones).
Como todas las verdaderas teorías físicas,
la relatividad general no se limita a predecir que
el espacio-tiempo puede distorsionarse, sino que
aporta un conjunto explícito de ecuaciones que
nos dicen cuándo, cómo y cuánto.
El origen de la curvatura del espacio-tiempo
es la materia y la energía, y las llamadas
ecuaciones de campo de Einstein permiten
calcular cuánta curvatura hay en un punto del
espacio dentro y alrededor de una distribución
dada de materia y energía. Como cabía esperar,
la curvatura del espacio-tiempo tiene profundas
consecuencias sobre las líneas universales de
materia que lo atraviesan.
Al curvarse el espacio-tiempo, las líneas del
universo se curvan con él, y surge el problema
de qué efectos físicos experimentaría un cuerpo
a resultas de esta reordenación de su línea de
universo. Se ha explicado que la curvatura de la
línea de universo corresponde a la aceleración
del cuerpo representado por la línea, de modo
que el efecto de la curvatura del espacio-tiempo
consiste en alterar los movimientos de los
cuerpos en él situados. Por regla general
consideramos que toda alteración del
movimiento está causada por alguna fuerza, de
tal modo que la curvatura manifiesta de por sí la
presencia de estructura interna, sufrirán igual
distorsión, esta fuerza debe tener la propiedad
distintiva de afectar indiscriminadamente a toda
la materia sin tener en cuenta su naturaleza. La
fuerza física que tiene exactamente estas
características la conocemos todos: la gravedad.
Tal como descubrió Galileo y desde
entonces se ha confirmado con extraordinaria
exactitud, todos los objetos son acelerados a la
misma velocidad por la gravedad, cualquiera que
sea su masa o constitución, lo que implica que la
gravedad es más bien una propiedad del espacio
envolvente que de los cuerpos que lo recorren.
En palabras de John Wheeler, el físico
norteamericano que ha hecho progresar
enormemente la teoría de la relatividad, la
materia recibe sus «órdenes de movimiento»
directamente del mismo espacio, de tal modo
que, más que considerar la gravedad como una
fuerza, debería verse como una geometría. Así
pues, «el espacio dice a la materia cómo debe
moverse y la materia dice al espacio cómo debe
curvarse». La relatividad general es, por tanto,
una explicación de la gravedad como distorsión
de la geometría del espacio-tiempo.
Cierto número de famosos experimentos
han medido la distorsión del espacio-tiempo en el
sistema solar. Se sabía desde hace mucho que
el planeta Mercurio sufría misteriosas
perturbaciones en su movimiento: dicho
sencillamente, su órbita se desplaza cuarenta y
tres segundos del arco cada siglo.
Aunque mínimo, un desplazamiento de esta
magnitud era fácil de medir y la aplicación directa
de la teoría de la gravedad de Newton no lo
explicaba. Cuando se publicó, el artículo de
Einstein predijo pequeñas correcciones en la
teoría de Newton como consecuencia de la
curvatura del espacio-tiempo, y éstas resultaron
ser precisamente de cuarenta y tres segundos
de arco por siglo en el caso de Mercurio.
Fue un gran triunfo, pero aún los habría
mayores. En 1919, el astrónomo Sir Arthur
Eddington comprobó la teoría del espacio-tiempo
curvo apuntando a las estrellas en la dirección
del Sol durante un eclipse total (el eclipse
permitió que las estrellas fueran visibles durante
el día aun cuando se situaran en el cielo cerca
del Sol).
Encontró, tal como estaba previsto, una
pequeña pero constatable distorsión en sus
posiciones cuando se contemplaban en las
proximidades del Sol en comparación con sus
posiciones cuando el Sol están en otra parte del
firmamento. Por tanto, conforme el Sol se
desplaza por el zodíaco curva la imagen que
tenemos del telón de fondo estelar.
Una última y crucial comprobación de la
teoría se realizó de la manera más elegante
utilizando la gravedad de la Tierra. De acuerdo
con la relatividad general, el tiempo se alarga o
contrae por efecto de la gravedad del mismo
modo que por un movimiento rápido.
Por tanto, los relojes situados en la superficie
de la Tierra deben retrasarse con respecto a los
relojes situados a mayor altitud, donde la
gravedad es ligeramente inferior. El efecto es en
realidad mínimo —una cien mil millonésima por
ciento de reducción de la velocidad del reloj para
cada kilómetro vertical—, pero es tal la precisión
de la tecnología moderna que incluso esta
diferencia puede detectarse.
En 1959, los científicos de la Universidad de
Harvard utilizaron las vibraciones internas
naturales de un núcleo de hierro radiactivo. Un
determinado isótopo de hierro se desintegra
mediante la emisión de rayos gamma, que son
fotones de luz con una frecuencia interna de
unos tres mil millones de megaciclos. Los rayos
gamma eran disparados a lo largo de una torre
vertical de 22,5 metros de altura, donde
chocaban con nuevos núcleos de hierro.
Normalmente, estos núcleos reabsorbían los
rayos gamma, pero, dado que el tiempo «corría
más deprisa» en lo alto de la torre, los rayos
gamma se encontraban con que las vibraciones
de los núcleos de hierro ya no se ajustaban a
sus propias frecuencias, tal como ocurría en la
base de la torre. Se inhibía, pues, la absorción.
De este modo pudo medirse el alargamiento del
tiempo debido a la gravedad de la Tierra.
Más recientemente, la distorsión del tiempo
por la gravedad de la Tierra ha sido comprobada
haciendo volar un máser de hidrógeno en un
cohete espacial. Máser es la sigla en inglés de
«amplificación de microondas mediante
emisiones estimuladas de radiación», y es una
versión del láser que hace oscilar frecuencias de
radio de onda corta de una forma enormemente
estable. Utilizando los ciclos del máser como
marcapasos de reloj, los científicos controlaron el
tiempo de la nave espacial en relación a la
Tierra, comparándolo con máseres situados en
el suelo. A diez mil kilómetros de altura, el
tiempo debe aumentar en alrededor de la mitad
de una mil millonésima parte en comparación
con su velocidad en la superficie terrestre.
Aunque mínimo, este significativo efecto fue
constatado por los máseres y la teoría se
confirmó. El tiempo corre realmente más deprisa
en el espacio.
El efecto del alargamiento del tiempo resulta
más llamativo a medida que aumenta la
gravedad. En la superficie de una estrella de
neutrones, la disparidad entre la velocidad de un
reloj situado en la superficie y otro situado a gran
distancia llega a ser del uno por ciento. Las
estrellas con masa algo superior a la de las
estrellas de neutrones se habrán contraído aún
más y su gravedad será todavía mayor. Si una
estrella con una masa equivalente a la del Sol se
contrajera hasta unos pocos kilómetros de
diámetro, la distorsión del tiempo a su alrededor
sería enorme. Además la estrella sería incapaz
de resistir su propio peso y se desmoronaría
violentamente, contrayéndose hasta convertirse
en nada en un microsegundo. Su gravedad se
volvería tan intensa que, en el espacio situado
en las inmediaciones del objeto colapsado, el
tiempo se lentificaría hasta literalmente
detenerse en comparación con puntos alejados.
Un observador remoto deduciría que los
relojes en esta superficie están completamente
parados. En realidad le sería imposible ver los
relojes, puesto que también estaría parada la
salida de luz de la superficie. El agujero espacial
dejado por el retraimiento de la estrella es, pues,
negro: un agujero negro. Muchos astrónomos
creen que los agujeros negros son el sino
rutinario de las estrellas con una masa algo
mayor que la de nuestro Sol.
Por supuesto, el observador que cayera en
el agujero negro atravesando esta superficie
congelada no vería el tiempo comportándose de
manera anormal. En su marco de referencia, los
acontecimientos ocurrirían con su habitual
regularidad, de tal modo que su escala temporal
se haría cada vez más discordante con la del
universo lejano. En el momento de alcanzar la
superficie, lo que a él sólo le parecería la
duración de unos microsegundos podría ser el
paso de toda la eternidad y la desaparición del
cosmos en otros lugares. La dislocación
temporal crece sin límites, de tal modo que
cuando por fin entrara en la región del agujero
negro, estaría más allá del tiempo en lo que
respecta al mundo exterior, una de cuyas
consecuencias sería que nunca podría regresar
del agujero negro a nuestro universo. Volver
significaría retroceder en el tiempo,
reapareciendo del agujero antes de haber caído
en su interior.
Aunque está más allá de la eternidad, el
interior del agujero negro es una región del
espacio-tiempo muy parecida a cualquier otra
por lo que se refiere a sus propiedades locales.
Naturalmente, la intensidad de la gravedad hace
que la caída del observador resulte un poco
molesta, dado que los pies tratarán de caer a
distinta velocidad que la cabeza, pero el paso del
tiempo es absolutamente normal.
El problema del destino del observador es
muy curioso. Cabe pensar que atraviese el
agujero negro y emerja a otro universo
completamente distinto, aunque los escasos
datos de que disponemos indican que no
ocurriría así. Si no puede regresar a nuestro
universo, ni puede llegar a otro, ni puede evitar
seguir cayendo dentro, ¿adónde va? En el
capítulo 5 veremos que está obligado a
abandonar por completo el espacio-tiempo y
dejar de existir en lo que se refiere al mundo
físico conocido. Los agujeros negros también
desempeñan un importante papel en los
capítulos posteriores en relación con la cuestión
de si el universo es muy especial.
La introducción de la gravedad en la teoría
de la relatividad socava, además, la concreción
del mundo. El espacio-tiempo, en lugar de ser un
mero terreno de juego, se vuelve ahora
dinámico, con movilidad, cambio, curvatura y
giro.
No podemos seguir adoptando la
perspectiva newtoniana de tratar de comprender
la evolución del mundo en el tiempo, sino que
debemos tener en cuenta también los cambios
del propio tejido del espacio-tiempo. El precio a
pagar por disponer de un espacio-tiempo
mutable es que éste, en realidad, puede
ingeniárselas para disolverse en la inexistencia.
Siguiendo un complicado movimiento que está
íntimamente entretejido con las condiciones de
la materia y la energía, las ecuaciones de
Einstein predicen que son posibles situaciones
(como las del centro de un agujero negro) donde
el espacio-tiempo concentre su curvatura
ilimitadamente. Con el aumento de la gravedad,
la violenta distorsión del espacio-tiempo se hace
cada vez mayor hasta que inevitablemente se
desgarra por las costuras. Algunos astrónomos
creen que esto es lo que ocurrirá en último
término a todo el universo: una catastrófica y
suicida zambullida en la extinción.
La gravedad es una fuerza acumulativa, de
modo que no es sorprendente que sus efectos
sean más pronunciados en cuestiones
cosmológicas: las estructuras a gran escala del
universo. En dos sentidos puede ser importante
la elasticidad del espacio-tiempo. El primero,
señalado originalmente por el propio Einstein, es
que el espacio podría no ser infinito en
extensión, sino, como la superficie de la Tierra,
curvado alrededor de la otra cara del universo de
tal forma que constituyera una hiperesfera: una
versión en más dimensiones de la superficie
esférica.
No nos es posible visualizar mentalmente
una hiperesfera, pero podemos calcular sus
propiedades, una de las cuales sería la
posibilidad de dar la vuelta al cosmos avanzando
siempre en la misma dirección hasta regresar al
punto de partida desde la dirección contraria.
Otra es que, si bien el volumen del espacio es
limitado, en ninguna parte existe una barrera o
límite, como tampoco hay ningún centro ni
borde. (Todas estas propiedades las comparte la
superficie esférica). Pero de momento no
sabemos si hay en el universo suficiente materia
para producir este cierre topológico completo.
La segunda posibilidad del espacio-tiempo
elástico es que, a escala cosmológica (es decir,
en distancias mucho mayores que las galaxias)
el espacio no sea estático, sino que se ensanche
o encoja. A finales de la década de 1920 el
astrónomo norteamericano Edwin Hubble
descubrió que el universo, en realidad, se está
expandiendo; es decir, que el espacio se
ensancha por todas partes, al parecer, de
manera muy uniforme, un hecho de cierta
significación sobre el que volveremos más
adelante. Hubble se dio cuenta de que las
galaxias lejanas parecen retroceder con respecto
a nosotros y a todas las demás galaxias,
conforme las va estirando la expansión del
espacio.
La prueba de este fenómeno se encuentra
en la modificación de la longitud de onda de la
luz, de la que ya nos hemos ocupado al hablar
del púlsar binario. En el caso de la luz visible, el
alargamiento de las ondas luminosas emanadas
de una galaxia lejana hace que parezcan de color
más rojo del que tendrían de estar la galaxia
inmóvil con respecto a nosotros. El
enrojecimiento cosmológico aumenta de forma
directamente proporcional a la distancia que nos
separa de las galaxias, que es exactamente el
tipo de cambio que resultaría si el movimiento
de expansión fuese uniforme y estuviera
ocurriendo en todo el universo. El hecho de que
todas las galaxias parezcan estar alejándose de
nosotros no significa que estemos situados en el
centro del cosmos, pues el mismo tipo de
retroceso se vería desde cualquier otra galaxia.
Las galaxias no se expanden alejándose de
ningún punto especial; el universo no tiene
centro ni bordes discernibles, ni siquiera con
ayuda de nuestros mayores telescopios.
Si las galaxias se mueven alejándose cada
ve más, de ahí se deduce que deben haber
estado más juntas en el pasado. Mirando hacia
regiones lejanas del universo, los astrónomos
pueden ver el tiempo pasado, puesto que la luz
procedente de los objetos más lejanos, visibles
normalmente por los telescopios, puede haber
tardado varios miles de millones de años en
llegar hasta nosotros, dada su lejanía.
Por tanto, los telescopios nos proporcionan
una imagen del aspecto que tenía el universo
hace miles de millones de años. Con ayuda de
los radiotelescopios, el retroceso visual en el
tiempo puede alcanzar alrededor de quince mil
millones de años, momento en que ocurre un
hecho notable. Las galaxias dejan de existir y, en
realidad, todas las estructuras que ahora
observamos —estrellas, planetas e incluso
átomos normales— no podían haber estado
presentes. Esta temprana época desempeñará
un papel central en el tema de este libro y se
estudiará detalladamente en el capítulo 9. De
momento sólo es precio mencionar que la
expansión del universo fue entonces mucho más
rápida que hoy, y que el contenido del universo
estaba enormemente comprimido y caliente.
Esta fase caliente, densa y en explosión ha sido
denominada el Big Bang y hay astrónomos que
creen que no sólo señala el comienzo del
universo tal como ahora lo conocemos, sino
quizás el comienzo del propio tiempo. El Big
Bang no fue, por lo que nosotros podemos
saber, la explosión de una gran masa de materia
dentro de un vacío preexistente, pues esto
implicaría un núcleo central y un límite en la
distribución de la materia. Lo que en realidad
representa el Big Bang, al parecer, es el límite
de la existencia, un concepto que se aclarará en
las páginas siguientes.
Capítulo III

El caos subatómico

A todo lo largo de la historia el hombre ha visto


sus relaciones con el mundo de dos maneras:
como observador y como participante.
Nosotros somos conscientes de los procesos
físicos que tienen lugar a nuestro alrededor,
interpretándolos mediante modelos mentales
internos que reflejan esa actividad exterior.
Además, nos vemos motivados a actuar sobre
el mundo exterior, en pequeña escala mientras
vivimos la vida cotidiana y en gran escala,
colectivamente, cuando utilizamos la tecnología
para modificar el medio ambiente. A pesar de
tener un alcance bastante modesto en
comparación con las grandes fuerzas cósmicas,
nuestra tecnología demuestra, no obstante, que
la existencia de la especie biológica llamada
homo sapiens desempeña un papel en la
conformación del universo, aunque de momento
tan sólo sea en una pequeña escala. Con la
revolución newtoniana, la participación del
hombre pareció quedar algo vacía, porque,
aunque difícil de negar, en un universo
mecánico, el hombre mecánicamente motivado
no se distingue de sus máquinas: desde el
esfuerzo por transformar el medio ambiente
hasta el mínimo movimiento de un dedo, las
acciones humanas parecen estar tan
rígidamente predeterminadas y ser tan
involuntarias como los movimientos de los
planetas.
Examinemos ahora la visión newtoniana del
hombre como observador.
¿A qué nos referimos en realidad con el acto
de observar? La mecánica de Newton evoca el
cuadro de un universo cruzado por una red de
influencias, en el que cada átomo actúa sobre
los demás con fuerzas pequeñas pero
significativas. Todas las fuerzas que sabemos
que existen comparten la propiedad de que
disminuyen con la distancia, que es lo que hace
que no tengamos en cuenta el efecto de Júpiter
sobre las mareas ni tampoco el movimiento de
Andrómeda cuando se trata del vuelo de los
aviones. Si las fuerzas no se desvanecieran con
la distancia, los asuntos terrestres estarían
dominados por la materia más lejana, pues hay
muchísimas más galaxias esparcidas por la
lejanía que próximas. Sin embargo, en lo que
respecta a las fuerzas newtonianas, alguna
influencia residual, por infinitesimal que sea,
sigue actuando entre las partículas de materia
separadas por inmensas distancias.
Este entretejido de toda la materia en un
todo colectivo hace pensar en las palabras de
Francis Thompson: «Por un inmortal poder,
todas las cosas, cercanas o lejanas,
ocultamente, están ligadas entre sí, de modo
que no puedes arrancar una flor sin perturbar las
estrellas».
Está claro que hay un problema filosófico
relativo a las contradicciones entre un universo
integrado por fuerzas invisibles y el sistema de
determinar las leyes de la naturaleza por el
procedimiento de aislar un sistema del medio
que lo rodea, tal como hemos explicado en el
capítulo 1. Si no conseguimos librar la materia
de su red de fuerzas, nunca estará
verdaderamente aislada y las leyes matemáticas
que deduzcamos sólo podrán ser, en el mejor de
los casos, extrapolaciones idealizadas del mundo
real. Además, la noción crucial de repetibilidad —
es decir que según las leyes, los sistemas
idénticos deben comportarse de la misma
manera— también queda negada. No existen
sistemas idénticos. Puesto que el universo
cambia de un día a otro y de un lugar a otro, el
entramado de fuerzas cósmicas nunca puede
ser absolutamente idéntico.
A pesar de todas estas objeciones, la ciencia
aplicada avanza rápidamente suponiendo que la
influencia, pongamos, de Júpiter sobre el
movimiento de un automóvil es inferior a
cualquier valor medible por un instrumento. No
obstante, cuando se trata de hacer
observaciones, son precisamente esas fuerzas
diminutas las que juegan un papel vital. Si no
fuera por el hecho de que algunas influencias de
Júpiter tienen un efecto detectable, nunca
podríamos conocer su existencia. La ineludible
conclusión es que todas las observaciones
exigen interacción, sea de una u otra clase.
Cuando observamos Júpiter, los fotones de luz
solar reflejados en los átomos de su atmósfera
atraviesan los varios cientos de millones de
kilómetros de espacio interpuesto, penetran en la
atmósfera de la Tierra y chocan con las células
retinianas, desalojando electrones de los átomos
allí situados. Esta mínima perturbación da lugar
a una pequeña señal eléctrica que, una vez
amplificada y conducida al cerebro, proporciona
la sensación «Júpiter». De ahí se deduce que, a
través de esta cadena, las células cerebrales
están ligadas por fuerzas electromagnéticas a la
atmósfera de Júpiter.
Si la cadena de interacciones se amplía
mediante el uso de telescopios, nuestro cerebro
entra en conexión con la superficie de las
estrellas situadas a miles de millones de años
luz.
Un rasgo importante de cualquier tipo de
interacción es que si un sistema perturba a otro,
lo que da lugar a que se registre su existencia,
inevitablemente habrá una reacción recíproca
sobre el primer sistema, que a su vez resulta
afectado. El principio de acción y reacción es
conocido por las mediciones rutinarias de la vida
cotidiana. Para medir una corriente eléctrica, se
inserta en el circuito un amperímetro, cuya
presencia será un obstáculo para la propia
corriente que se está midiendo.
Para medir el brillo de una luz es necesario
absorber parte de las radiaciones a modo de
muestra.
Para medir la presión de un gas, tenemos
que dejar que el gas actúe sobre un artilugio
mecánico, como es un barómetro, pero el
trabajo que realiza lo pagará en términos de la
energía interna del gas, cuyo estado queda
consecuentemente alterado.
Si deseamos medir la temperatura de un
líquido caliente, sirve introducirle un termómetro,
pero la presencia del termómetro hará que el
calor fluya del líquido al termómetro hasta
ponerlos a una misma temperatura. Por lo tanto,
el líquido se enfriará algo, de modo que la lectura
que haremos de la temperatura no será la
temperatura original del líquido, sino la del
sistema una vez perturbado.
En todos estos ejemplos, el acceso a las
condiciones de los sistemas físicos se consigue
mediante el uso de sondas. A veces se dispone
de técnicas más pasivas, como cuando
medimos la localización de un cuerpo
simplemente mirándolo, cual es el caso de
Júpiter. No obstante, para conseguir cualquier
información, alguna clase de influencia tiene que
pasar del objeto al observador, aunque la
reacción pueda carecer absolutamente de
importancia para fines prácticos. En el caso de
Júpiter, este planeta sería imperceptible de no
ser por la iluminación de la luz solar.
Esta misma luz solar que, al reflejarse, nos
estimula la retina, también reacciona sobre
Júpiter ejerciendo una pequeña presión sobre su
superficie. (La presión de la luz solar produce un
efecto perceptible y espectacular cuando crea las
colas de los cometas). Por tanto, no podemos
ver estrictamente el verdadero Júpiter, sino el
Júpiter perturbado por la presión de la luz. El
mismo razonamiento puede aplicarse a todas
nuestras observaciones del mundo que nos
rodea. Nunca es posible, ni siquiera en teoría,
observar las cosas, sino sólo la interacción entre
las cosas. Nada puede verse aislado, pues el
mismo acto de la observación conlleva alguna
clase de conexión.
La observación de Júpiter ejemplifica una
situación en que el observador sólo tiene un
control parcial de las circunstancias; la luz del sol
es aportada, por así decirlo, espontáneamente.
Por tanto, la reacción a la presión de la luz se
producirá tanto si elegimos mirar la luz reflejada
como si no. En este sentido, no puede afirmarse
que Júpiter sufra una perturbación porque
nosotros elijamos observarlo, si bien nunca
podríamos observarlo sin esa perturbación. En el
laboratorio, como ilustran los anteriores
ejemplos, la involucración del observador y de
sus instrumentos es más directa.
Llegamos ya al rasgo crucial del acto de
observar tal como se entendía en la visión
newtoniana del universo, un rasgo que acabó
desmoronándose con el inicio de la teoría
cuántica. En primer lugar, si se conocen las
leyes físicas, aunque la medición u observación
conlleve necesariamente una perturbación del
objeto a examinar, esta perturbación puede
calcularse con exactitud y descontarse al deducir
el resultado. Así, la medición de la temperatura
de un líquido es corregible si se conocen las
propiedades térmicas del termómetro y su
temperatura inicial. En un mundo donde todos
los movimientos de los átomos están
rigurosamente determinados por leyes
matemáticas es posible, al menos en principio,
tener en cuenta incluso las perturbaciones más
ínfimas del proceso de medición. En segundo
lugar, con suficiente ingenio y habilidad
tecnológica es posible, según la teoría
newtoniana, reducir las perturbaciones
inoportunas a una cuantía arbitrariamente
pequeña.
La mecánica newtoniana no impone un
límite inferior al grado de interacción entre dos
sistemas. En consecuencia, si se deseara medir
la localización de un cuerpo sin apartarlo de su
curso por la presión de la luz, podríamos utilizar
un destello que lo iluminara durante un tiempo
arbitrariamente breve.
Cierto es que sería menester ampliar la luz
reflejada cada vez más conforme disminuyera la
cantidad de luz lanzada por el destello, pero este
problema es tecnológico y económico, y no de
física fundamental. La conclusión parece ser
que, al menos en principio, la perturbación
inevitable de toda observación puede
aproximarse tanto como se quiera al límite cero
(aunque, desde luego, no pueda alcanzarlo).
Mientras la ciencia se ocupó de objetos
macroscópicos, poca atención se prestó a los
límites últimos de la mensurabilidad, pues en los
experimentos prácticos nunca se alcanzaban las
proximidades de tales límites. La situación
cambió alrededor de comienzos del siglo, cuando
quedó bien asentada la teoría atómica de la
materia y se comenzaron a investigar las
partículas subatómicas y la radioactividad. Los
átomos son tan delicados que fuerzas
increíblemente diminutas desde el punto de vista
ordinario, pueden ocasionarles, sin embargo,
perturbaciones drásticas.
Los problemas de llevar a cabo cualquier
clase de medición sobre un objeto de un tamaño
de tan sólo diez mil millonésimas de centímetro
y que pesa una billonésima de una billonésima
de un gramo, sin destruirlo, no digamos sin
trastornarlo, son formidables. Cuando se llega al
estudio de las partículas subatómicas, como los
electrones, mil veces más ligeras y sin el menor
tamaño discernible, surgen profundos problemas
de principio al tiempo que dificultades prácticas.
Como introducción a los conceptos
generales podríamos considerar sencillamente el
problema de cómo cerciorarse de dónde está
localizado un determinado electrón.
Es evidente que es necesario enviar alguna
clase de sonda para que lo localice, pero, ¿cómo
hacerlo sin perturbarlo o, al menos,
perturbándolo de una manera controlada y
determinable? Una forma directa sería tratar de
ver el electrón utilizando un potente microscopio,
en cuyo caso la sonda utilizada sería la luz. Al
igual que en el caso de Júpiter, pero en un grado
incomparablemente mayor al tratarse de un
electrón, la iluminación ejercería una perturbación
como consecuencia de su presión. Si enviamos
una onda luminosa, la partícula retrocederá. El
problema no es grave si podemos calcular con
qué velocidad y en qué dirección se alejará el
electrón al retroceder, pues entonces,
conociendo la situación en un momento
determinado, será una pura cuestión de cálculo
deducir dónde estará la partícula en un instante
posterior.
Para conseguir una buena imagen en el
microscopio es necesario tener grandes lentes
en el objetivo, si no la luz, al ser una onda, no
pasará por la abertura sin distorsionarse. El
problema, en este caso, es que las ondas de luz
rebotan en los lados de las lentes e interfieren en
el rayo original, con la consecuencia de que la
imagen se emborrona y se pierde resolución.
Es necesario utilizar una abertura mucho
mayor que el tamaño de las ondas (es decir, que
la longitud de onda). Éstas es la razón de que los
radiotelescopios deban ser mucho mayores que
los telescopios ópticos, ya que las longitudes de
las ondas de radio son muy grandes. De donde
se deduce que para ver adecuadamente un
electrón deberíamos utilizar un gran microscopio
o una longitud de onda muy pequeña, pues en
caso contrario la imagen sería demasiado
borrosa para permitir medir con exactitud su
localización. Además de esto, es un hecho
habitualmente visible en la orilla del mar que
cuando las grandes olas del mar tropiezan con
un poste o un muelle, se separan
momentáneamente al chocar con el obstáculo,
pero vuelven a unirse detrás de él para proseguir
relativamente inalteradas. De manera que la
forma de la ola y, por lo mismo, de una onda de
gran tamaño, transporta muy poca información
sobre la localización o forma del poste. Por otra
parte, los pequeños rizos del agua son
seriamente perturbados por un poste y su forma
se descompone en una figura compleja.
Observando la desorganización se puede deducir
la presencia del poste. Algo similar ocurre con las
ondas de luz: para ver un objeto hay que utilizar
ondas cuya longitud sea similar o menor que el
tamaño del objeto en cuestión. Para localizar un
electrón, se deben utilizar ondas de la longitud
más corta posible (por ejemplo, rayos gamma),
puesto que su tamaño es indistinguiblemente de
cero. De cualquier modo, no es posible
determinar su posición con mayor exactitud que
la de una longitud de onda de la luz utilizada.
Es ahora cuando la naturaleza cuántica de la
luz desempeña un papel de crucial importancia.
En el capítulo 1 se explicó que la luz sólo existe
en paquetes o cuantos, llamados fotones, y que
cuando un átomo absorbe o emite luz sólo lo
hace en un número entero de fotones. Esto dota
a la luz con algunas de las cualidades de las
partículas, puesto que los fotones transportan
una determinada energía e impulso; de hecho, la
presión de la luz puede considerarse que no es
más que el retroceso que ocasiona el choque
con los fotones. No obstante, de ahí no se
deduce que la luz consista realmente en
pequeños corpúsculos localizados. El fotón no
está concentrado en un lugar, sino que se
extiende por toda la onda. La naturaleza
corpuscular del fotón sólo se manifiesta en el
modo en que interacciona con la materia. La
energía y el impulso que transportan un fotón
disminuyen en proporción inversa a su longitud
de onda, lo que conlleva que los fotones de las
ondas de radio sean entidades inmensamente
débiles, mientras que la luz, y especialmente los
rayos gamma, tengan mucha más pegada. Esto
nos plantea un rompecabezas cuando tratamos
de ver el electrón, puesto que la necesidad de
utilizar radiaciones de longitud de onda muy
pequeña, para eludir que la imagen se
emborrone, entraña aceptar el violento retroceso
consiguiente al empuje de estos enérgicos
cuantos. Nos vemos, pues, obligados a escoger
entre exactitud de la localización y perturbación
del movimiento del electrón. El dilema resultante
es que, para determinar exactamente la cuantía
del retroceso, precisamos conocer el ángulo
exacto con que el fotón rebota, y esto sólo
puede conseguirse utilizando un microscopio de
abertura muy estrecha. Pero, como ya hemos
explicado, eta estrategia tendrá como
consecuencia una imagen borrosa y una pérdida
de información sobre la posición del electrón.
Tampoco ayudará a reducir el retroceso el uso
de ondas mayores, pues entonces estaríamos
obligados a utilizar microscopios de mayor
abertura para evitar la confusión de las ondas, lo
que inevitablemente aporta una mayor
inseguridad a la medición del ángulo.
Debe haber quedado claro que los requisitos
de una exacta determinación, al mismo tiempo,
de la posición y del movimiento son
mutuamente incompatibles. Hay una limitación
fundamental de la cantidad de información que
puede conseguirse sobre el estado del electrón.
Se puede medir con precisión su localización a
costa de introducir una perturbación aleatoria y
totalmente indeterminable en su movimiento. O,
alternativamente, se puede retener el control
sobre el movimiento, a costa de una gran
inseguridad sobre la posición. Este
indeterminismo recíproco no es una mera
limitación práctica debida a las propiedades de
los microscopios, sino un rasgo básico de la
materia microscópica. No hay manera, ni
siquiera en teoría, de obtener simultáneamente
una información exacta sobre la posición y el
momento de una partícula subatómica. Estas
ideas han sido consagradas en el famoso
principio de incertidumbre de Heisenberg, que
describe el monto de la incertidumbre en una
fórmula matemática de la que puede deducirse
la exactitud última de cualquier medición.
Las consecuencias del principio de
incertidumbre son iconoclastas.
En el capítulo 1 vimos que el conocimiento
de la posición y del movimiento de una partícula
bastaba para determinar todo su
comportamiento, caso de conocerse las fuerzas
actuantes (o las posiciones y movimientos de
todas las demás partículas). Ahora resulta que
no es posible reunir tal información en detalle;
siempre hay una incertidumbre residual. Cada
punto del diagrama representa una determinada
velocidad y dirección de lanzamiento de la bola,
y las leyes de la mecánica newtoniana
proporcionan predicciones de las subsiguientes
trayectorias que seguirá la bola.
Los puntos vecinos representan trayectorias
vecinas. Si no se conoce exactamente el punto
del diagrama, no es posible predecir con
exactitud la trayectoria futura. Puede ocurrir que
sepamos que el punto se sitúa en alguna región
del diagrama, pero eso limita nuestras
predicciones a una especie de planteamiento
estadístico sobre las probabilidades relativas de
las distintas trayectorias del entorno.
De acuerdo con el principio de Heisenberg,
siempre habrá una incertidumbre residual sobre
la posición y el movimiento en el momento
inicial, aunque en el caso de una bola de verdad
el efecto sea demasiado pequeño para percibirlo.
Podríamos decidir fijar con precisión el punto
de partida, en cuyo caso el ángulo de
lanzamiento será muy inseguro. También cabría
fijar el ángulo con bastante precisión, en cuyo
caso el punto de lanzamiento se haría impreciso.
O bien se puede elegir una solución intermedia.
Cualesquiera que sean las medidas que se
adopten, la zona de incertidumbre del diagrama
no se reducirá a cero. De ahí se deduce que
siempre habrá cierta indeterminación sobre la
trayectoria posterior que siga la bola. Sólo puede
hacerse una predicción estadística. A escala
cotidiana, la incertidumbre cuántica queda
borrada por otras fuentes de error, como las
limitaciones de los instrumentos, pero el
movimiento de las bolas atómicas se ve
profundamente afectado por los efectos
cuánticos.
Una reacción instintiva frente a estas ideas
es suponer que la incertidumbre es en realidad
una consecuencia de nuestra falta de destreza
en las investigaciones atómicas, una
consecuencia de nuestro tamaño macroscópico.
Pudiera pensarse que el electrón tiene en
realidad una posición y un movimiento bien
definidos, pero que nosotros somos demasiado
manazas para descubrirlos. En general, tal
suposición se considera absolutamente errónea,
por razones que trataremos extensamente en el
capítulo 6. La incertidumbre parece ser una
propiedad inherente del microcosmos y no una
mera consecuencia de nuestra ineptitud para
observar las partículas subatómicas. No se trata
tan sólo de que no podamos conocer las
magnitudes del electrón. Se trata sencillamente
de que el electrón no posee simultáneamente
una posición y un impulso concretos. Es una
entidad intrínsecamente incierta.
Cabría preguntarse si es posible decir algo
sobre el comportamiento de objetos tan
caprichosos y reticentes. No podemos conocer el
exacto comportamiento, sino tan sólo una masa
de comportamientos verosímiles. El movimiento
del electrón por el espacio no es, pues, algo bien
definido, sino más bien una especie de campo
de probabilidades por el que discurren las
trayectorias disponibles y posibles a la manera
de un fluido.
En 1924, el príncipe Louis de Broglie
propuso que el comportamiento de los
electrones era de hecho análogo al de los fluidos;
concretamente, afirmó que las trayectorias
posibles se despliegan en forma de onda u ola.
Por tanto, al igual que el lanzamiento de una
piedra en un estanque da lugar a una serie de
ondulaciones procedentes de una región, del
mismo modo, si se sueltan electrones, éstos se
esparcirán en muchas direcciones,
extendiéndose como las ondulaciones por el
estanque.
La idea de Broglie es mucho más que un
vago símil de desplazamiento. El movimiento de
una onda es algo muy especial, tanto física
como matemáticamente. Una de sus
características vitales es la capacidad que tienen
las ondas de interferirse entre sí. El fenómeno
de la interferencia de las ondas es conocido en la
vida cotidiana y también desempeña un papel
fundamental en la descripción cuántica de la
materia y en las consecuencias que más
adelante estudiaremos.
Un lugar adecuado para ver la interferencia
de las ondas es un estanque. Si se lanzan
simultáneamente dos piedras muy juntas al
estanque, cada una da lugar a una serie de
ondulaciones. Cuando las dos series de ondas
se cruzan se crea sobre el agua una distribución
sistemática de crestas y surcos.
Esto ocurre porque donde coincide una
cresta de una de las ondulaciones con la de la
otra, el efecto se refuerza, pero donde la cresta
de una encuentra el surco de la otra ambas se
contrarrestan y la superficie del agua permanece
relativamente inalterada.
En la década de 1920, los físicos
comprendieron que si de Broglie tenía razón
debían producirse interferencias cuando se
superponen haces de electrones, pues los
movimientos ondulatorios de cada haz se
superpondrían con los de los otros. De pronto,
los experimentos de Davisson, de que hemos
hablado en el capítulo 1, adquirieron un nuevo
significado.
Davisson descubrió que los electrones,
cuando son dispersados por la superficie de un
cristal de níquel, rebotan según una sucesión de
haces que posteriormente se superponen. En
1927 demostró, más allá de toda duda, que los
haces superpuestos se refuerzan o contrarrestan
según el modelo clásico de la interferencia de las
ondas. La conclusión fue sorprendente: los
electrones se comportaban como ondas al
mismo tiempo que como partículas.
¿Qué significa esto? Hemos visto antes que
las ondas luminosas se comportan en algunos
aspectos, aunque no en todos, como partículas,
a las que llamábamos fotones.
Ahora parece ser que encontramos una
dualidad comparable en la identidad de los
electrones. No obstante, es fundamental
comprender que la naturaleza ondulatoria de los
electrones no implica que el electrón sea una
onda, sino sólo que se mueve como una onda.
Además, la onda en cuestión no es una onda de
ninguna clase de sustancia o materia, sino una
onda probabilística. Donde el efecto de la onda
es mayor, allí es más probable que se encuentre
el electrón. En este sentido recuerda una oleada
de delincuencia que, cuando se extiende por un
barrio, aumenta la probabilidad de que se
cometa un delito. No es una ondulación de
ninguna sustancia, sino sólo de probabilidad.
Estas ideas son estimulantes y
provocativas, pero también son sutiles y
desconcertantes. Se comprenden mejor
estudiando una situación donde tanto la
naturaleza de onda como la de partícula, de los
electrones o de los fotones, se manifiesten al
unísono. Un ejemplo es el experimento llamado
de las dos ranuras. El esquema consiste en una
pantalla opaca con dos ranuras paralelas muy
próximas. Las ranuras se iluminan mediante un
rayo de luz de manera que sus imágenes caigan
sobre otra pantalla situada en la cara contraria.
Si momentáneamente obturamos una de las
ranuras, la imagen de la otra aparecerá como
una franja de luz situada enfrente de la ranura
abierta. Dado que la ranura abierta es estrecha,
las ondas luminosas sufrirán una distorsión al
atravesarla, de modo que parte de la luz se
desperdigará por los lados de la franja, por lo que
los bordes aparecen borrosos. Si la ranura es
muy estrecha, es posible que la luz se extienda
por un área bastante amplia. Cuando esté
obturada la otra ranura y abierta la primera, se
verá una imagen similar, pero ligeramente
desplazada enfrente de esta ranura.
La sorpresa surge cuando se abren al
mismo tiempo las dos ranuras. Lo que podría
preverse es que la imagen de la doble ranura
consistiera en la superposición de dos imágenes
de una ranura, lo que tendría el aspecto de dos
franjas de luz más o menos superpuestas debido
a lo borroso de sus bordes.
En realidad, lo que se ve es una serie de
líneas regulares, compuesta de franjas oscuras y
luminosas, que el primero en descubrirlas fue el
físico inglés Thomas Young en 1803. Este
curioso diagrama es precisamente un fenómeno
de interferencia de ondas antes mencionado.
Cuando la luz que emanan las dos ranuras
llega en oposición de fase, es decir, las crestas
de las ondas procedentes de una ranura
coinciden con los vientres de las otras, la
iluminación desaparece.
El experimento puede repetirse con
electrones en lugar de luz, utilizando una pantalla
de televisión como detector. Debemos recordar
aquí que cada electrón individual es
taxativamente una partícula. Los electrones
pueden contarse uno por uno y puede explorarse
su estructura utilizando máquinas de elevada
energía. Por lo que a nosotros se nos alcanza,
no tiene partes internas ni extensión discernible.
Se rocían las ranuras a través de un pequeño
agujero con electrones procedentes de una
especie de pistola. Los electrones que pasan por
una u otra ranura alcanzarán la pantalla
detectora y chocarán contra ella, liberando su
energía en forma de pequeños destellos de luz.
(Éste es el fundamento de la imagen televisiva).
Mediante el control de los destellos, se toma
exacta nota del lugar adonde llegan los
electrones y se determina la manera en que se
distribuyen por la pantalla detectora.
Observemos lo que ocurre cuando sólo está
abierta una de las ranuras y, de momento,
cerrada la otra.
El chorro de electrones atravesará la ranura,
se esparcirá hacia el exterior y se proyectará
sobre la pantalla detectora. La mayoría de ellos
llega muy cerca de la zona situada enfrente de la
ranura abierta, aunque algunos se esparcirán por
los alrededores. La distribución de los electrones
recuerda el diagrama luminoso que se obtiene
empleando luz. Una distribución similar,
ligeramente desplazada, resultaría en el caso de
abrir la segunda ranura y mantener bloqueada la
primera. Lo fundamental del experimento es
que, de nuevo, cuando se operan ambas
ranuras, la distribución de los electrones muestra
una estructura regular de franjas de interferencia,
lo que indica la naturaleza ondulatoria de estas
partículas subatómicas.
En este caso, el resultado tiene un carácter
casi paradójico.
Supongamos que la intensidad del haz de
electrones disminuye gradualmente hasta que
los electrones pasan de uno en uno por el
aparato.
Se puede recoger el impacto de cada
electrón contra la pantalla utilizando una placa
fotográfica.
Al cabo de cierto tiempo dispondremos de
un montón de placas fotográficas, cada una de
las cuales contiene un único punto de luz
correspondiente al lugar donde cada electrón
concreto ha encendido un destello con su
presencia. ¿Qué podemos decir ahora sobre
cómo se distribuyen los electrones por la
pantalla? Podemos determinarlo mirando a
través de la pila de placas superpuestas, con lo
que veremos todos los puntos formando un
dibujo. Lo asombroso es que ese dibujo es
exactamente el mismo que se produce cuando
se dispara un gran número de electrones, y
también exactamente el mismo que forman las
ondas luminosas (aunque quizás un poco menos
denso si somos parcos con los electrones). Es
evidente que el conjunto de acontecimientos
distintos y separados, a base de un electrón
cada vez, sigue presentando un fenómeno de
interferencia. Además, si en lugar de repetir el
experimento electrón por electrón, toda una serie
de laboratorios realizan el experimento de
manera independiente, y tomamos al azar una
fotografía de cada prueba, entonces, el conjunto
de todas estas fotografías independientes y
hechas por separado ¡también presenta un
diagrama de interferencias!
Estos resultados son tan asombrosos que
cuesta digerir su significación. Es como si alguna
mágica influencia fuera dictando los
acontecimientos en los distintos laboratorios, o
en momentos distintos del mismo equipo, de
acuerdo con algún principio de organización
universal. ¿Cómo sabe cada electrón lo que los
demás electrones van a hacer, quizás en otras
partes distintas del globo?
¿Qué extraña influencia impide a los
electrones personarse en las zonas oscuras de
las franjas de interferencia y les hace dirigirse
hacia las zonas más populosas? ¿Cómo se
controla su preferencia en el plano individual?
¿Es magia?
La situación resulta aún más extravagante si
recordamos que la interferencia característica
surge, en primer lugar, como consecuencia de
que las ondas de una ranura se superponen a
las de la otra. Es decir, la interferencia es
taxativamente una propiedad de las dos ranuras.
Si se bloquea una, la interferencia desaparece.
Pero sabemos que cada electrón concreto (por
ser una pequeña partícula) sólo puede pasar por
una de las ranuras, de manera que, ¿cómo se
entera de la existencia de la otra?
Sobre todo, ¿cómo sabe si la otra está
abierta o cerrada? Parece que la ranura por
donde no pasa el electrón (y que a escala
subatómica está a una inmensa distancia) tiene
tanta influencia sobre el posterior
comportamiento del electrón como la ranura por
la que en realidad pasa.
Comenzamos a vislumbrar ya algo de la
naturaleza profundamente peculiar del mundo
subatómico. En el capítulo 1 se mencionó que el
electrón no está constreñido por leyes
deterministas a seguir una única trayectoria, y
más adelante se ha mostrado que el principio de
incertidumbre de Heisenberg impide al electrón
poseer una trayectoria bien definida. Con el
experimento de las dos ranuras vemos el
funcionamiento de esta indeterminación
inherente, pues debemos sacar la conclusión de
que los trayectos «potenciales» del electrón
pasan por ambas ranuras de la pantalla y que
las trayectorias que no sigue continúan
influyendo en el comportamiento de la
trayectoria real.
Dicho en otras palabras, los mundos
alternativos, que podrían haber existido, pero
que no han llegado a existir, siguen influyendo en
el mundo que existe, como la desvanecida
sonrisa del gato de Cheshire en el cuento de
Alicia.
Ahora es posible comprender por qué las
ondas asociadas con los electrones no son
ondas de electrones, sino ondas probabilísticas.
La interferencia que aparece en el sistema
de dos ranuras no puede ser una interferencia
entre muchos electrones distintos, sino
desaparecería al utilizarse los electrones de uno
en uno. Es una interferencia probabilística. La
localización probabilística de un único electrón
puede explorar ambas ranuras e interferir
consigo misma. Con lo que se interfiere es con
la propensión del electrón a ocupar una
determinada zona del espacio. De tal modo que
un electrón concreto tiene más probabilidades de
dirigirse hacia las franjas claras que hacia las
franjas oscuras.
Dada la incertidumbre inherente a la posición
y al movimiento que da lugar al comportamiento
ondulatorio, no puede predecirse dónde
terminará un determinado electrón, pero algo
puede decirse sobre todo el conjunto de ellos por
medio de una estadística muy simple.
Precisamente esta distribución estadística a que
están sometidos el movimiento ondulatorio y los
efectos de interferencias es la que debe tenerse
en cuenta en cualquier cálculo.
Esto muestra con absoluta claridad cómo los
electrones evitan desplomarse sobre los núcleos
de los átomos. Sus ondas probabilísticas se
mantienen vibrando alrededor del átomo de
manera uniforme.
Sólo pueden presentarse determinadas
órbitas fijas, pues si la perturbación ondulatoria
no encaja adecuadamente, con crestas y
vientres en la debida relación, comenzará a tener
superposiciones e interferencias consigo misma
y acabará anulándose en la nada. De ocurrir
esto, habría una probabilidad cero (ninguna
posibilidad en absoluto) de encontrar un electrón.
El fenómeno es similar a la estructura
ondulatoria del aire en los tubos de un órgano:
sólo pueden darse determinadas notas bien
definidas, puesto que los tipos de ondas de aire
tienen que encajar con la geometría de los
tubos.
Asimismo, pues, sólo determinadas notas,
es decir, determinadas frecuencias o energías,
pueden darse alrededor del átomo. Los colores
característicos que se emiten en las transiciones
entre estos niveles energéticos permitidos son el
testimonio visual de esta música subatómica. Y
exactamente igual como el tubo de un órgano
tiene su nota más baja, así hay un nivel mínimo
de energía en el átomo.
Indudablemente todo esto significa un gran
logro para nuestra comprensión del mundo
subatómico, porque la estabilidad de los átomos
frente a su desmoronamiento fue uno de los
grandes misterios que dio lugar al rechazo de la
física newtoniana aplicada a los átomos. El
hecho de que las ondas de un instrumento
musical produzcan una diversidad de notas
discretas y que los átomos emitan frecuencias
luminosas características no parece guardar, a
primera vista, ninguna relación, pero la
naturaleza ondulatoria de la materia cuántica
pone de manifiesto la hermosa unidad del
mundo físico y demuestra que estos fenómenos
son esencialmente idénticos. Por tanto,
podemos considerar que el espectro luminoso de
un átomo es similar a la estructura sonora de un
instrumento musical.
Cada instrumento produce un sonido
característico, y lo mismo que el timbre del violín
difiere marcadamente del timbre del tambor o
del clarinete, así la mezcla de colores de la luz
de un átomo de hidrógeno se diferencia de
modo característico del espectro del átomo de
carbono o de uranio. En ambos casos existe una
profunda asociación entre las vibraciones
internas (membranas oscilantes, electrones
ondulantes) y las ondas externas (sonido y luz.
Antes de abandonar el experimento de las
dos ranuras, debemos describir un rasgo
divertido. ¿Sabe realmente el electrón si la otra
ranura está abierta o cerrada? Para descubrirlo
podemos recurrir a la siguiente maniobra.
Colóquese un detector delante de las ranuras y
señálese aquella a que se dirige el electrón;
luego, actúese rápidamente y bloquéese la otra.
Si el electrón se percata de esta manipulación,
no aparecerá la interferencia cuando
combinemos todos los resultados de muchos
experimentos similares. Por una parte, es casi
imposible de creer que el electrón pueda
realmente saber nuestras intenciones y modificar
su movimiento de acuerdo con éstas; por otra
parte, sabemos que si una ranura está
permanentemente bloqueada no hay
interferencia.
Evidentemente, desbloquear el agujero
cuando no hay electrones cerca no puede
afectar al resultado, ¿no es verdad? En ambos
casos la naturaleza parece estar jugando con
nosotros.
Una forma sencilla de llevar a cabo este
experimento consiste en proyectar un rayo de
luz desde el agujero de entrada hacia las ranuras
y estar al tanto del pequeño destello en el
momento en que pasa el electrón.
Naturalmente, debemos tener en cuenta el
retroceso del electrón cuando choca con la luz y
acordarnos de los problemas que planteaban los
microscopios, tal como los hemos tratado. Para
determinar a qué ranura se acerca el electrón
debemos utilizar una luz cuya longitud de onda
sea corta en comparación con la distancia entre
las ranuras o bien no conseguiremos una imagen
lo bastante clara para decir cuál es la ranura más
próxima. Sin embargo, una luz de longitud de
onda corta producirá una perturbación
relativamente grande en el movimiento del
electrón que nos interesa, y el resultado será que
el retroceso causado por una luz cuya longitud
de onda sea lo bastante corta es tan grande que
destruye por completo la interferencia. El
impredecible retroceso destruye por completo la
forma regular de las franjas. Parece que la
naturaleza nos impide automáticamente
responder a la pregunta crucial: ¿sabe el electrón
si la otra ranura está abierta o cerrada? La
interferencia de los electrones es un fenómeno
que precisa que ambas ranuras estén abiertas,
pero cada electrón concreto sólo puede pasar
por una de las ranuras. Vemos pues que la
interferencia sólo se producirá si no investigamos
demasiado a fondo qué ranura elige el electrón.
Ambas deben estar abiertas; cada una de ellas
ofrece una trayectoria potencial, aunque sólo una
puede ser la trayectoria real. Cuál sea nunca
podemos saberlo.
La teoría moderna de la mecánica cuántica
supone mucho más que unos vagos
razonamientos sobre la exactitud de las
mediciones y sobre el movimiento ondulatorio.
Es una teoría matemática exacta, capaz de
detalladas predicciones sobre el comportamiento
de los sistemas subatómicos. Importantes
propiedades físicas, tales como el principio de
incertidumbre de Heisenberg, están incrustadas
en el nivel básico de la teoría y surgen, con toda
naturalidad, de las matemáticas.
Concretamente, el físico austríaco Erwin
Schrödinger descubrió en 1924 la ecuación
matemática que rige el movimiento de las
enigmáticas ondas probabilísticas, y en la
actualidad los físicos profesionales llevan a cabo
cálculos prácticos que revelan la estructura
interna y el movimiento de los átomos y las
moléculas aplicando esta ecuación. Por ejemplo,
se calculan los niveles energéticos de los átomos
y, en consecuencia, las frecuencias de la luz que
emiten y absorben, al mismo tiempo que la
intensidad relativa de los distintos colores. Estos
cálculos permiten que espectros hasta ahora
misteriosos, como los de los objetos
astronómicos lejanos, se identifiquen con
productos químicos conocidos. Lo cual tiene una
especial importancia en el caso de objetos muy
lejanos, como los quásares, porque la luz que
llega hasta nosotros ha sufrido un enorme
corrimiento hacia el rojo debido a la expansión
del universo, y podría consistir en radiaciones
invisibles para nosotros, por pertenecer a la
región ultravioleta, de no haberse producido el
corrimiento. Los cálculos permiten predecir
espectros de todas las frecuencias.
Otros cálculos revelan la naturaleza de las
fuerzas interatómicas que ayudan a mantener
los átomos unidos formando moléculas.
Cuando dos átomos se acercan, sus ondas
materiales comienzan a superponerse y se
producen importantes efectos de interferencia
que dan lugar a que los átomos se adhieran
mediante un enlace químico. Cuando son
muchos los átomos que se juntan en un orden
regular, como ocurre en los cristales, las ondas
de todos los electrones son constreñidas a seguir
un movimiento periódico coordinado que les
permite atravesar grandes espesores de materia
con poca resistencia. El estudio de estas ondas
electrónicas aporta información sobre cómo
conducen la electricidad y el calor los metales.
Detallados cálculos, realizados con ayuda de la
teoría cuántica, nos han dado una idea de la
estructura de los cristales y de otros materiales
sólidos, como los semiconductores, a la vez que
han sentado las bases para la comprensión de
los líquidos, los gases, los plasmas y los
superfluidos.
También en el terreno nuclear, la aplicación
de los cálculos matemáticos derivados de la
mecánica cuántica aporta mucha información
sobre la estructura nuclear interna, las reacciones
nucleares como la fisión y la fusión, y la
interacción de los núcleos con otras partículas
subatómicas.
Las matemáticas en cuestión no son del tipo
habitual basado en la aritmética; operan con
objetos matemáticos abstractos que obedecen a
reglas de combinación muy peculiares y que
tienen propiedades absolutamente distintas de
las de los números ordinarios. Aunque el
conocimiento pormenorizado de estas
matemáticas requiere muchos años de estudio,
algo de su sabor puede transmitirse utilizando
ideas elementales. Como siempre ocurre en la
ciencia, las matemáticas son un modelo que
debe imitar el comportamiento del mundo real.
En la época precuántica, el estado de un
sistema físico se representaba mediante un
conjunto de números. Por ejemplo, el estado de
un cuerpo se define por su posición, su
velocidad, su velocidad de rotación, etc., en
cada instante. Midiendo estas cantidades, se
obtienen números concretos. El modo en que los
números de un instante se relacionan con los de
otros instantes lo proporcionan las llamadas
ecuaciones diferenciales.
En contraposición, la teoría cuántica nos
prohíbe asignar números determinados a todos
los atributos de un cuerpo simultáneamente: no
podemos especificar al mismo tiempo, por
ejemplo, la posición y el impulso. Además, no
hay una trayectoria única y bien definida, sino
muchos trayectos posibles. El estado del
sistema debe reflejar estas incertidumbres y
ambigüedades, y el acto de medir, que perturba
el sistema cuántico de manera fundamental, no
equivale al mero desvelamiento de los valores
numéricos de las diversas magnitudes.
Una forma de representar el hecho de que
una partícula puede existir en un estado cuántico
susceptible de muchos comportamientos
posibles —muchos mundos distintos— es recurrir
al concepto de vector. Los vectores se conocen
normalmente como magnitudes orientadas: la
velocidad, la fuerza y la rotación son ejemplos de
cantidades que tienen al mismo tiempo una
magnitud (grande, pequeña, etc.) y una dirección
(hacia el norte, en sentido vertical, etc.). Por el
contrario, cantidades como la masa, la
temperatura, la aceleración y la energía tienen
todas ellas magnitud, pero no dirección.
Una importante propiedad de los vectores es
la manera en que deben sumarse. A diferencia
de los números, no se pueden sumar dos
vectores sumando sus magnitudes, pues
también deben tenerse en cuenta las
direcciones. Por ejemplo, si dos fuerzas se
oponen, pueden anularse, aun cuando sus
magnitudes valoradas por separado sean
importantes.
Estas consideraciones hacen que las reglas
para combinar vectores sean más complicadas
que la aritmética, pero también las dota de una
estructura más rica.
Así como la suma de vectores pueden
efectuarse de muchas maneras, según cuáles
sean sus direcciones, un vector puede dividirse
de muchos modos en otros vectores. Por
ejemplo, se empuja un coche con mayor eficacia
colocándose detrás del vehículo, pero también
es posible moverlo, aunque con menos facilidad,
mediante una presión oblicua. En realidad, sea
cual sea el ángulo del empuje, alguna fuerza
actuará en el sentido del movimiento, con tal de
que el ángulo no sea exactamente perpendicular
al automóvil. Los matemáticos dicen que el
vector tiene un componente a lo largo del
vehículo y otro perpendicular. Según el ángulo
con que se empuje, la componente paralela
dispone de mayor o menor cantidad de la fuerza
total que la componente perpendicular. Así pues,
el vector (el empuje) puede descomponerse en
dos vectores: uno paralelo al coche y otro
perpendicular de distintas proporciones que
dependen del ángulo. Si el ángulo es casi
paralelo al vehículo, la componente paralela
retiene la mayor parte de la fuerza y es mucho
mayor que la fuerza lateral, de tal modo que
ésta es la posición en que el empuje resulta más
eficaz.
La idea de que el vector se descompone en
dos vectores perpendiculares entre sí se utiliza
de una forma curiosa en la teoría cuántica. Cada
uno de los mundos posibles, es decir, cada uno
de los comportamientos o trayectorias
potenciales de una partícula, se consideran un
vector; no un vector en el espacio ordinario, sino
una magnitud abstracta en un espacio abstracto.
Cada vector es perpendicular a todos los demás
vectores, de manera que todos los mundos son
distintos y ninguno tiene componente alguna en
otro mundo. El número de vectores necesario, y
de ahí el número de dimensiones del espacio,
depende del número de trayectorias posibles.
Recordando la analogía de las trayectorias en el
parque descritas, sería necesario utilizar una
infinidad de mundos posibles, lo mismo que hay
un número ilimitado de posibles trayectos por el
parque. Esto exige un espacio vectorial de
infinitas dimensiones: tal cosa no se puede
visualizar, pero matemáticamente tiene sentido.
Equipados con este espacio vectorial, los físicos
describen el estado del sistema cuántico como
un vector en el espacio que en general puede
apuntar hacia cualquier ángulo. Si se sitúa a lo
largo de uno de los vectores correspondientes a
un determinado mundo, cualquier observación
mostrará que el sistema tiene exactamente el
estado concreto correspondiente a ese mundo,
pero si tiene una posición intermedia entre los
vectores de dos mundos, entonces, al igual que
la fuerza que se ejerce con el coche, tendrá
componentes en ambos. El que cuente con la
componente mayor será el mundo más probable
y el otro un mundo alternativo, pero menos
probable. Por supuesto, de existir varias
alternativas, el vector puede tener componentes
en todas ellas, y esto sigue siendo cierto aun
cuando su número sea infinito.
El ángulo del vector determina cuáles son
los favorecidos, es decir, las alternativas más
probables.
Cuando se hace una observación, el sistema
objeto de estudio, por ejemplo, un átomo, se
encontrará evidentemente en un estado
concreto, por ejemplo, en el nivel energético
mínimo. Esto significa que el estado original, que
puede ser una superposición de distintos
mundos alternativos, de repente se lanza o
proyecta hacia una alternativa concreta, un
misterioso salto que examinaremos
detalladamente en el capítulo 7. En el lenguaje
vectorial, esto significa que el acto de la
observación hace que el vector gire de repente
desde alguna posición intermedia en el espacio
abstracto a una nueva posición donde se sitúa
exactamente en paralelo al vector que
representa el mundo que efectivamente
observamos. Este súbito salto de estado, o
rotación del vector, refleja el hecho e que la
observación perturba inevitablemente el estado
del sistema, como se ha explicado antes en este
mismo capítulo. Por tanto, desde el punto de
vista matemático, medir una magnitud equivale
a rotar súbitamente el vector en el espacio
abstracto.
La rotación proporciona otro ejemplo de
magnitud que no obedece las reglas de la
aritmética. También las rotaciones tienen
magnitud (2°, 55°, un ángulo recto, etc.) y
dirección (en el sentido de las agujas del reloj, de
norte a sur, etc.), pero sumar rotaciones es algo
aún más complejo que sumar vectores como
fuerzas, si las direcciones son distintas. En tal
caso, no sólo debemos tener en cuenta el
ángulo entre las rotaciones, sino también el
orden en que se agregan.
Cuando se suman números, no es necesario
tener en cuenta el orden de adición (por ejemplo,
1+2 = 2+1), pero las rotaciones no gozan de
esta simetría. Un único ejemplo, que el lector
fácilmente puede comprobar, consiste en rotar
este mismo libro. Colóquelo abierto sobre una
mesa en la posición normal de leer y voltéelo en
ángulo recto y alejándolo de usted, de modo que
quede invertido y vertical. Ahora gírelo 90° en el
sentido de las agujas del reloj. Si las dos
operaciones anteriores se realizan en orden
inverso —la rotación en el sentido de las agujas
del reloj primero y luego la elevación— el libro no
quedará en la misma posición. En realidad,
quedará apoyado en el lateral en lugar de
hacerlo en la parte superior. El ejemplo sirve
para ilustrar el principio general de que las
rotaciones no se ajustan a las habituales reglas
de la aritmética, de modo que no pueden
describirse mediante números cuyo orden de
adición no importe.
Estas ideas encajan de manera natural con
el esquema cuántico porque la rotación del
vector de estado corresponde, como antes
hemos dicho, a una medición, y el orden en que
se hacen dos mediciones afectará al resultado.
Por ejemplo, si medimos la posición de una
partícula, destruimos todo conocimiento sobre su
movimiento. Si a continuación medimos el
movimiento, la posición resulta absolutamente
incierta. Cuando las mediciones se realizan en
orden inverso —primero en movimiento y
después la posición— desembocamos en una
partícula en un estado con movimiento
absolutamente incierto, que no es el mismo
estado final que resulta haciéndolo en el otro
orden. Así pues, el orden de las observaciones,
que se refleja en el orden de rotación del espacio
vectorial abstracto, es de vital importancia para
el resultado. Este rasgo es fundamental para la
teoría cuántica, que debe utilizar los adecuados
objetos matemáticos, que no obedecen a la
regla 1+2 = 2+1 de la aritmética elemental.
Estas potentes herramientas matemáticas
revelan una nueva física. Exactamente igual que
al rotar horizontalmente un vector se afectan sus
componentes horizontales, pero permanece
inalterada su proyección vertical, así también
resulta que ciertas cantidades son
perpendiculares a otras y pueden realizarse
mediciones de unas sin afectar a las demás; por
ejemplo, es posible medir simultáneamente el
spin (momento angular intrínseco) y la energía
de una partícula. El análisis matemático
descubre qué cantidades están ligadas a otras
por la propiedad de incompatibilidad de rotación.
Éstas, por tanto, cumplen las relaciones de
incertidumbre del modelo de Heisenberg.
Además de la posición y el impulso, otros
ejemplos importantes son la energía y el tiempo.
No es posible medir con absoluta precisión una
cantidad de energía a menos que se disponga
de una cantidad infinita de tiempo, característica
ésta que resultará ser de fundamental
importancia.
La mayor parte de este capítulo lo hemos
dedicado a la curiosa dualidad onda-partícula de
los electrones, pero tales consideraciones valen
igualmente para toda la materia microscópica.
Desde la Segunda Guerra Mundial se han
descubierto cientos de distintos tipos de
partículas subatómicas, todas las cuales se rigen
por las reglas de la mecánica cuántica. En
realidad, incluso los átomos enteros presentan
los mismos rasgos de las interferencias de
ondas. No hay ninguna escala de tamaño por
encima de la cual la materia cuántica se
convierta en materia «ordinaria» en el sentido
newtoniano.
Las bolas de billar, las personas, los
planetas, las estrellas, el universo entero… son
en último término una masa de sistemas
mecánicos cuánticos, lo que implica que la vieja
imagen newtoniana del universo mecánico que
se mueve según un absoluto determinismo es
falsa. En el mundo cotidiano, los fenómenos
cuánticos son demasiado pequeños para que los
percibamos; no vemos las propiedades
ondulatorias de los balones de fútbol, por
ejemplo, porque su longitud de onda es más de
diez mil billones de veces menor que un núcleo.
Sin embargo, el mundo real es un mundo
cuántico, con todas las inmensas consecuencias
que esto supone.
Para que no tengamos la sensación de que
las misteriosas ondas de la materia están
demasiado alejadas de la experiencia diaria para
tener ninguna significación concreta, o bien que
son tan sólo una invención disparatada del
pensamiento científico, debemos darnos cuenta
de que en la actualidad se han convertido en
parte de la ingeniería aplicada. El microscopio de
electrones, un instrumento capaz de conseguir
enormes ampliaciones, basa su funcionamiento
en ondas de electrones que sustituyen a las
luminosas. Controlando la velocidad del haz de
electrones se puede manipular la longitud de
onda, obteniéndose con facilidad longitudes de
onda mucho menores que los de la luz visible, lo
que permite observar detalles a una escala
mucho menor. De modo que las curiosas formas
de Davisson, de tan fructíferas consecuencias
para la naturaleza del universo, tienen un
impacto más prosaico, pero también más
tangible, en nuestras vidas.
Capítulo IV

Los extraños mundos de los cuantos

Debemos, pues, reconocer que el microcosmos


no está regido por leyes deterministas que
regulen con exactitud el comportamiento de los
átomos y de sus componentes, sino por el azar
y la indeterminación.
Así, una partícula como el electrón tiene un
comportamiento ondulatorio, a la vez que las
ondas electromagnéticas también presentan
características corpusculares. No existe
contrapartida cotidiana a la dualidad onda-
partícula, de manera que el microcosmos no es
una mera versión liliputiense del macrocosmos,
sino algo cualitativamente distinto, casi
paradójicamente distinto. En este extraño mundo
de los cuantos, la intuición nos abandona y
pueden ocurrir cosas aparentemente absurdas o
milagrosas. En este capítulo examinaremos
algunas de las consecuencias de la teoría
cuántica y describiremos la naturaleza
verdaderamente insustancial del, en apariencia,
concreto mundo de la materia.
El principio de incertidumbre de Heisenberg
pone restricciones a la exactitud con que se
puede determinar la localización y el movimiento
de las partículas, pero estas dos magnitudes no
son las únicas que pueden medirse. Por
ejemplo, podríamos estar más interesados por la
velocidad del spin de un átomo o por su
orientación.
O bien podríamos necesitar medir su
energía o el tiempo que tarda en pasar a un
nuevo estado energético.
Es posible analizar las observaciones de
estas magnitudes de la misma manera que se
utilizó el microscopio de rayos gamma, descrito
en el capítulo anterior, para estimar la
incertidumbre de la posición y del impulso.
Para ilustrar estas nuevas posibilidades,
supongamos que queremos determinar la
energía de un fotón de luz. De acuerdo con la
hipótesis cuántica original de Planck, la energía
de un fotón es directamente proporcional a la
frecuencia de la luz: al doble de frecuencia
corresponde el doble de energía. Un
procedimiento práctico de medirla consiste,
pues, en medir la frecuencia de la onda
luminosa, lo que puede hacerse conectando el
número de oscilaciones (es decir, de crestas y
vientres de la onda) que pasan en un
determinado intervalo de tiempo. Para la luz
visible es grandísimo: alrededor de mil billones
por segundo. Para que la operación tenga éxito
es menester evidentemente que al menos se
produzca una oscilación de la onda, y a ser
posible varias, pero cada oscilación requiere un
intervalo de tiempo determinado. La onda debe
pasar desde la cresta al vientre y de nuevo a la
cresta. Medir la frecuencia de la luz en una
fracción de tiempo inferior a ésta es a todas
luces imposible, incluso en teoría. En el caso de
la luz visible, la duración necesaria es muy breve
(una milbillonésima de segundo). Las ondas
electromagnéticas con longitudes de onda
mayores y menor frecuencia, tales como las
ondas radiofónicas, pueden precisar algunas
milésimas de segundo para cada oscilación.
Consiguientemente los fotones de las ondas de
radio tienen muy poca energía. Por el contrario,
los rayos gamma oscilan centenares de veces
más deprisa que la luz y la energía de sus
fotones es ciento de veces mayor.
Estas sencillas consideraciones ponen de
manifiesto que existe una fundamental limitación
de la exactitud con que puede medirse la
frecuencia, y por tanto la energía, en un intervalo
dado de tiempo. Si la duración es menor que un
ciclo de la onda, la energía queda muy
indeterminada, por lo que hay una relación de
incertidumbre que vincula la energía y el tiempo
que es idéntica a la relación ya expuesta entre
posición e impulso. Para conseguir una exacta
determinación de la energía, es necesario hacer
una larga medición, pero si lo que nos interesa
es el momento en que sucede un
acontecimiento, entonces una determinación
exacta sólo puede hacerse a expensas del
conocimiento sobre la energía. Hay aquí, pues,
un equilibrio entre información sobre la energía e
información sobre el tiempo similar a la mutua
incompatibilidad entre la posición y el
movimiento. Esta nueva incertidumbre tiene
consecuencias de lo más espectaculares.
Antes de volver a cuestiones de mayor
amplitud, debemos subrayar un punto
importante. La limitación de las mediciones de la
energía y del tiempo, al igual que las de la
posición y el impulso, no son meras
insuficiencias tecnológicas, sino propiedades
categóricas e inherentes de la materia. En
ningún sentido cabe imaginar un fotón que
realmente posea en todos los momentos una
energía bien definida, aun cuando nos sea
imposible medirla, ni tampoco un fotón que surja
en un determinado momento con una frecuencia
concreta. La energía y el tiempo son
características incompatibles para los fotones, y
cuál de las dos se ponga de manifiesto con
mayor exactitud depende por completo de la
clase de las mediciones que elijamos efectuar.
Vislumbramos ahora, por primera vez, el
asombroso papel que el observador desempeña
en la estructura del microcosmos, pues los
atributos que poseen los fotones parecen
depender precisamente de las magnitudes que
el experimentador decida medir. Además, la
relación de incertidumbre energía-tiempo, como
la de la posición-impulso, no se limita a los
fotones, sino que es válida para toda la actividad
subatómica.
Una consecuencia inmediatamente
perceptible de la relación de incertidumbre
energía-tiempo se refiere a la calidad de la luz
que emiten los átomos. Como se ha
mencionado, los colores que irradian las distintas
sustancias vienen determinados por el espaciado
de los niveles atómicos de energía, y esto
permite a los físicos identificar los distintos
productos químicos con la mera observación de
su espectro luminoso. Un típico espectro, por
ejemplo, de un tubo fluorescente lleno de gas,
presenta una serie de rayas bien marcadas que
representan las distintas frecuencias (es decir,
las energías) de la luz que emana ese tipo de
átomos. Cada raya la producen fotones con una
energía determinada que se emiten cuando los
electrones de los átomos de gas saltan de los
niveles superiores a los inferiores.
Hay en estas rayas un importante detalle
que ilustra maravillosamente la relación de
incertidumbre energía-tiempo. La emisión de un
fotón individual ocurre cuando un electrón es
empujado (por ejemplo, por una corriente
eléctrica) a un nivel energético superior, de modo
que el átomo pasa transitoriamente por un
estado de excitación. Pero el estado de
excitación sólo en parte es estable y pronto los
electrones vuelven al estado más cómodo de
baja energía.
La duración del estado de excitación
depende de varios factores, como son la
distribución de los demás electrones y la
diferencia energética entre los estados, y oscila
enormemente entre una millonésima de
billonésima de segundo y una milésima de
segundo e incluso más. Si la duración es muy
corta, entonces la relación de incertidumbre
tiempo-energía exige que la energía de los
fotones emitidos no esté muy bien definida.
Desde el punto de vista del observador, esto
significa que una masa de átomos idénticamente
excitados no producirá, al retornar a su estado
anterior, fotones idénticos. Por el contrario, la
masa de fotones variará en cuanto a energía y
por tanto en frecuencia. Al mirar la luz de
millones de átomos, el observador no ve un
color exactamente definido, sino una mancha de
color concentrada alrededor del centro de la raya
espectral. Las mismas rayas, por tanto, no son
del too claras, sino de bordes borrosos, y su
anchura está directamente relacionada con la
duración del estado de excitación atómica. Así
pues, un estado de corta duración da una raya
ancha debido a que los fotones tienen una
energía muy incierta, mientras que una raya
estrecha indica una larga duración y una
cantidad de energía bastante definida.
Midiendo el ancho de las rayas los físicos
pueden deducir la duración del correspondiente
estado de excitación.
Una de las consecuencias más notables de
la relación de incertidumbre energía-tiempo es la
transgresión de una de las más apreciadas leyes
de la física clásica. En la vieja teoría newtoniana
de la materia, la energía se conserva
rigurosamente. No hay manera de crear ni de
destruir energía, si bien puede transformarse de
una a otra forma. Por ejemplo, un hornillo
eléctrico transforma la energía eléctrica en calor
y luz; una máquina de vapor transforma la
energía química en energía mecánica, y así
sucesivamente. Cualquiera que sea el número
de veces en que se transforme o divida, sigue
habiendo la misma cantidad total de energía.
Esta ley fundamental de la física ha
desmantelado todos los intentos de inventar el
perpetuum mobile —la máquina que funcione sin
combustible—, pues es imposible sacar energía
de la nada.
En el terreno cuántico, la ley de la
conservación de la energía resulta discutible.
Afirmar que la energía se conserva nos obliga, al
menos en principio, a poder medir con exactitud
la energía que hay en un momento y en el
siguiente, para comprobar que la cantidad total
se ha mantenido invariable. Sin embargo, la
relación de incertidumbre energía-tiempo exige
que los dos momentos en que se comprueba la
energía no deban ser demasiado próximos, o
bien habrá cierta indeterminación en cuanto a la
cantidad de energía. Esto abre la posibilidad de
que en periodos muy breves la ley de la
conservación de la energía pudiera quedar en
suspenso. Por ejemplo, podría aparecer energía
espontáneamente en el universo, siempre que
volviera a desaparecer durante el tiempo que
concede la relación de incertidumbre. Hablando
en términos pintorescos, un sistema puede
«tomar prestada» energía según un arreglo
bastante especial: la debe devolver en un plazo
muy breve. Cuando mayor es el préstamo, más
rápida ha de ser la devolución. A pesar del
limitado plazo del préstamo, veremos que
durante su duración es posible hacer cosas
espectaculares con la energía prestada.
Dado que nos ocupamos de sistemas
subatómicos, las cantidades de energía en
cuestión son muy pequeñas para los estándares
cotidianos. No hay posibilidad, por ejemplo, de
hacer funcionar una máquina a base de energía
prestada, como era la ilusión de los inventores
medievales. La energía que emite una luz
eléctrica en un segundo sólo puede ser tomada
prestada, gracias al principio de incertidumbre,
durante una billonésima de billonésima de
billonésima de segundo. Dicho de otro modo, el
mecanismo de préstamo cuántico sólo asciende
a una fracción de la emisión de una lámpara
eléctrica correspondiente a un uno seguido de
treinta y seis ceros.
En el terreno subatómico las cosas son
distintas porque las energías son mucho
menores que en la vida diaria y hay tanta
actividad que incluso periodos de tiempo que son
absolutamente diminutos para nosotros permiten
que ocurran muchas cosas. Por ejemplo, la
energía necesaria para elevar un electrón a un
estado atómico excitado es tan pequeño que
puede tomarse prestada durante varias
milésimas de billonésimas de segundo. Puede
que parezca tratarse de un periodo no muy
largo, pero permite importantes efectos. Si un
fotón encuentra un átomo, puede ser absorbido,
provocando que el átomo se excite al pasar un
electrón a un nivel energético superior. Si el fotón
no tiene la bastante energía para elevar el
electrón, el déficit puede tomarse prestado, lo
que permite que la excitación ocurra
temporalmente. Si el déficit energético no es
demasiado grande, el préstamo puede ser
bastante largo, tal vez de una mil billonésima de
segundo. Este tiempo es lo bastante largo para
que el electrón gire alrededor del átomo y en
cualquier caso es comparable a la duración del
estado de excitación. El resultado es que,
cuando se devuelve el préstamo y el fotón es
reemitido, el átomo ha estado excitado el
suficiente tiempo para reordenar su forma, de
manera que el fotón emitido no lo será en la
misma dirección del primero. Esto cabe
describirlo diciendo que el fotón entrante ha sido
desviado por el átomo hacia otra dirección.
Cuanto más se aproxima el fotón a la
energía exacta necesaria para elevar el electrón
al estado de excitación, menor es el préstamo y
mayor es la duración y el efecto dispersante.
Puesto que la energía es proporcional a la
frecuencia, que a su vez es una medida del color
de la luz, de ahí se deduce que los distintos
colores se dispersarán en distinto grado. Por eso,
hay materiales que son transparentes a unos
colores y no a otros, de manera que se ven
coloreados al mirar a su través. La dispersión
preferencial de la luz de frecuencia alta explica
por qué el cielo es azul: la luz blanca del sol
contiene muchas frecuencias entremezcladas.
Las frecuencias altas corresponden a los colores
como el azul y el violeta, las frecuencias bajas al
verde y el rojo. Cuando la luz del sol choca con
los átomos del aire en la alta atmósfera, parte de
la luz azul se desperdiga coloreando el cielo y la
restante luz, a la que se le ha robado su azul, es
rica en frecuencias bajas, por lo que parece
amarilla. Ésta es la razón de que el Sol sea de
color amarillo. Cuando se ve cerca del horizonte,
la mayor profundidad de la capa de aire que
atraviesa la luz multiplica este efecto,
aumentando la disipación de las frecuencias
bajas, y el Sol adopta un color rojizo.
A manera de ilustración adicional de la
incertidumbre energética, examinemos el
problema de hacer rodar una bola sobre un
montículo. De impulsarla con poca energía, la
bola alcanza sólo parte de la altura del
montículo, donde se detiene y rueda de vuelta.
Por otra parte, de lanzarla con mucha energía, la
bola conseguirá llegar hasta la cumbre del
montículo, donde comenzará a rodar hacia abajo
por el lado opuesto. Se plantea entonces el
problema de si la bola puede tomar prestada la
suficiente energía, mediante el mecanismo de
préstamo de Heisenberg, para superar el
montículo aun cuando haya sido lanzada a muy
poca velocidad.
Para comprobar estas ideas se puede
estudiar el comportamiento de los electrones,
que hacen el papel de bolas, cuando entran en el
campo de una fuerza eléctrica que actúa lo
mismo que un montículo desacelerando el
ascenso de los electrones. Si se disparan
electrones contra esta barrera electrónica se
comprueba efectivamente que algunos
atraviesan la barrera, incluso cuando la energía
de lanzamiento es muy inferior a la que
necesitan para superar el obstáculo según las
consideraciones extracuánticas. Si la barrera es
delgada y no demasiado «alta», la energía
necesaria pueden tomarla prestada los
electrones durante el breve periodo de tiempo
necesario para que los electrones se desplacen a
través de ella. Por tanto, el electrón aparece al
otro lado de la barrera, aparentemente
habiéndose abierto paso a su través. Este
llamado efecto túnel, como todos los fenómenos
controlados por la teoría cuántica, es de
naturaleza estadística: los electrones tienen una
cierta probabilidad de atravesar la barrera.
Cuanto mayor sea el déficit energético, más
improbable es que el principio de incertidumbre
les sirva de fiador. En el caso de una bola real
que pese unos cien gramos y de un montículo
de diez metros de altura y diez metros de
espesor, la probabilidad de que la bola se abra
paso a través del montículo cuando todavía está
a un metro de la cima es sólo una entre un uno
seguido de un billón de billones de billones de
ceros.
Aunque irrelevante para los objetos
macroscópicos, el efecto túnel es vital para
algunos procesos subatómicos. Uno de estos
procesos es la radioactividad. El núcleo del
átomo está rodeado de una barrera similar a un
montículo, provocado por la competencia entre
la repulsión eléctrica y la atracción nuclear. Las
partículas que forman parte del núcleo, como los
protones, son fuertemente repelidas por las
cargas eléctricas de todos los protones vecinos,
pero habitualmente no son expulsadas del
núcleo debido a que la fuerza eléctrica es
superada por fuerzas atractivas mayores que
mantienen el núcleo unido. No obstante, estas
últimas tienen un alcance muy reducido y
desaparecen por completo fuera de la superficie
del núcleo. De ahí se sigue que, si un protón
fuera apartado a una corta distancia del núcleo y
dejado en libertad, sería lanzado hacia fuera a
gran velocidad por el campo eléctrico, siendo
impotente para impedirlo la fuerza nuclear, como
consecuencia de su aislamiento del núcleo.
Las emanaciones de alta velocidad de
núcleos atómicos radiactivos fueron descubiertas
por Henri Becquerel en 1898 y denominadas
rayos alfa. Pronto se descubrió que en absoluto
eran rayos, sino partículas; en realidad son
cuerpos compuestos que constan de dos
protones unidos con dos neutrones. La
explicación del escape de las partículas alfa de
los núcleos radiactivos se basa en el efecto
túnel. La partícula alfa, cuando está dentro del
núcleo, no tiene la suficiente energía para
superar los lazos de la fuerza nuclear que
mantiene unidas las partículas. Permanece
atrapada en el núcleo por una barrera de fuerza
que no puede sobrepasar. Sin embargo,
tomando energía prestada durante tan sólo una
millonésima de billonésima de segundo —que es
lo que tarda una partícula alfa en recorrer las
diez millonésimas de millonésima de centímetro
de la superficie nuclear—, la partícula puede
escapar. En un préstamo de tan corta duración,
la energía que se toma prestada es comparable
a la energía que existe en la partícula alfa, de
modo que su comportamiento sufre una
profunda modificación.
Atraviesa la barrera y aparece del otro lado,
donde la fuerza eléctrica libre de trabas, la lanza
a enorme velocidad convirtiéndola en un rayo
alfa. En todo núcleo donde esto sea posible, hay
una cierta probabilidad de que, tras un
determinado tiempo, se produzca una emisión
alfa. Así, en una gran masa de átomos
radiactivos, al duplicarse este tiempo se
producirán el doble de emisiones. Por tanto, toda
materia radiactiva tiene una determinada vida
media contra la desintegración, cuya duración
depende sensiblemente del tamaño y el espesor
de la barrera que constituye la fuerza nuclear.
Un comportamiento igual de notable
presentan las partículas cuya energía excede la
necesaria para superar la barrera. Debido a la
naturaleza ondulatoria de la materia, algunas
ondas se reflejan en la barrera, por mucha
energía que tanga la partícula. Esto implica una
determinada probabilidad de que la partícula
rebote en una barrera por mínima que ésta sea.
De hecho hay una probabilidad, aunque
increíblemente pequeña, de que una bala rebote
al chocar contra una hoja de papel.
A comienzos de la década de 1930, la teoría
cuántica se combinó con la relatividad especial,
gracias en gran medida a la obra de Paul Dirac,
e inmediatamente abrió nuevos horizontes.
Hasta entonces, las ecuaciones que utilizaban
los físicos para describir las ondas de la materia,
las ecuaciones de Schrödinger, eran
matemáticamente inconsistentes con el principio
de la relatividad especial. Dirac buscaba unas
ecuaciones sustitutivas, pero encontró que no se
podía conseguir una fórmula satisfactoria
utilizando los tipos de objetos matemáticos
entonces conocidos. Le fue necesario inventar
un nuevo tipo de magnitud, llamada spinor, que
permitiera a sus ecuaciones las simetrías
adicionales inherentes a la teoría de la
relatividad. La ecuación de Dirac predice en
general resultados que se diferencian poco de los
de la anterior ecuación no-relativista. Pero de ella
surgieron dos rasgos nuevos y de profunda
significación.
El primero se refiere al comportamiento de
las partículas cuando se las somete a rotación.
Las leyes de la mecánica cuántica hacen
predicciones concretas sobre el comportamiento
de los cuerpos que se mueven siguiendo
trayectorias curvas, tales como órbitas circulares.
Dirac descubrió que para que estas leyes se
sostengan es preciso suponer que la propia
partícula está de alguna manera rotando (en
ingles spinning, de donde proviene el nombre de
spinor). El movimiento del electrón alrededor del
átomo, por ejemplo, se parece al de la Tierra
(que también rota sobre su propio eje) yendo
alrededor del Sol. La rotación intrínseca del
electrón tiene un rasgo incómodo, sin embargo,
que no presenta la rotación de la Tierra.
Imagínese una bola que rota en el sentido de las
agujas del reloj alrededor de un eje vertical. Si se
voltea la bola de arriba abajo, rotará en el sentido
contrario a las agujas del reloj alrededor del
mismo eje vertical. Continuando el giro de la bola
hasta completar los 360°, de vuelta a su
posición original, volverá a girar en el sentido de
las agujas del reloj.
Esta descripción parece tan evidente que
uno tiende a darla por sentada y a suponer que
se aplica también a los pequeños cuerpos
rotatorios, incluidos los electrones.
Lo extraordinario es que los electrones
sencillamente no vuelven a su situación anterior
cuando se les da una vuelta entera. En realidad,
necesitan dos revoluciones completas y
sucesivas para volver a la misma posición. Es
como si los electrones tuviesen una doble
perspectiva del universo, un rasgo casi sin
paralelo en los cuerpos microscópicos y
absolutamente misterioso desde el punto de
vista de la experiencia cotidiana.
El origen de la doble naturaleza de los
electrones afecta, durante las rotaciones, al
comportamiento de la onda que llevan asociada.
Resulta que después de una sola revolución,
la onda vuelve, por así decirlo, con las crestas y
los vientres intercambiados, y sólo una segunda
rotación restaura la configuración original. Todo
esto indica que el movimiento giratorio interno de
las partículas subatómicas tiene en realidad un
carácter muy distinto al de la sencilla idea de una
esfera rotatoria. Sin embargo, el spin intrínseco
puede medirse en el laboratorio y, en realidad,
se infirió su existencia a partir de unas curiosas
líneas dobles muy concretas en el espectro
atómico, antes de que Dirac llegase a su
explicación. No todas las partículas subatómicas
poseen esta peculiar rotación de tipo Dirac, con
su doble carácter. Hay partículas que en
absoluto rotan y un presentan la doble imagen,
mientras que otras tienen dos o cuatro unidades
de spin. No obstante, las partículas conocidas —
electrones, protones y neutrones— que
componen la materia ordinaria, son todas
partículas de tipo Dirac, con el característico
spin.
El trabajo de Dirac dio lugar a otro
sensacional resultado que es todavía más
extraordinario que el spin intrínseco. Las
consecuencias completas de la ecuación de
Dirac no se extrajeron sino al cabo de años, pero
desde el comienzo, en 1931, el propio Dirac se
concentró en un rasgo simple pero peculiar de
sus nuevas matemáticas. Como todos los
físicos, Dirac consideraba que las ecuaciones
eran algo a resolver y suponía que cada solución
representaba la descripción de alguna situación
física real. Así, por ejemplo, si se utilizaba la
ecuación para estudiar el movimiento de un
electrón que orbita alrededor de un núcleo de
hidrógeno, entonces cada solución debía
corresponder a un posible estado concreto de
movimiento. Como era de esperar, la ecuación
de Dirac poseía un número infinito de soluciones,
una para cada nivel energético del átomo, y
todavía más para los movimientos de los
electrones energéticos que se mueven
desligados de la atracción del núcleo de
hidrógeno. Lo sorprendente fue, no obstante, el
descubrimiento de todo un conjunto de
soluciones adicionales que no tenían ninguna
contrapartida física evidente. De hecho, a
primera vista parecían carecer por completo de
sentido. Para cada solución de la ecuación de
Dirac que describe un electrón con una energía
dad, hay una especie de solución refleja que
describe otro electrón con igual cantidad de
energía negativa.
La energía, lo mismo que el dinero, se
consideraba hasta entonces una cualidad
puramente positiva. Un cuerpo posee energía si
se mueve, si tiene carga eléctrica o si es
excitado de cualquier otro modo. Probablemente
sea posible extraer toda la energía de un cuerpo
hasta dejarlo a cero de energía, pero, ¿qué
significa una energía inferior a cero? ¿Qué
aspecto tendría y cómo se comportaría un
cuerpo con energía negativa? Al principio, Dirac
desconfiaba mucho de estas soluciones reflejas,
cuya evidente interpretación era que se trataba
de caprichos extrafísicos —mero exceso de
equipaje matemático— y no de descripciones del
mundo real. Sin embargo, la experiencia ha
demostrado que cuando existe una solución
matemática a una ley de la naturaleza, también
suelen existir contrapartidas físicas. Dirac estudió
qué ocurriría si estos curiosos estados de
energía negativa fueran estados
verdaderamente posibles de la materia. Se dio
cuenta de que presentaban una gran paradoja,
porque en apariencia permitían que cualquier
electrón ordinario (es decir, de energía positiva)
saltara a un estado de energía negativa
mediante la emisión de un fotón. Entonces, lo
que habitualmente suele considerarse el estado
energético mínimo o estado fundamental de,
pongamos, e átomo de hidrógeno ya no sería, a
fin de cuentas, el estado mínimo, y habría que
volver al problema clásico de cómo se evita que
los átomos se colapsen. Además, no hay límites
al tamaño negativo de los estados de Dirac, de
tal modo que toda la materia del universo
amenaza con caer en un pozo sin fondo entre
una infinita lluvia de rayos gamma.
Para evitar esta catástrofe, Dirac hizo una
notable propuesta.
¿Qué pasaría si la materia ordinaria eludiera
la caída infinita debido a que todos los estados
de energía negativa estuvieran ya ocupados por
otras partículas? El razonamiento que hay tras
esta idea brota de un importante descubrimiento
hecho por el físico alemán Wolfgang Pauli en
1925. Pauli estudió las propiedades de las
partículas con spin, pero no aisladas, sino
colectivamente. La curiosa naturaleza doble del
spin intrínseco está íntimamente relacionada con
la manera en que dos o más de tales partículas
responden a la proximidad de las demás. Como
consecuencia de sus propiedades ondulatorias,
dos electrones percibirán su mutua presencia,
absolutamente al margen de la fuerza eléctrica
que actúe entre ellos, porque las crestas y los
vientres de la onda del uno se superpondrán e
interferirán con las crestas y vientres del otro. Un
estudio matemático de este efecto demuestra
que existe un tipo de repulsión que evita que
haya más de un electrón que ocupe en cada
momento el mismo estado. Dicho de manera
informal, dos electrones no pueden agolparse
demasiado cerca. Es como si cada electrón
poseyera una pequeña unidad de territorio que
no puede ser invadido por sus semejantes.
El principio de exclusión de Pauli, como llegó
a denominarse la propiedad territorial, conduce a
algunos efectos importantes.
Implica que los electrones densamente
apretados tengan una extraordinaria rigidez,
puesto que la tendencia a la exclusividad les
impide apretujarse en el mismo espacio.
Uno de los lugares donde la concentración
de la materia es más feroz es el centro de las
estrellas. El inmenso peso de las estrellas hace
que sus núcleos se encojan bajo la gravedad de
las enormes densidades, quizá de hasta mil
millones de kilogramos por centímetro cúbico.
Mientras continúan ardiendo, impiden una mayor
contracción mediante la producción de grandes
cantidades de calor que elevan la presión interior.
En último término, empero, el combustible se va
consumiendo y se produce una progresiva
contracción hasta que los electrones empiezan a
sentirse incómodos por la proximidad de sus
vecinos. Entonces entra en juego el principio de
Pauli que trata de impedir que la estrella continúe
aplastándose. En las estrellas como el Sol, se
tardará unos cinco millones de años más en
llegar a tal estado, pero cuando se alcance las
consecuencias serán espantosas. Las
propiedades de esta materia ultraaplastada
están predominantemente controladas por la
actividad colectiva de los electrones. Un
resultado de este principio de exclusividad es que
el material estelar se comporta de manera
extraña en presencia del calor. Al inyectar calor,
en lugar de provocar que la materia se expanda
y enfríe, el calor permanece atrapado, elevando
la temperatura.
Si este proceso prosigue hasta el punto en
que comienzan a arder nuevas reservas de
combustible estelar, el calor contenido crece
súbitamente como en una olla a presión
sobrecalentada y el núcleo de la estrella explota,
en un paroxismo lo bastante violento para
deshacerla en fragmentos, pero sí lo bastante
traumático para alterar drásticamente su
estructura, pasando de ser una gran estrella roja
y fría a ser una gigante azul muy caliente. Por
último, todo el combustible se quema y una
estrella como nuestro Sol acaba sus días
encogiéndose hasta un tamaño como el de la
Tierra, sostenida contra nuevos
desmoronamientos por los electrones.
Otro lugar donde la rigidez entre los
electrones desempeña un papel vital es el
interior del átomo. Un gran átomo puede
contener docenas de electrones orbitando
alrededor del núcleo y, a primera vista, parece
que todos ellos deberían desmoronarse hasta el
mínimo de energía disponible. De ocurrir así,
todos los electrones quedarían revueltos en
estrecha proximidad y de forma caótica, y es
dudoso que pudieran formarse tan siquiera
enlaces químicos estables. Lo que en realidad se
ha visto que sucede es que los electrones se
apilan en ordenadas capas unos alrededor de los
otros, evitando las capas inferiores el
desmoronamiento de las superiores, de acuerdo
con el principio de exclusión de Pauli. Sin el juego
de este principio, todos los átomos pesados se
descompondrían en una masa informe.
Volviendo al problema de los estados de
energía negativa de Dirac, el principio de Pauli
ofrece una solución a la paradoja.
Al igual que a los electrones de un átomo se
les impide caer a los niveles más bajos de
energía al estar estos niveles ocupados por otros
electrones, también los simples electrones
verían impedida su caída en el pozo sin fondo si
el pozo ya estuviera lleno de electrones. La idea
es sencilla, pero padece de un evidente defecto.
¿Dónde están todos esos electrones (y
demás partículas) de energía negativa que
bloquean el pozo? Al no tener éste fondo, sería
menester un número infinito de partículas para
rellenarlo. La respuesta de Dirac parece a
primera vista poco convincente. Argumenta que
este conjunto infinito de partículas es invisible, de
modo que lo que normalmente nosotros
consideramos el espacio vacío no está
realmente vacío, sino lleno de un infinito mar de
materia de energía negativa no detectada.
A pesar de lo que tiene de disparatada, la
idea de Dirac cuenta con cierta capacidad la
predicción.
Examinemos, por ejemplo, cómo
respondería uno de estos habitantes invisibles
del espacio a la presencia de un fotón. Al igual
que un electrón cualquiera, el electrón de energía
negativa absorbe el fotón y utiliza su energía
para saltar a un estado energético superior,
siempre que haya espacio disponible. Si la
energía del fotón es lo bastante grande, puede
elevar directamente al electrón negativo fuera
del pozo, colocándolo en un estado de energía
positiva normal, donde hay mucho sitio. Tal
acontecimiento sería presenciado por nosotros
en forma de abrupta aparición de la nada de un
nuevo electrón y la simultánea desaparición de
un fotón. Puesto que el electrón con energía
positiva es observable, la transición de la energía
negativa a la positiva significa que el electrón
sencillamente se materializa saliendo del espacio
vacío. Pero no es eso todo.
Deja tras de sí un agujero en el mar de
energía negativa. Si bien la presencia de un
electrón de energía negativa es invisible, su
ausencia (es decir, el agujero) debe ser visible.
La ausencia de energía negativa, de una
partícula con carga negativa, debe aparecer ante
nosotros como la presencia de una energía
positiva, de una partícula con carga positiva. Así
pues, junto al recién creado electrón habrá una
especie de partícula espejo con carga eléctrica
contraria, positiva.
Por tanto, la teoría de Dirac predice un tipo
completamente nuevo de materia, actualmente
denominada antimateria. Un fotón energético
debe ser capaz de crear el par electrón-
antielectrón o bien el par protón-antiprotón. En
1932, Carl Anderson, un físico norteamericano,
descubrió un antielectrón (habitualmente llamado
positrón) entre los residuos subatómicos de una
lluvia de rayos cósmicos. Desde entonces se
han producido en los laboratorios cientos de
partículas de antimateria, confirmando
espectacularmente la ecuación de Dirac.
Como se esperaba, la antimateria no
sobrevive mucho tiempo. El hueco que queda
en el mar de energía negativa será buscado por
cualquier partícula de energía positiva situada
por encima. Si un electrón ordinario encuentra tal
agujero, desaparecerá en su interior y se
desvanecerá del universo, emitiendo un rayo
gamma como pago de su pérdida de energía.
Este proceso es el inverso de la creación del par
y se interpreta como que el encuentro de un
electrón con un positrón conduce a su mutua
aniquilación. De manera que siempre que la
materia y la antimateria se encuentran, el
resultado es una desaparición explosiva.
La idea de que la materia se cree y se
aniquile es una consecuencia de la teoría de la
relatividad, que Dirac incorporó cuidadosamente
a su ecuación. En el capítulo 2 vimos que si un
cuerpo se acelera hasta cerca de la velocidad de
la luz, se irá volviendo cada vez más pesado
como procedimiento para impedir ser empujado
más allá de la barrera de la luz.
El exceso de peso representa la conversión
de la energía en masa, que a menor velocidad
se dirigiría, por el contrario, a aumentar la
velocidad del cuerpo. De ahí se deduce que la
masa es, en realidad, una mera forma de
energía encerrada. Por ejemplo, un protón
contiene una billonésima de billonésima de
gramo de masa, pero tan concentrada está esta
energía enjaulada que incluso una cantidad de
materia tan pequeña puede producir un destello
de luz visible para el ojo humano a diez metros
de distancia. La conversión de la energía en
materia explica la súbita aparición de los pares
partícula-antipartícula por el mecanismo de
Dirac, estipulándose la cantidad de energía
necesaria según la famosa fórmula de Einstein
E=mc2. El proceso inverso, en el que la materia
se convierte en energía, también ocurre en las
bombas atómicas y en las centrales atómicas,
así como en el Sol, cuya fuente de energía es la
desaparición de cuatro millones de toneladas de
masa por segundo.
Si la masa no es sino una forma de energía,
como sostiene Einstein, entonces la energía, lo
mismo que la masa, debe tener peso. ¿Qué
ocurre con los cuatro millones de toneladas de
materia solar que se pierden cada segundo? La
respuesta es que se convierten en luz solar, de
tal modo que un segundo de luz solar debe
pesar cuatro millones de toneladas. ¿Cómo se
puede comprobar esto? La cantidad total de luz
solar que choca cada segundo contra la Tierra
pesa la miseria de dos kilos, de tal modo que
sería vano recoger la luz solar y pesarla.
Sorprendentemente, es mejor estrategia
pesar la luz aún más débil de las estrellas
lejanas. Utilizando la gravedad solar para
aumentar el peso de la luz algo por encima de
su peso en la Tierra, puede pesarse un rayo de
luz estelar que roza encima de su peso en la
Tierra, puede pesarse un rayo de luz estelar que
roza el borde del Sol observando su
combamiento por la gravedad solar. Esto es lo
que hizo Eddington durante el eclipse solar de
1919.
Aunque resulte impresionante, la teoría de
Dirac del mar de partículas invisibles de energía
negativa resulta difícil de tragar literalmente. Los
posteriores progresos matemáticos demostraron
que en realidad su modelo sólo es heurístico y
que la ecuación de Dirac requiere una nueva
elaboración matemática para poder explicar
globalmente la aparición y desaparición de la
materia. En la teoría más moderna, la creación y
la aniquilación de pares ocurre como antes, pero
las dificultades que presentaban los estados de
energía negativa no surgen en los mismos
términos.
Cuando se combina la probabilidad de
creación de un par de partículas con la relación
de incertidumbre entre la energía y el tiempo de
Heisenberg, se hacen posibles algunos efectos
nuevos y espectaculares. Sacar un electrón del
mar de energía negativa y, en consecuencia,
crear un par electrón-positrón exige un rayo
gamma de energía igual, como mínimo, a
2mc2, el doble del segundo término de la
ecuación de Einstein.
No obstante, esta cantidad bastante grande
de energía puede tomarse prestada durante
alrededor de una mil millonésima de billonésima
de segundo, lo que permite al par electrón-
positrón pasar transitoriamente por la existencia
antes de volver a desvanecerse. Estos pares
fantasmas llenan todo el espacio.
Lo que nosotros solemos considerar como
espacio vacío es, en realidad, un mar de
incesante actividad, lleno de todas clases de
materia no permanente; electrones, protones,
neutrones, fotones, mesones, neutrinos y otras
muchas más especies de materia, cada una de
las cuales sólo existe durante ínfimas fracciones
de tiempo. Para distinguir estos intrusos de las
formas más permanentes de materia que todos
conocemos, los físicos utilizan la palabra virtual
para los primeros y real para las últimas.
E st a melée fantasmal no es una simple
metáfora de los teóricos, pues las fluctuaciones
de la ebullición pueden producir efectos
cuantificables, incluso en los objetos cotidianos.
Por ejemplo, el estado gelatinoso de
determinadas pinturas procede de fuerzas
moleculares inducidas por estas fluctuaciones del
vacío. También es posible perturbar el vacío
introduciendo materia. Una plancha de metal,
que refleja la luz, también refleja los
evanescentes fotones virtuales del vacío.
Atrapándolos entre dos placas paralelas es
posible alterar ligeramente su energía, lo que
produce una fuerza cuantificable en las placas.
Estas nuevas posibilidades modifican
drásticamente la imagen que tenían los físicos
de las partículas subatómicas. El electrón, por
ejemplo, ya no puede considerarse como un
simple objeto puntual, pues está continuamente
emitiendo y absorbiendo fotones virtuales a
través del mecanismo de préstamo de energía
de Heisenberg. Por tanto, cada electrón está
envuelto en una nube de fotones virtuales y, si
nos acercamos más, deducimos también la
presencia de protones, mesones, neutrinos y
todas las demás especies de partículas virtuales
que zumban alrededor del electrón como un
enjambre en acción. En realidad, todas las
partículas subatómicas están revestidas de esta
especie de elaborada y compleja capa de
materia virtual.
A veces la nube virtual produce inesperados
efectos físicos. Por ejemplo, el neutrón es una
partícula eléctricamente neutra, como su mismo
nombre indica, de modo que no transporta
ninguna carga eléctrica.
No obstante, todo neutrón está revestido de
una nube de partículas virtuales, parte de las
cuales tienen carga eléctrica. Siempre estará
presente el mismo número de cargas positivas y
de negativas, pero éstas no han de estar
necesariamente en el mismo lugar. Por tanto,
existe la posibilidad de que un neutrón esté
rodeado de capas de partículas virtuales con
carga eléctrica, como son los mesones.
Por ello, cuando se dispara un electrón
contra un neutrón, desperdigará esta electricidad,
lo que permitirá trazar un mapa de la distribución
de la carga alrededor del neutrón. Además, al
ser una partícula de tipo Dirac, el neutrón posee
u n spin intrínseco, lo que quiere decir que
conforme rota arrastra a su alrededor estas
capas cargadas, estableciendo minúsculas
corrientes eléctricas. Estas corrientes crean un
campo magnético medible en el laboratorio.
Cuando se realizó esta medición por primera
vez, en 1933, produjo consternación entre los
físicos, que no contaban con que un objeto
eléctricamente neutro tuviera campo magnético.
Podemos imaginar que cada partícula
transporta consigo todo un séquito de partículas
virtuales.
Ninguna de las partículas virtuales vive lo
bastante para adquirir el título de entidad
independiente, pues pronto es reabsorbida por
su progenitor. A su vez, cada partícula virtual
transporta su propia subnube de otras partículas
virtuales cuya existencia es aún más
evanescente, y así sucesivamente hasta el
infinito. Si, por la razón que fuera, el vehículo
progenitor desapareciera, las partículas virtuales
no podrían ser absorbidas y serían
promocionadas a reales. Esto es lo que ocurre
cuando la materia encuentra a la antimateria; por
ejemplo, cuando un protón tropieza con un
antiprotón, ambos desaparecen de repente y
quedan algunos mesones, o quizá fotones, de la
nube virtual que no tienen adónde ir. Por tanto,
aparecen en el universo como nuevas partículas
de materia real, una vez satisfecho su préstamo
de Heisenberg, de una vez por todas, con la
masa-energía del par protón-antiprotón
sacrificado.
Con ayuda de la relación de incertidumbre
energía-tiempo se pueden explicar otros muchos
fenómenos subatómicos. Uno de los problemas
fundamentales de la microfísica es explicar
cómo dos partículas se afectan mutuamente por
medio de una fuerza eléctrica.
Antes de la teoría cuántica, los físicos
imaginaban que cada partícula cargada estaba
envuelta en un campo electromagnético que
actuaba sobre las demás partículas cercanas
dando lugar a una fuerza.
Cuando la teoría cuántica demostró que las
ondas electromagnéticas están confinadas en los
cuantos, se intentó describir todos los efectos del
campo electromagnético en función de los
fotones. No obstante, cuando dos electrones se
repelen mutuamente, no hay necesidad de que
participe ningún fotón visible, y la explicación
hubo de esperar hasta que se desarrolló la
noción de partícula o cuanto virtual en la década
de 1930. La fuerza eléctrica de atracción y de
repulsión se entiende ahora de la siguiente
manera.
Cada electrón está rodeado de una nube de
fotones virtuales, cada uno de los cuales sólo
vive transitoriamente de la energía que toma
prestada antes de ser reabsorbido por el
electrón. Cuando se acerca otra partícula
cargada, surge sin embargo una nueva
posibilidad. Una de las partículas podrían crear
un fotón virtual que podría ser absorbido por la
otra. El análisis matemático revela que este
intercambio de fotones virtuales produce de
hecho una fuerza entre las partículas que posee
exactamente las mismas características que
cabe esperar de un campo magnético.
Tras el éxito de explicar satisfactoriamente
las fuerzas eléctricas (y magnéticas) en función
del intercambio de fotones, se planteó el
problema de si las demás fuerzas de la
naturaleza —las fuerzas de la gravedad y del
núcleo— no se podrían describir de manera
similar. La cuantización de la gravedad es un
tema importante que pospondremos para el
próximo capítulo. El problema del origen de las
fuerzas nucleares se resolvió a mediados de los
años treinta.
La fuerza nuclear fuerte que mantiene
unidos a los componentes del núcleo (protones y
neutrones) tiene una naturaleza absolutamente
distinta que la fuerza electromagnética. En
primer lugar, es varios cientos de veces mayor,
pero aún más problemática es la forma en que
varía con la distancia. La fuerza eléctrica entre
dos partículas cargadas disminuye lentamente
conforme se alejan, de acuerdo con la llamada
ley de la gravitación universal. Por el contrario, la
fuerza nuclear no se altera mucho en distancias
pequeñas, hasta que las partículas distan entre
sí alrededor de una diez billonésima de
centímetro, en que de repente desciende a cero.
La abrupta desaparición de la fuerza nuclear en
tan corto espacio es vital para la estructura y la
estabilidad de los núcleos, pero significa que no
puede explicarse por el intercambio de cuantos
similares a los fotones virtuales.
La solución la encontró el físico japonés
Hideki Yukawa en 1935. Propuso que las
partículas nucleares intercambian cuantos
virtuales de un nuevo tipo de campo —el campo
nuclear—; pero, a diferencia de los fotones
virtuales, los cuantos de Yukawa poseen masa.
Cómo la presencia de la masa da lugar a
una fuerza de extensión limitada puede
comprenderse fácilmente a partir de la relación
de incertidumbre energía-tiempo. De acuerdo
con la ecuación de Einstein E=mc2, la masa es
una forma de energía y, como ya hemos visto,
al crearse una masa se gasta una gran cantidad
de energía. Para crear un cuanto virtual de
Yukawa es necesario tomar prestada mucha
más energía para poder dar lugar a la masa. En
función del mecanismo de Heisenberg, la
duración del préstamo debe ser
proporcionalmente más corta, de modo que la
distancia a que puede desplazarse la partícula
virtual de Yukawa es muy limitada. Yukawa
elaboró un tratamiento matemático completo y
descubrió que la fuerza entre las dos partículas
nucleares debe en realidad disminuir
rápidamente al superar cierto límite. Como era
de esperar, el límite guarda una relación simple
con la masa del cuanto virtual y, utilizando el
dato experimental de que la fuerza se
desvanece alrededor de la diez billonésima de
centímetro, Yukawa pudo determinar que la
masa de su cuanto era de, más o menos,
trescientas veces la masa de un electrón.
En este punto surgió una nueva e
interesante posibilidad. Así como los fotones
virtuales pueden promocionarse a reales por el
sistema de aniquilar los electrones a que están
vinculados, quizá también fuera posible dar
existencia independiente a las partículas virtuales
de Yukawa si se aniquilaran las partículas del
átomo a que estaban vinculadas. Por ejemplo, si
un antiprotón choca con un protón, entonces, la
abrupta y mutua desaparición de este par
debería dar lugar a una lluvia de nuevas
partículas. Yukawa llamó a éstas mesones,
puesto que su masa se sitúa en algún punto
intermedio entre la de los electrones y la de los
protones. Unos diez años después se
descubrieron los mesones de Yukawa, al igual
que los positrones de Dirac, en los residuos
subatómicos de los rayos X. En la actualidad, se
producen de forma rutinaria, mediante la
aniquilación de antiprotones y por otros muchos
procedimientos, en los gigantescos aceleradores
de partículas.
Aunque muchas de las ideas expuestas en
este capítulo se han presentado de manera muy
elemental y en realidad requieren un tratamiento
matemático completo para hacerlas exactas y
precisas, no obstante, sus consecuencias son
importantes. El mundo en apariencia concreto
que nos rodea resulta ser una ilusión cuando
sondeamos los microscópicos escondrijos de la
materia. Encontramos ahí un mundo cambiante,
de transmutaciones y fluctuaciones, donde las
partículas materiales pierden su identidad e
incluso desaparecen por completo.
Lejos de ser un mecanismo de relojería, el
microcosmos se disuelve en una especie de
mundo caótico y evanescente donde la
fundamental indeterminación de los atributos
observables trasciende muchos de los más
valiosos principios de la física clásica. El afán por
buscar una legalidad subyacente a toda esta
anarquía subatómica es fuerte, pero, como
veremos, en apariencia infructuoso. Tenemos
que aceptar el hecho de que el mundo es mucho
menos sustancial y fiable de lo que hasta ahora
imaginábamos.
Capítulo V

Superespacio

En el terreno de los cuantos, el mundo en


apariencia concreto de la experiencia se disuelve
en el barullo de las transmutaciones
subatómicas. El caos se sitúa en el corazón de
la materia; cambios aleatorios, únicamente
condicionados por leyes probabilísticas, dotan al
tejido del universo de características parecidas a
las de la ruleta. Pero, ¿qué puede decirse del
propio terreno de juego donde se desarrolla esta
partida de azar, el telón de fondo del espacio-
tiempo sobre el que las partículas insustanciales
e indisciplinadas de la materia llevan a cabo sus
cabriolas? En el capítulo 2 vimos que el mismo
espacio-tiempo no es absoluto o inmodificable tal
como tradicionalmente se pensaba. También el
espacio-tiempo tiene características dinámicas,
que le hacen curvarse y distorsionarse,
evolucionar y mutar. Estos cambios del espacio
y del tiempo ocurren tanto localmente, en las
vecindades de la Tierra, como globalmente
conforme el universo se dilata al expansionarse.
Los científicos han reconocido hace mucho
tiempo que las ideas de la teoría cuántica deben
aplicarse a la dinámica del espacio-tiempo a la
vez que a la materia, hecho éste que da lugar a
las más extraordinarias consecuencias.
Uno de los resultados más estimulantes de
la teoría de la gravedad de Einstein —la llamada
teoría de la relatividad general es la posibilidad
de que haya ondas gravitatorias. La fuerza de la
gravedad es, en algunos aspectos, parecida a la
fuerza eléctrica entre partículas cargadas o a la
atracción entre imanes, pero con las masas
desempeñando el papel de las cargas. Cuando
las cargas eléctricas se alteran violentamente,
como ocurre en los transmisores de radio, se
generan ondas electromagnéticas. La razón de
que ocurra esto es fácil de visualizar.
Si concebimos que la carga eléctrica está
rodeada por un campo eléctrico, entonces
cuando la carga se mueve también el campo
debe adaptarse a la nueva posición. No
obstante, no puede hacerlo instantáneamente: la
teoría de la relatividad prohíbe que ninguna
información se desplace a mayor velocidad que
la de la luz, de tal modo que las regiones
exteriores del campo no saben que la carga se
ha movido hasta al menos transcurrido el tiempo
que tarda la luz en desplazarse hasta ellas desde
la carga. De ahí se sigue que el campo se riza o
distorsiona, puesto que cuando la carga
comienza a moverse las regiones lejanas del
campo no cambian mientras que el campo
situado en las proximidades de la carga
responde rápidamente. El efecto es el envío de
una pulsación de fuerza eléctrica y magnética
que se desplaza hacia el exterior atravesando el
campo a la velocidad de la luz. Esta radiación
electromagnética transporta energía desde la
carga hacia el espacio que la rodea. Si la carga
oscila adelante y atrás de modo sistemático, la
distorsión del campo oscila de la misma manera,
y la pulsación que lo recorre adopta la forma de
una onda. Las ondas electromagnéticas de este
tipo las conocemos experimentalmente en forma
de luz visible, ondas de radio, radiación de calor,
rayos X, etcétera, según cuál sea la longitud de
onda.
De modo análogo a como se producen las
ondas electromagnéticas, cabría esperar que las
perturbaciones de los cuerpos masivos dieran
lugar a pulsaciones en los campos gravitatorios
que los rodean. En este caso, sin embargo, los
rizos son pulsaciones del espacio mismo, puesto
que según la teoría de Einstein, la gravedad es
una manifestación de la distorsión del espacio-
tiempo. Las ondas gravitatorias pueden, pues,
visualizarse como ondulaciones del espacio que
se irradian desde la fuente de la perturbación.
Cuando el físico británico del silo pasado
James Clerk Maxwell propuso por primera vez,
basándose en el análisis matemático de la
electricidad y el magnetismo, que las ondas
electromagnéticas podían producirse mediante la
aceleración de cargas eléctricas, se puso gran
interés en producir y detectar ondas de radio en
el laboratorio. El resultado de los estudios
matemáticos de Maxwell han sido la radio, la
televisión y las telecomunicaciones en general.
En apariencia, las ondas gravitatorias deberían
resultar igualmente importantes. Por desgracia,
la gravedad es tan débil que sólo las ondas que
transportan una enorme cantidad de energía
tienen algún efecto detectable por nuestra actual
tecnología. Es necesario que ocurran
cataclismos de dimensiones astronómicas para
que se detecten las ondas gravitatorias. Por
ejemplo, si el Sol explotara o cayese en un
agujero negro, los instrumentos actuales
registrarían fácilmente las perturbaciones
gravitatorias, pero incluso acontecimientos tan
violentos como la explosión de una supernova
en otra parte de nuestra galaxia se mantienen
más o menos en los límites de lo detectable.
Los detectores de ondas gravitatorias, como
los receptores de radio, operan según un
principio muy simple: los rizos espaciales, al
recorrer el laboratorio, dan lugar a vibraciones en
todos los objetos. Los rizos actúan ensanchando
y encogiendo alternativamente el espacio en una
determinada dirección, de manera que todos los
objetos que encuentran en su camino se
ensanchan y estrujan en una medida diminuta,
con la consecuencia de que pueden inducirse
oscilaciones por simpatía en barras metálicas y
en cristales inverosímilmente puros del
adecuado tamaño y forma. Estos objetos se
sostienen con suma delicadez y se aíslan de
otras fuentes más habituales de perturbación,
como son las ondas sísmicas a los vehículos a
motor. Persiguiendo vibraciones diminutas, los
físicos han intentado detectar el paso de la
radiación gravitatoria. La tecnología utilizada es
muy avanzada: consiste en barras de puro cristal
de zafiro tan grandes como el brazo y detectores
de oscilaciones tan sensibles que son capaces
de registrar un movimiento de la barra inferior al
tamaño de un núcleo atómico.
A pesar de esta impresionante
instrumentación, las ondas gravitatorias todavía
no han sido detectadas sobre la Tierra a
satisfacción de todo el mundo. No obstante, en
1974, se descubrió un tipo peculiar de objeto
astronómico que proporcionó la oportunidad
única de observar ondas gravitatorias en acción.
Este objeto es el llamado púlsar binario, ya
mencionado en el capítulo 2 a propósito de la
velocidad de la luz. Es tal la exactitud con que
los astrónomos pueden controlar las pulsaciones
de radio que la menor perturbación de la órbita
de los púlsares resulta detectable. Entre tales
perturbaciones se cuenta un pequeño efecto
debido a la emisión de ondas gravitatorias. Dado
que las dos inmensas estrellas colapsadas giran
la una alrededor de la otra, crean una intensa
perturbación gravitatoria. Las ondas gravitatorias
siguen siendo demasiado débiles para ser
detectadas, pero su efecto sobre el sistema
binario resulta medible. Dado que las ondas
transportan energía fuera del sistema, la pérdida
debe pagarla la energía orbital de las dos
estrellas, dando lugar a que su órbita vaya
lentamente frenándose, y esto es lo que han
observado los astrónomos. La situación se
parece bastante a la de observar el contador de
la electricidad cuando la radio está enchufada: no
se trata de la detección directa de las ondas de
radio, sino de un efecto secundario atribuible a
estas ondas.
El motivo de esta digresión sobre el tema de
las ondas gravitatorias es que sus primas —las
ondas electromagnéticas— fueron el punto de
partida de la teoría cuántica. Como se explicó en
el capítulo 1, Max Planck descubrió que la
radiación electromagnética sólo puede emitirse o
absorberse en paquetes discretos o cuantos,
llamados fotones. Por tanto, es de esperar que
las ondas gravitatorias se comporten de manera
similar a las de los fotones. Los físicos defienden
los gravitones con razones de mayor peso que la
simple analogía con los fotones: todos los
demás campos conocidos poseen cuantos y, si
la gravedad fuera una excepción, sería posible
transgredir las reglas de la teoría cuántica
haciendo que esos otros sistemas
interaccionaran con la gravedad.
Suponiendo que los gravitones existieran,
estarían sometidos a las habituales
incertidumbres e indeterminaciones que
caracterizan a todos los sistemas cuánticos. Por
ejemplo, únicamente sería posible afirmar que el
gravitón ha sido emitido o absorbido según una
determinada probabilidad. Lo cual significa que la
presencia de un gravitón supondría una
incertidumbre sobre la forma del espacio y la
duración del tiempo. De ahí se deduce que no
sólo la materia está sometida a impredecibles
fluctuaciones, sino que también lo está el mismo
terreno de juego que es el espacio-tiempo. Así
pues, el espacio-tiempo no es meramente el foro
del juego aleatorio de la naturaleza, sino que es
de por sí uno de los jugadores.
Puede parecer sorprendente que el espacio
en que habitamos adopte los rasgos de una
gelatina temblequeante, pero tampoco
percibimos nada de los alborotos cuánticos en
nuestra vida cotidiana. Aunque ni siquiera los
sofisticados experimentos subatómicos ponen de
manifiesto sacudidas aleatorias e indeterminadas
del espacio-tiempo dentro del átomo; no se han
detectado ninguna clase de fuerzas gravitatorias
súbitas e impredecibles.
El análisis matemático demuestra que
tampoco son de esperar: la gravedad es una
fuerza tan débil que sólo cuando se concentran
inmensas energías gravitatorias se distorsiona el
espacio-tiempo hasta el punto de que podamos
constatarlo. Recuérdese que toda la masa del
Sol sólo distorsiona las imágenes de las estrellas
lejanas en un grado casi imperceptible. A escala
subatómica, las concentraciones temporales de
masa-energía pueden tomarse prestadas gracias
al mecanismo de incertidumbre de Heisenberg,
de modo que resulta sencillo calcular la duración
de un préstamo de masa-energía suficiente para
abollar el espacio. El principio de Heisenberg
exige que cuanto mayor sea la energía más
corto resulte el préstamo, con lo cual, dada la
relativa debilidad de la gravedad y la
correspondiente intensidad del paquete de
energía necesario, de hecho sólo cabe la
posibilidad de un préstamo muy breve. La
respuesta resulta ser el intervalo de tiempo más
corto que jamás se haya considerado
físicamente significativo: conocido a veces como
jiffy (periquete), un segundo contiene un uno
seguido de cuarenta y tres ceros (escrito 1043)
d e jiffies, duración tan corta que la misma luz
sólo puede recorrer una milmillonésima de
billonésima de billonésima de centímetro en un
jiffy, que es diez elevado a veinte veces menor
que el núcleo atómico. Poco puede sorprender
que no encontremos fluctuaciones cuánticas del
espacio-tiempo en la vida cotidiana ni en los
experimentos de laboratorio.
Pese al hecho de que el espacio-tiempo
cuántico habita en un mundo dentro de nosotros
cuya pequeñez es más lejana aún que los
límites del universo con toda su inmensidad, sus
efectos dan pie a las consecuencias más
espectaculares. La imagen de sentido común del
espacio y del tiempo viene a ser la de una
especie de marco dentro del cual está pintada la
actividad del mundo. Einstein demostró que el
propio marco puede moverse y sufrir
distorsiones: el espacio-tiempo adquirió vida. La
teoría cuántica predice que si pudiéramos
examinar la superficie del marco con un
supermicroscopio observaríamos que no es liso,
sino que tiene una textura granulosa producto de
las distorsiones cuánticas aleatorias e
imperceptibles del tejido del espacio-tiempo a
escala ultramicroscópica.
Descendiendo al tamaño del jiffy aparecería
una estructura aún más espectacular. Las
distorsiones y las abolladuras son tan
pronunciadas que se retuercen y ligan entre sí
formando una red de puentes y galerías. John
Wheeler, el principal arquitecto de este
extravagante mundo de Jiffylandia describe la
situación como similar a la de un aviador que
vuela a gran altura sobre el océano. A gran
altitud sólo le llegan los rasgos más
sobresalientes y ve la superficie del mar plana y
homogénea, pero si observa desde más cerca
verá ondulaciones que indican alguna clase de
perturbación local: ésta es la escala de la
curvatura gravitatoria del espacio-tiempo.
Descendiendo más, notará las perturbaciones
irregulares a pequeña escala: los rizos y las olas
superpuestas a la ondulación general: éstos son
los campos gravitatorios locales. Por último, con
ayuda de un telescopio percibiría que, en
realidad, a muy pequeña escala, estos rizos
están tan distorsionados que se deshacen en
espuma. La superficie pulida y en apariencia sin
quiebras es en realidad una masa hirviente de
espuma y burbujas: que son las galerías y los
puentes de Jiffylandia.
Según esta descripción, el espacio no es ni
uniforme ni informe sino, descendiendo a esos
increíbles tamaños y duraciones, un complicado
laberinto de agujeros y túneles, de burbujas y
telas de araña, que se crean y destruyen en una
incesante actividad. Antes de que estas ideas se
pusieran en circulación, muchos científicos
suponían tácitamente que el espacio y el tiempo
eran continuos hasta una escala arbitrariamente
pequeña. La gravedad cuántica sugiere que el
marco de nuestro mundo no sólo tiene una
textura, sino una estructura espumosa o de
esponja, lo que indica que los intervalos o
duraciones no pueden dividirse infinitamente.
Una gran mistificación suele envolver el
problema de qué constituye los agujeros del
tejido.
Después de todo, el espacio se supone
vacío; luego, ¿cómo puede haber agujeros en
algo que ya está vacío? Para responder a esta
cuestión lo mejor es imaginar, en lugar de los
agujeros de Wheeler, agujeros del espacio-
tiempo lo bastante grandes para afectar a la
experiencia cotidiana. Supóngase que hubiera un
agujero espacial en medio de Piccadilly Circus,
en el centro de Londres. Cualquier turista
despistado podría desaparecer súbitamente al
encontrarse con este fenómeno, probablemente
para nunca más volver. Nosotros no podríamos
decir lo que ha sido de él, porque nuestras leyes
de la naturaleza se limitan al universo, es decir,
al espacio y al tiempo, y nada dicen de las
regiones más allá de sus fronteras. De modo
similar, no podemos predecir qué puede salir de
un agujero del tiempo, ni siquiera qué clase de
luz. Si del agujero no puede surgir
absolutamente nada, aparecerá simplemente
como una mancha negra.
No hay ninguna razón especial para que
nuestro universo esté o no esté infestado de
agujeros e incluso de auténticos bordes.
Hablando metafóricamente, Dios podría aplicar
unas tijeras al espacio-tiempo y despedazarlo. Si
bien no tenemos pruebas de que esto haya
sucedido a escala de Piccadilly, algo por el estilo
puede haber ocurrido en Jiffylandia.
Un adecuado estudio de la rama de las
matemáticas conocida como topología (los
grandes rasgos y estructuras del espacio) revela
que los agujeros espaciales no conducen
necesariamente a la brusca desaparición de los
objetos del espacio.
Esto resulta fácil de ver comparando el
espacio con una superficie bidimensional, o una
hoja de papel, como hemos hecho en el caso de
las metáforas del cuadro y del océano.
En una, el agujero está cortado en el centro
de una hoja aproximadamente plana: la hoja
también tiene bordes. La línea quebrada
dibujada sobre la hoja representa la trayectoria
de los exploradores que, al igual que los
desdichados navegantes de los siglos pasados,
se desvanecen en el borde del mundo (o sea en
el agujero). En el segundo ejemplo, la hoja está
curvada y se cierra sobre sí misma en forma de
donut, forma que los matemáticos denominan
toro. El toro también tiene un agujero en el
centro, pero su relación con la hoja es bastante
distinta. Concretamente, no hay un borde
abrupto alrededor del agujero ni en los extremos,
de modo que los exploradores pueden
arrastrarse por toda la superficie sin riesgo de
caerse de ella: es un espacio cerrado y finito
pero sin bordes y, desde el punto de vista
matemático, se aproxima más a la espuma de
Jiffylandia.
Es absolutamente posible que el universo a
gran escala no se extendiera interminablemente,
sino que se curvara sobre sí mismo. Por
supuesto, puede no tener un gran agujero en el
centro —puede ser más parecido a una esfera
—, pero en principio sería posible desplazarse a
todo su alrededor y visitar todas las regiones. En
lengua coloquial, podríamos ver todo el universo
en una especie de viaje cósmico cerrado. Y al
igual que los trotamundos terrícolas suelen salir
de Londres hacia Moscú y regresar por Nueva
York, así nuestros intrépidos cosmonautas
podrían rodear el cosmos siguiendo lo que ellos
considerarían un trayecto fijo y en línea recta,
regresando por la dirección opuesta a aquella en
que hubiesen partido.
La topología del universo podría ser mucho
más complicada que la de un simple toro o la de
una esfera, y contener toda una red de túneles y
puentes. Cabe imaginar que se parezca
bastante a un queso de gruyere donde el queso
sería el espacio-tiempo y los agujeros aportarían
la complicada topología. Además, deber
recordarse que toda esta monstruosidad se
expande al mismo tiempo. El espacio y el
tiempo se conectarían, pues, de un modo
desconcertante. Sería posible, por ejemplo, ir de
un lugar a otro por una diversidad de rutas —en
apariencia todas ellas trayectos en línea recta—
abriéndose paso por el laberinto de puentes. La
idea de que un puente espacial permitiera el
paso casi instantáneo a alguna galaxia lejana es
muy del gusto de los autores de ciencia-ficción.
La posibilidad de eludir la larga ruta a través del
espacio intergaláctico resulta de lo más atractiva
si en realidad hay gigantescos agujeros que
ensartan el universo. Tomando el ejemplo de
una tela, tal agujero se representaría curvando la
tela en forma de U y uniendo los dos extremos
en un determinado punto mediante un túnel. Por
desgracia, no hay la menor prueba de la
existencia real de ninguno de tales rasgos, pero
tampoco se pueden descartar. En principio,
nuestros telescopios deberían revelar cuál es la
forma del universo, pero en la actualidad es
demasiado difícil desenredar todos estos efectos
geométricos de otras distorsiones más comunes.
Cabe pensar en posibilidades aún más
extravagantes. Al conectarse nuestra superficie
(es decir, el espacio) consigo misma, podría
ocurrir una torsión, como la famosa cinta de
Moebius. En tal caso, no sería posible distinguir
la derecha de la izquierda. De hecho, el
circumnavegante cósmico regresaría en forma
de imagen reflejada de sí mismo, ¡con la mano
izquierda y la derecha intercambiadas!
Es importante comprender que todos estos
rasgos espectaculares y poco habituales del
espacio podrían deducirlos sus habitantes a partir
exclusivamente de observaciones hechas desde
su interior. Así como no es necesario salir de la
Tierra para llegar a la conclusión de que es
redonda y finita, tampoco necesitamos la
perspectiva de una dimensión superior desde
ver, pongamos, el agujero del centro del
universo en forma de donut para deducir que
existe. Su existencia tiene consecuencias para el
espacio sin necesidad de preocuparse
interminablemente de lo que hay en el agujero ni
de lo que hay fuera del universo finito. De
manera que considerar que el espacio está lleno
de agujeros no exige especificar qué son
físicamente tales agujeros: están fuera de
nuestro universo físico y su naturaleza es
irrelevante para la física que realmente podemos
observar.
Lo mismo que puede haber agujeros en el
espacio, puede haberlos en el tiempo. Un corte
brusco del tiempo es de presumir que se
manifestaría en forma de súbito cese del
universo, pero una posibilidad más compleja
consistiría en el tiempo cerrado, análogo al
espacio esférico o toroidal. Una buena forma de
visualizar el tiempo cerrado es representar el
tiempo por una línea: cada punto de la línea
corresponde a un momento del tiempo. Según la
concepción habitual, la línea se prolonga en
ambas direcciones ilimitadamente, pero más
adelante veremos que la línea tiene un extremo
o bien dos: es decir, un comienzo o final del
tiempo. No obstante, la línea puede ser finita en
longitud sin por eso tener extremos, por ejemplo,
cerrándose en forma de círculo. Si el tiempo
realmente fuera así, sería posible decir cuántas
horas componen toda la duración del tiempo.
Muchas veces el tiempo cerrado se describe
diciendo que el universo es cíclico, repitiéndose
todos los incidentes ad infinitum, pero esta
imagen presupone la discutible noción de un flujo
de tiempo que nos arrastra una vez tras otra
alrededor del círculo. Como no hay modo de
distinguir cada vuelta de la siguiente, en realidad
no es correcto calificar tal estructura de cíclica.
En el mundo del tiempo cerrado, el pasado
sería también el futuro, lo que abriría la
perspectiva de una anarquía causal y de las
paradojas temporales de que tanto se han
ocupado los autores de ciencia-ficción. Lo que es
peor, si el tiempo se uniera a sí mismo, no sería
posible distinguir de ninguna manera el avance
del retroceso temporal, por lo mismo que no se
puede distinguir entre la derecha y la izquierda
en un espacio de tipo Moebius. No está claro sin
embargo que fuéramos capaces de apreciar
unas características del tiempo tan
extravagantes. Quizá nuestro cerebro, con
objeto de ordenar nuestras experiencias de
modo significativo, fuera incapaz de percibir esta
gimnasia temporal.
Aunque los bordes y los agujeros del espacio
y del tiempo puedan parecer una enloquecida
pesadilla matemática, son tomados muy en
serio por los físicos, quienes consideran que muy
bien puede existir tales estructuras. No hay
prueba alguna del despedazamiento del espacio-
tiempo, pero hay fuertes indicios de que el
espacio y el tiempo pueden ir desplegando
bordes o límites, de tal modo que más que
saltar insospechadamente por el extremo de la
creación, iríamos siendo conscientes,
dolorosamente y, en resumidas cuentas,
suicidamente, de nuestra próxima partida
(agujeros con dientes). Es evidente que el
agujero, que es un simple corte en el espacio, se
abre abruptamente. No hay rasgos que
adviertan la proximidad del borde y anuncien la
inminente discontinuidad. Igual ocurre con los
agujeros similares del tiempo: nada anunciaría el
fallecimiento del universo o de una porción del
universo. En consecuencia, nuestra física no
puede predecir (ni rebatir) la existencia de tales
agujeros. No obstante, es posible predecir los
agujeros y los bordes que se despliegan
gradualmente en el espacio-tiempo ordinario y
de hecho los predicen firmes principios físicos
que muchos científicos aceptan.
La superficie es una estructura similar a un
cono que se afila lenta pero incesantemente
hacia un punto denominado cúspide: hablando
sin rigor, la punta es infinitamente aguda, de
manera que nada puede doblar la punta y
descender por el otro lado. El objeto que se
acerque a la punta comenzará a sentirse
incómodo presionado por la creciente curvatura y
constreñido a un espacio cada vez menor.
Cuando esté cerca de la punta, el objeto será
progresivamente estrujado y no podrá alcanzar
la punta propiamente dicha —quedándose
comprimido hasta reducirse a nada— puesto que
la punta no tiene tamaño. El precio de visitar la
punta es la destrucción de toda extensión y toda
estructura; el objeto nunca volverá.
Estos extremos en forma de cúspide del
espacio-tiempo de los que ningún viajero puede
retornar fueron predichos por la teoría de la
relatividad de Einstein y se conocen con el
nombre de singularidades. La creciente curvatura
de sus inmediaciones corresponde físicamente a
fuerzas gravitatorias que descuartizarían a
cualquier cuerpo y lo aplastarían
progresivamente hasta un volumen nulo. Una de
las circunstancias en que podría representarse
tal rasgo es como consecuencia del colapso
gravitatorio de una estrella apagada. Cuando se
agota el combustible de una estrella, ésta pierde
calor y no puede mantener la suficiente presión
interior para soportar su propio peso, y por lo
tanto se encoge. En las estrellas lo
suficientemente grandes, la contracción se
produce con tal rapidez que equivale a una
súbita explosión hacia dentro y la estrella se
encoge, quizás ilimitadamente. Se forma una
singularidad espaciotemporal y por ahí puede
desaparecer buena parte de la estrella e incluso
toda. Aun cuando no ocurra eso, los curiosos
observadores que sigan su desenvolvimiento es
posible que sean arrastrados hacia la
singularidad. Existe la extendida creencia de que
si se produce una singularidad, se localizará
dentro de un agujero negro donde no será
posible verla sin caer en su interior y salir del
universo.
Otro tipo de singularidad podría haber
existido en el nacimiento del universo. Muchos
astrónomos creen que el Big Bang representa
los residuos en erupción de una singularidad que
constituyó literalmente la creación del universo.
La singularidad del Big Bang podría equivaler
al extremo temporal pasado del cosmos: un
comienzo del tiempo, así como del espacio,
además del origen de toda la materia. De
manera similar, puede haber un extremo del
tiempo en el futuro, en el que todo el universo
desaparezca para siempre —y con él el espacio
y el tiempo— luego de las consabidas
compresiones y subsiguiente aniquilación. Otras
imágenes del universo pueden verse en mi libro
The Runaway Universe (El universo huidizo).
Una vez descritos algunos de los rasgos
más extraordinarios que la física moderna
atribuye al espacio y al tiempo, merece la pena
que volvamos a Jiffylandia y a las nociones de la
teoría cuántica con objeto de entender qué es lo
que en realidad significa la subestructura
espumosa. En los capítulos 1 y 3 hemos
explicado que los electrones y demás partículas
subatómicas no se mueven sencillamente de A
a B.
Por el contrario, su movimiento está
controlado por una onda que puede extenderse,
en ocasiones, por territorios muy alejados del
camino recto. La onda no es una sustancia, sino
una onda probabilística donde la perturbación de
la onda es pequeña (por ejemplo, lejos de la
línea recta) y las probabilidades de encontrar la
partícula son escasas.
La mayor parte del movimiento de la onda
se concentra siguiendo el camino clásico de
Newton, que por tanto constituye la trayectoria
más probable. Este efecto de agrupamiento
resulta pronunciadísimo en los objetos
macroscópicos, como en las bolas de billar, cuya
dispersión en forma de ondas nunca percibimos.
Si disparamos un haz de electrones (o
incluso un único electrón), podemos escribir la
formulación matemática de la onda, que avanza
según la famosa ecuación de Schrödinger. La
onda muestra la importante propiedad,
característica de las ondas, de interferirse en el
caso de que, por ejemplo, el haz choque con dos
ranuras de una pantalla: pasará por ambas y la
perturbación bifurcada se recombinará en forma
de crestas y vientres. La onda no describe un
mundo sino una infinitud de mundos, cada uno
de los cuales contiene una trayectoria distinta.
Estos mundos no son todos independientes; el
fenómeno de la interferencia demuestra que se
superponen y entrometen en sus caminos. Sólo
una medición directa puede mostrar cuál de
estos infinitos mundos potenciales es el real. Lo
cual plantea delicadas y profundas cuestiones
sobre el significado de lo real y sobre qué
constituye una medición, cuestiones de las que
nos ocuparemos ampliamente en los siguientes
capítulos, pero de momento nos limitaremos a
señalar que cuando un físico desea describir el
movimiento de los electrones, o en general
cómo cambia el mundo, se enfrenta a la onda y
estudia su movimiento. La onda contiene
codificada toda la información disponible sobre el
comportamiento de los electrones.
Si imaginamos ahora todos los mundos
posibles —cada uno de ellos con una trayectoria
distinta del electrón— como una especie de
gigantesco supermundo pluridimensional en el
que las alternativas se sitúan paralelamente en
igualdad de condiciones, entonces podemos
considerar que el mundo que resulta real para la
observación es una proyección tridimensional o
una sección de este supermundo. En qué
medida puede considerarse que el supermundo
existe en realidad lo expondremos a su debido
tiempo.
Básicamente, necesitamos un mundo
distinto para cada trayectoria del electrón, lo que
habitualmente significa que necesitamos una
infinidad de mundos, y similares infinidades de
mundos para cada átomo o partícula
subatómica, cada fotón y cada gravitón que
exista. Es evidente que este supermundo es un
mundo muy grande, en realidad con las infinitas
dimensiones del infinito.
La idea de que el mundo que observamos
pudiera ser una tajada tridimensional o
proyección de un supermundo de infinitas
dimensiones tal vez no sea fácil de entender.
Un humilde ejemplo de proyección puede
servir de ayuda. Imagínese una pantalla
iluminada que se utiliza para proyectar la silueta
de un objeto simple, como una patata. La
imagen de la pantalla presenta una proyección
bidimensional de lo que en realidad es una forma
tridimensional, es decir, de la patata. Cambiando
la orientación de la patata se puede obtener una
infinita variedad de siluetas, cada una de las
cuales representa una proyección distinta del
espacio mayor. Igualmente, el mundo que
nosotros observamos está conformado como
una proyección del supermundo; cuál proyección
es un problema de matemáticas y estadística. A
primera vista podría parecer que reducir el
mundo a una serie de proyecciones aleatorias
fuera una receta en pro del caos, donde cada
momento sucesivo presentaría a nuestros
sentidos un panorama completamente nuevo,
pero los dados están muy cargados a favor de
los cambios bien ordenados y acordes con las
leyes de Newton, de modo que las fluctuaciones
espasmódicas, que existen sin ningún género de
dudas, quedan enterradas a buen recaudo entre
los escondrijos microscópicos de la materia,
manifestándose tan sólo a escala subatómica.
Al igual que la partícula newtoniana se
mueve de tal modo que minimiza su acción y la
onda cuántica se arracima alrededor de una
trayectoria de mínima acción, cuando se trata de
la gravedad encontramos que el espacio
también minimiza su acción. La espuma
cuántica de Jiffylandia perturba algo el
movimiento mínimo, pero sólo en la escala
absurdamente pequeña de que hemos hablado
en la primera parte de este capítulo. Por tanto, el
mismo espacio puede describirse como una
onda y esta onda espacial también poseerá las
propiedades de interferencia. Además, del
mismo modo que podemos construir mundos
distintos para la trayectoria de cada electrón,
también es posible construir mundos distintos
para cada forma del espacio. Combinados todos
juntos nos encontramos con un superespacio de
infinitas dimensiones. El superespacio contiene
todos los espacios posibles —donuts, esferas,
espacios con túneles y puentes—, cada uno de
ellos con una estructura diferente, con una
espuma distinta; una infinidad de formas
geométricas y topológicas.
Cada uno de los espacios del superespacio
contiene su propio supermundo de todas las
posibles organizaciones de las partículas. El
mundo de nuestros sentidos, al parecer, es un
elemento tridimensional único proyectado desde
este superespacio infinito.
Nos hemos alejado tanto de la noción de
sentido común del espacio y del tiempo que
merece la pena detenernos a hacer inventario.
La ruta hacia el superespacio es difícil de seguir,
pues exige a cada paso renunciar a alguna idea
muy querida o bien a aceptar algún concepto
desconocido. La mayor parte de la gente
considera el espacio y el tiempo como
características tan básicas de la existencia que
no pone en duda sus propiedades. De hecho, el
espacio suele imaginarse como completamente
carente de propiedades: un vacío desocupado y
sin forma. La idea más difícil de aceptar es que
el espacio tenga forma. Los cuerpos materiales
tienen forma en el espacio, pero el espacio en sí
parece ser más bien un contenedor que un
cuerpo.
A todo lo largo de la historia ha habido dos
escuelas filosóficas que se han ocupado de la
naturaleza del espacio. Una escuela, de la que
formó parte el propio Newton, enseña que el
espacio es una sustancia que no sólo tiene
geometría, sino que también puede presentar
características mecánicas. Newton creía que la
fuerza de la inercia estaba causada por la
reacción del espacio frente a un cuerpo
acelerado. Por ejemplo, cuando un niño da
vueltas en un tiovivo siente la fuerza centrífuga;
el origen de esta fuerza lo adscribe Newton al
espacio envolvente. Ideas similares se han
propuesto de vez en cuando, en las que la
analogía con el fluir del río implica una más
estrecha asociación con la materia.
En contraposición a estas imágenes, otra
escuela niega que el espacio y el tiempo sean
cosas, sino meras relaciones entre los cuerpos
materiales y los acontecimientos. Filósofos como
Leibniz y Ernst Mach negaron que el espacio
actuara sobre la materia y sostuvieron que todas
las fuerzas se debían a otros cuerpos materiales.
Mach opinaba que la fuerza centrífuga que
opera sobre el niño montado en el tiovivo se
debe a un movimiento relativo entre el niño y la
materia lejana del universo. El niño siente una
fuerza porque las remotísimas galaxias
presionan contra él, resistiéndose al movimiento.
Según estas ideas, el tratamiento del
espacio y el tiempo es una mera conveniencia
lingüística que nos permite describir las
relaciones entre los objetos materiales. Por
ejemplo, decir que hay algo más de 300 000 km
de espacio entre la Tierra y la Luna es
simplemente una forma útil de decir que la
distancia de la Tierra y la Luna es de algo más
de 300 000 km.
Si la Luna no estuviera allí, ni tuviéramos
otros objetos o rayos luminosos que manipular,
resultaría imposible saber hasta dónde se
extiende un determinado trecho de espacio. La
medición de distancias o de ángulos en el
espacio requiere varas de medir, teodolitos,
señales de radar o algún otro instrumento
material. Por eso se considera que el espacio no
es más material que la nacionalidad. Ambas
cosas son descripciones de relaciones que
existen entre las cosas, entre las cosas
materiales y entre los ciudadanos,
respectivamente.
Ideas similares se han aplicado a la noción
del tiempo. ¿Es necesario considerar el tiempo
como una cosa o como una conveniencia
lingüística para expresar las relaciones entre los
acontecimientos?
Por ejemplo, decir que uno espera desde
hace rato el autobús sólo significa, en realidad,
que el intervalo entre la llegada a la parada del
autobús y la comparecencia del autobús se ha
prolongado más de lo habitual. La duración del
tiempo es una forma coloquial de describir la
relación temporal entre estos dos
acontecimientos.
Cuando nos acercamos a la idea de espacio-
tiempo curvo, indudablemente resulta más útil
adoptar la primera perspectiva, en la que el
espacio y el tiempo se tratan como sustancias.
Esto puede no ser estrictamente necesario
desde un punto de vista lógico, pero sirve para
ayudar a la intuición. Visualizar el espacio como
un bloque de caucho aporta una vívida imagen
de lo que se entiende por un espacio que se
dobla y estira. El rasgo fundamental de la teoría
de la relatividad general de Einstein es que el
espacio-tiempo, que tiene esta curiosa cualidad,
se mueve, es decir, cambia de forma, siendo la
causa de este movimiento la presencia de
materia y energía. Una vez aprehendida la
noción de un espacio-tiempo dinámico, los
aspectos cuánticos resultan más significativos.
Cuando los conceptos de la teoría cuántica
se aplican al espacio-tiempo, aumenta la
extrañeza porque se complica la estructura, ya
de por sí desconcertante, de un espacio-tiempo
dinámico con los fantásticos rasgos de la teoría
cuántica. La mecánica cuántica implica que no
basta con considerar un espacio-tiempo, sino
una infinidad de ellos, con distintas formas y
topologías. Todos estos espacio-tiempos
encajan entre sí según el modelo ondulatorio,
interfiriéndose mutuamente. La fuerza de la
onda es la medida de la probabilidad de que un
espacio con esa forma concreta aparezca como
la representación del universo real cuando se
hace una observación. Los espacios
evolucionan, como ocurre al expandirse el
universo, y el sobrecogedor número de estos
mundos alternativos aumentará de modo similar.
No obstante, hay algunos que fluctúan muy
lejos de la trayectoria principal, al igual que los
niños en el parque de que hemos hablado. La
fuerza de la onda de estos mundos descarriados
es muy pequeña, de modo que sólo hay una
infinitésima probabilidad de que realmente se
puedan observar. Pero a la escala de Jiffylandia,
estas fluctuaciones se hacen mucho más
pronunciadas y ocurren con frecuencia
desviaciones del espacio pulido y terso.
Al afrontar la existencia de un superespacio
donde miríadas de mundos se mantienen
cosidos entre sí mediante una curiosa
superposición de carácter ondulatorio, el mundo
concreto de la vida cotidiana parece situarse a
años luz. Con conceptos tan abstractos y
sorprendentes como éstos, uno se ve obligado a
preguntarse hasta qué punto el superespacio es
real.
¿Existen en realidad estos mundos
alternativos o son meros términos de algunas
fórmulas matemáticas que supuestamente
representan la realidad? ¿Cuál es el significado
de las misteriosas ondas que rigen el
movimiento de la materia a la vez que del
espacio-tiempo y que determinan las
probabilidades de que exista un determinado
mundo concreto? En cualquier caso, ¿¿qué es la
existencia en medio de semejante cenagal de
conceptos sin sustancia? Éstas son algunas de
las preguntas sobre las que volveremos.
Veremos que el juego cósmico del azar es
mucho más sutil y extravagante que la simple
ruleta.
Capítulo V

La naturaleza de la realidad

Hasta el momento hemos sido bastante


imprecisos con nociones como el mundo real y
l a existencia de ondas de materia o
superespacio. En este capítulo nos
enfrentaremos cara a cara con las preguntas
fundamentales que plantea la revolución
cuántica y examinaremos en qué medida estos
conceptos poco habituales se suponen aplicables
a algo verdaderamente objetivo o bien si tan sólo
son complicadas maquinaciones de los físicos
para calcular matemáticamente los resultados de
medir entidades más concretas y conocidas.
Debe subrayarse desde un principio que de
ninguna manera hay acuerdo unánime entre los
físicos, y menos entre los filósofos, sobre la
naturaleza ni sobre la existencia de la realidad, ni
siquiera sobre su misma significación ni sobre en
qué medida las características cuánticas la
socavan. Sin embargo, desde hace alrededor de
cincuenta años, están en el aire determinados
problemas y paradojas y, aunque no se han
resuelto a satisfacción de todo el mundo,
resaltan las cualidades profundamente extrañas
que la teoría cuántica ha aportado a nuestro
mundo.
La mayor pate de la gente tiene una imagen
intuitiva de la realidad según los siguientes
principios. El mundo está lleno de cosas
(estrellas, nubes, árboles, rocas…) entre las
cuales hay observadores conscientes (personas,
delfines, marcianos [?]…) independientemente
de si han sido descubiertos o de si podemos
experimentar con ellos o medirlos en un futuro.
En resumen: hay un mundo exterior. En la vida
cotidiana no ponemos en cuestión tal creencia.
El monte Everest y la nebulosa de Andrómeda
existían con toda seguridad antes de que
existiera nadie para comentar tal hecho; los
electrones zumbaban por el universo originario al
margen de si, en último término, aparecería el
hombre en el cosmos, etcétera.
Puesto que los científicos han revelado y
creen en las leyes de la naturaleza, se acepta
que el universo late por sí solo, sin ayuda y
ajeno a nuestra participación en él. Lo evidente
de todo lo dicho hace aún más sorprendente
descubrir que carece de fundamento.
Es evidente que el mundo que una persona
realmente experimenta no puede ser del todo
objetivo, puesto que experimentamos el mundo
en una acción recíproca. El acto de la
experiencia requiere dos componentes: el
observador y lo observado. La mutua interacción
entre ambos nos proporciona la sensación de la
realidad que nos envuelve.
Asimismo es obvio que nuestra versión de
e s t a realidad estará coloreada por nuestro
modelo del mundo según lo ha erigido la
experiencia anterior, la predisposición emocional,
las expectativas, etcétera. Evidentemente, pues,
en la vida cotidiana no experimentamos en
absoluto una realidad objetiva, sino una especie
de cóctel de perspectivas internas y externas.
El objetivo de las ciencias físicas ha sido
desprenderse de esta visión personalizada y
semisubjetiva del mundo y construir un modelo
de la realidad que sea independiente del
observador. Los procedimientos tradicionales
para alcanzar esta meta son los experimentos
repetibles, la medición mediante máquinas, la
formulación matemática, etc. ¿Hasta qué punto
es logrado el modelo que ha proporcionado la
ciencia? ¿Puede verdaderamente describir un
mundo que existe con independencia de las
personas que lo perciben?
Antes de ocuparnos de la teoría cuántica, es
interesante volver a las ideas de la mecánica de
Newton, con sus imágenes de un universo
mecánico habitado por observadores que son
meros autómatas, para ver hasta dónde se
puede llegar en la construcción de un modelo de
este mundo. En el capítulo 3 hemos visto que
es imposible hacer ninguna observación sin
perturbar el sistema que se observa. Para
adquirir información sobre algo es necesario que
alguna clase de influencia se desplace desde el
sistema que interesa al cerebro del observador,
quizás a través de una compleja cadena de
aparatos. Esta influencia siempre tiene una
reacción refleja sobre el sistema de acuerdo con
el principio de acción y reacción de Newton, con
lo que perturba ligeramente su estado. Ya
hemos citado un ejemplo sobre el movimiento
de los planetas en el sistema solar, cuyas órbitas
son infinitésima pero inevitablemente
perturbadas por la luz con que los vemos. Podría
pensarse que las perturbaciones debidas al
observador suponen un golpe mortal para la idea
de que el universo es una máquina, pero no es
así. El cuerpo del observador —cerebro, órganos
de los sentidos, sistema nervioso, etc.— puede
considerarse formando íntegramente parte de la
gran maquinaria cósmica, entendiendo el
sistema total (observador más observado) como
una gran máquina que determina la inevitabilidad
del resultado de todas las mediciones.
En esta imagen newtoniana del universo, los
observadores desempeñan papeles
predeterminados en la comedia sin iniciativa
alguna.
Tampoco es necesario, según esta teoría,
que todos los sistemas y todos los procesos
sean realmente observados para que existan:
¿quién negaría que los eclipses ocurren aunque
no haya nadie que no los vea?
Las leyes de la mecánica de Newton
permiten calcular la actividad de cuerpos
invisibles, desde los átomos hasta las galaxias, y
comprobar las predicciones mediante meras
observaciones esporádicas.
El hecho de que los sistemas parezcan
funcionar según estas predicciones matemáticas
refuerza la creencia de que eso es realmente
exterior, que opera por sí mismo, sin necesitar
que nuestra constante inspección lo haga latir.
Un rasgo central de esta visión newtoniana
del mundo real es la existencia de cosas
identificables a las que, coherentemente, se
pueden adscribir atributos intrínsecos. En la vida
cotidiana no tenemos dificultad en aceptar, por
ejemplo, que un balón de fútbol es un balón de
fútbol, una cosa concreta con propiedades fijas
(redondo, de cuero, hueco…). No es una casa ni
una nube ni una estrella. El mundo se percibe
como una colección de objetos distintos en
mutua interacción. No obstante, esta idea no es
más que aproximada.
Los objetos son distintos en la medida en
que su mutua interacción es, en un sentido
vago, pequeña.
Cuando una gota de líquido cae en el
océano interacciona fuertemente con la gran
masa de agua y queda absorbida por ésta,
perdiendo por completo su identidad. Tomando
otro ejemplo, el feto sólo gradualmente adquiere
una identidad distinta de la madre conforme
crece en el vientre. Hablando en términos
generales, cuando los objetos están a gran
distancia los concebimos distintos: los planetas
del sistema solar, los átomos de Londres y
Nueva York, etc. Esto se debe a que todas las
fuerzas interactivas conocidas disminuyen
rápidamente con la distancia, de tal modo que
las entidades bien separadas se comportan casi
con independencia.
Desde luego, nunca son completamente
independientes —siempre hay un ensamblaje
residual entre todas las cosas—, pero la noción
de objetos distintos y separados es muy útil en
la práctica.
Hay una dificultad filosófica para atribuir
identidad a las cosas, como la de que el balón
de fútbol es el mismo balón en todos los
momentos. Cuando se le da una patada pierde
parte del cuero, gana barro y betún de la bota,
expele algo de aire, adquiere fuerza y rotación,
etcétera. ¿Por qué pensamos en el balón
chutado como el balón? Del mismo modo, es
una práctica habitual atribuir identidades fijas a
las personas, aunque todos los días parte de sus
células corporales son sustituidas, y su
personalidad, emociones y recuerdos son
alterados por las nuevas experiencias de las
últimas veinticuatro horas. No se trata
exactamente de la misma persona que
conocíamos ayer. En un plano aún más básico,
el balón de fútbol observado no puede ser
precisamente el mismo que el no observado
como consecuencia de las perturbaciones
provocadas por el mismo acto de la observación.
La solución a estas dificultades parece ser
que el universo, en cuanto conjunto, es en
realidad indivisible, pero podemos dividirlo de
forma muy aproximada en muchas pequeñas
cosas cuasiautónomas cuya diferenciada
identidad, si bien susceptible de polémicas
filosóficas, rara vez se pone en duda en la vida
ordinaria. Tanto si se considera el cosmos una
máquina única como si se considera una
colección de máquinas laxamente acopladas, su
realidad parece estar sólidamente fundada por lo
que respecta a la física de Newton.
Aunque estamos incrustados en esta
realidad, la concebimos independiente de
nosotros y existente antes y después de nuestra
existencia personal.
Debe mencionarse que esta concepción de
la realidad ha sido criticada por la escuela
filosófica denominada positivismo lógico, que
cree, por así decirlo, que las proposiciones sobre
el mundo que no pueden ser verificadas por los
seres humanos carecen de sentido.
Por ejemplo, afirmar que los eclipses
ocurrían antes de que hubiera nadie que pudiese
verlos se considera una proposición sin sentido.
¿Cómo podrá verificarse alguna vez su realidad?
Para el positivismo extremo, la realidad se limita
a lo que realmente se percibe: no hay un mundo
exterior que exista con independencia del
observador. Aunque se conceda que es
imposible establecer la realidad de los
acontecimientos no observados por ningún
medio operativo, tampoco, en ese mismo
sentido, puede demostrarse su irrealidad. Ambas
nociones deben considerarse carentes de
sentido. La concepción positiva del mundo, al
menos en su forma extrema, no concuerda con
la concepción de sentido común, y pocos
científicos se adhirieron a sus principios
fundamentales. Además, ha de hacer frente a
sus propias objeciones filosóficas (por ejemplo,
¿cómo es posible verificar la afirmación de que
las proposiciones inverificables carecen de
sentido?). En lo que sigue, supondremos que
tiene sentido cierta noción del mundo exterior,
independiente de nosotros, y que las cosas
existen aun cuando quizás ocurra que nosotros
nada sepamos de ellas.
Retomando ahora la teoría cuántica, ya
podemos vislumbrar algunos de los problemas
que surgen en relación con la naturaleza de la
realidad. Si bien un balón de fútbol observado se
diferencia infinitesimalmente de un balón de
fútbol no observado, cuando llegamos a las
partículas subatómicas el acto de la observación
tiene efectos drásticos. Como hemos señalado
en el capítulo 3, es siempre posible decir por qué
ranura de una pantalla pasa en realidad un fotón
o un electrón.
A pesar de esto, podría suponerse que es
posible imaginar un microcosmos donde los
electrones y las demás partículas realmente
ocupen posiciones ciertas y se muevan según
trayectos bien definidos, aun cuando nosotros
seamos incapaces de asegurar cuáles son en la
práctica.
A primera vista, parece que la tan
importante incertidumbre la introduce de hecho
el acto de la medición, como si de alguna
manera el aparato utilizado para sondear el
microsistema inevitablemente lo hiciera vibrar un
poco. En cualquier caso, es evidente que el
efecto vibratorio debe seguir operando incluso sin
nuestra interferencia directa, pues de lo contrario
los átomos que no estuvieran bajo observación
directa no obedecerían las leyes cuánticas y
deberían desmoronarse sobre sí mismos.
Todavía es posible conjurar un cuadro en el
que todas las partículas subatómicas realmente
ocupen una posición determinada y tengan una
velocidad concreta, aun cuando estén en plena
actividad. Después de todo, sabemos que las
moléculas de un gas, por ejemplo, se agitan en
rápido movimiento, actividad ésta que es la
causa de la presión del gas. Es imposible para
nosotros seguir las complicadas maniobras de
miles de millones de pequeñas moléculas, de
modo que, para fines prácticos, existe una
profunda incertidumbre sobre cómo se
comportarán las moléculas individuales de gas.
Esta indeterminación de los movimientos de las
moléculas se debe meramente a nuestra
ignorancia sobre sus condiciones exactas, y es
similar a la incertidumbre cara-y-cruz de que nos
hemos ocupado en el capítulo 1. En tales
circunstancias, a los científicos no les queda más
remedio que utilizar métodos estadísticos, pues
aunque el decurso de cada molécula individual
pueda ser muy inseguro, las propiedades medias
de una gran masa sí son posibles de estudiar, lo
mismo que los hábitos deambulatorios de los
visitantes del parque presentan un orden
colectivo a pesar de la incertidumbre individual.
De este modo es posible calcular con
exactitud las probabilidades de las caras y de las
cruces, o bien la probabilidad de que dos gases
distintos se entremezclen en un minuto, etc. Tal
descripción de los sistemas compuestos de
elementos caóticos y aleatorios, hecha en
términos de probabilidades, parece aproximarse
mucho a la descripción cuántica de las partículas
subatómicas individuales que se desplazan de
forma probabilística. Por tanto, es natural
preguntarse si el comportamiento impredecible
de, pongamos, un electrón tiene su origen en
fenómenos similares a los que hacen inseguro el
comportamiento global de la moneda lanzada al
aire y de la caja de gases. ¿No sería posible que
el electrón y sus colegas subatómicos no fueran
el nivel ínfimo de toda la estructura física, sino
que estuvieran sometidos a influencias
ultramicroscópicas que los hacen tambalearse?
Si tal fuera el caso, la incertidumbre cuántica
podría atribuirse exclusivamente a nuestra
ignorancia de los detalles exactos de este
substrato de fuerzas caóticas.
Cierto número de físicos ha intentado
construir una teoría de los fenómenos cuánticos
basada en esta idea, en la que las fluctuaciones
en apariencia caprichosas y aleatorias de los
microsistemas no representan una
indeterminación intrínseca de la naturaleza, sino
que son simples manifestaciones de un nivel
oculto de la estructura donde fuerzas
complicadas, pero absolutamente determinadas,
hacen bambolearse a los electrones y demás
partículas. La indeterminación de los sistemas
cuánticos, pues, tendría el mismo origen que la
indeterminación del tiempo atmosférico, que sólo
puede predecirse sobre bases probabilísticas (es
decir, hay un cincuenta por ciento de
probabilidades de que llueva mañana) y
plantearse en términos generales con la ayuda
de la estadística.
Hay dos razones por las que esta explicación
de la indeterminación cuántica no ha recibido el
aplauso general. La primera es que
necesariamente introduce una gran complicación
en la teoría porque, aparte de los electrones y
demás materia subatómica, necesitaríamos
entender los detalles de esas misteriosas fuerzas
que hacen tambalearse a las partículas. ¿Cuál
es su origen, cómo actúan, qué leyes, a su vez,
obedecen?
La segunda razón es mucho más
fundamental y toca el auténtico meollo de la
revolución cuántica y de toda tentativa de
otorgar realidad objetiva al mundo de la materia
subatómica.
Buena parte de este capítulo se dedicará a
analizar las portentosas conclusiones que
parecen ser insoslayables, cuando se examina la
naturaleza de la realidad a la luz de
determinados experimentos subatómicos. El
más famoso de estos experimentos fue ideado
en principio por Albert Einstein en colaboración
con Nathan Rosen y Boris Podolsky, ya en
1935, pero sólo en los últimos años ha avanzado
la tecnología de laboratorio hasta el punto de
poder comprobar sus ideas.
Los experimentos han confirmado que, al
menos en forma simple, la posibilidad de que la
incertidumbre cuántica nazca exclusivamente de
un substrato de oscilaciones no es viable.
El principio que subyace a la paradoja de
Einstein-Rosen-Podolsky, como se ha venido a
denominar, puede comprenderse imaginando
que se ha disparado un proyectil, pongamos por
una pistola.
La experiencia demuestra que la pistola
retrocede, de tal modo que la fuerza hacia
adelante de la bala queda exactamente
equilibrada por la fuerza igual y en dirección
contraria de la pistola. Si la pistola y la bala
tuviesen la misma masa, ambas saldrían
lanzadas en direcciones contrarias a la misma
velocidad. Ahora bien, si el proyectil se lanza de
tal modo que adquiera una rotación, el mismo
principio exige que la pistola rote en sentido
contrario. Tanto el movimiento hacia adelante
como el rotatorio de la bala reaccionan con la
pistola en el momento del lanzamiento
impartiéndole un empuje en sentido contrario.
Hay partículas subatómicas que emiten
proyectiles rotatorios y sufren retrocesos, y los
experimentos demuestran que las reglas
conocidas de la mecánica también se aplican a
estos movimientos. Las partículas incluso
pueden desintegrarse en una doble progenie
idéntica, que sale lanzada en direcciones
opuestas y rotando en sentidos contrarios. Por
ejemplo, el mesón pi, que es eléctricamente
neutro y no tiene spin, explota en una
diezmillonésima de billonésima de segundo en
dos fotones que se desplazan en direcciones
opuestas, uno de los cuales rota en el sentido de
las agujas del reloj a lo largo de su trayectoria,
mientras el otro lo hace al revés.
Las reglas de la teoría cuántica exigen que
sea igual de probable que el fotón rote en
cualquier sentido, puesto que por simetría, no
hay ninguna razón para que ningún sentido
rotatorio tenga preferencia sobre el otro. Así
pues, si se mueven en dirección norte-sur, el que
se dirige hacia el norte tiene las mismas
probabilidades de rotar en el sentido de las
agujas del reloj como en sentido contrario.
No obstante, si el fotón orientado hacia el
norte rota en el sentido de las agujas del reloj, el
orientado hacia el sur debe hacerlo, para cumplir
las leyes de la mecánica mencionadas, en
sentido contrario a las agujas del reloj, y
viceversa.
Debido a esta insoslayable correlación entre
las direcciones de los dos fotones, la medición
del sentido en que gira uno de ellos aporta
inmediatamente la información sobre el sentido
en que lo hace el otro.
Lo esencial de este ejemplo es que, tras la
desintegración del cuerpo progenitor, las dos
partículas resultantes pueden alejarse a gran
distancia. En realidad, si la explosión ocurriera en
el espacio exterior, las partículas podrían seguir
alejándose hasta distanciarse millones de años
luz. Si medimos el spin, la observación local del
sentido en que gira una de las partículas aporta
de inmediato la información correspondiente
sobre la otra partícula, que puede estar muy
lejos. Ahora bien, de acuerdo con la teoría de la
relatividad, la información no puede trasladarse a
mayor velocidad que la luz, de tal modo que la
adquisición instantánea de un conocimiento
sobre la partícula situada en un lugar muy lejano
podría quebrantar este principio fundamental. En
el caso de la bala y la pistola, el sentido común
nos dice que, mucho antes de que se observe el
sentido de la rotación, la bala ya está realmente
rotando, pongamos, en el sentido de las agujas
del reloj y la pistola en sentido contrario, y el
único efecto de la medición consiste en hacer
ese conocimiento accesible al observador. Lo
cual no equivale verdaderamente a enviar una
señal a mayor velocidad que la luz, puesto que
ninguna influencia física se desplaza entre los
dos cuerpos. De modo que, contando con la
existencia de un mundo real, independiente de
nuestro conocimiento y de nuestra intención de
hacer una observación, que contiene objetos
reales (pistolas, balas) con atributos fijos y
significativos (rotación, alejamiento), no hay
conflicto entre los principios de la relatividad y la
incapacidad para enviar señales a una velocidad
mayor que la de la luz.
Resulta asimismo natural extender esta
imagen del terreno subatómico y suponer que
las dos partículas están realmente rotando en tal
y cual sentido, con independencia de si nosotros
tratamos de descubrirlo mediante un
experimento. Ahora se demostrará que la
naturaleza ondulatoria de las partículas
subatómicas derriba toda tentativa directa de
defender que tales entidades se están realmente
comportando de una determinada manera antes
de que las observemos.
Escojamos como las dos partículas que se
alejan dos fotones de luz. En lugar de ocuparnos
de su spin, como antes, es más fácil estudiar
una propiedad emparentada llamada
polarización, pues es conocida en la vida
cotidiana y se trata asimismo de una cualidad
que los físicos han medido realmente y que
permite verificar experimentalmente lo que a
continuación describiremos. Las gafas de sol
modernas suelen llevar cristales polarizados y
comprender su funcionamiento es, en esencia,
todo cuanto se precisa para entender por qué el
mundo no es tan real como podría parecer. La
luz es una vibración electromagnética y cabe
preguntarse en qué dirección vibra el campo
electromagnético. Un estudio matemático, o
bien algunos sencillos experimentos, demuestran
que si la onda se desplaza, pongamos,
verticalmente, entonces las vibraciones siempre
son horizontales; el movimiento de la onda es
transversal a la dirección de desplazamiento. Por
razones de simetría, un rayo de luz vertical
elegido al azar no mostrará ninguna preferencia
por ningún plano horizontal especial en el que
vibrar; puede hacerlo de norte a sur o de este a
oeste o en cualquier otra dirección intermedia. Lo
que importa en los cristales polarizados es que
sólo son transparentes a la luz que vibra en un
determinado plano. Al examinar la luz que brota
de tal polarizador, encontramos que toda vibra
en un plano concreto, de manera que éste actúa
como un filtro que sólo permite el paso de la luz
que vibra en el plano elegido. Esta luz se
denomina polarizada. Como es natural, somos
libres de elegir el plano de polarización girando el
polarizador.
Supongamos ahora que colocamos un
segundo polarizador detrás del primero. Si sus
dos planos se sitúan en paralelo, toda la luz que
pasa por el primero también atraviesa el
segundo, puesto que este último acepta la luz
con su misma polarización. Por el contrario,
cuando el segundo polarizador se sitúa
perpendicularmente al primero no pasa ninguna
luz.
Por último, si el segundo polarizador se
coloca en ángulo agudo entre ambas posiciones
extremas, entonces parte de la luz, pero no
toda, atravesará el segundo polarizador. Ésta es
la razón, dicho sea de paso, de que se utilicen
polarizadores en las gafas de sol, porque una
buena parte del brillo que se refleja en el cristal o
en el agua, y también parte del brillo del cielo,
queda parcialmente polarizado por el proceso de
la reflexión, de modo que, a menos que las
gafas de sol se sitúen en el plano de esta luz
polarizada, bloquean una buena parte de la
misma.
La razón de que el polarizador siga
aceptando por lo menos una fracción de la luz
que vibra oblicuamente con respecto a él puede
entenderse mediante una analogía con la acción
de empujar un coche (véase capítulo 3). La
vibración de la luz también es un vector y, si
coincide con el ángulo del polarizador, entonces
lo atraviesa, pero si es perpendicular, no pasa: la
luz queda bloqueada. Lo que importa aquí es
que es posible empujar un coche con moderada
eficacia mediante una fuerza oblicua, pongamos,
al tiempo que se apoya uno contra la puerta del
conductor con objeto de poder manejar el
volante.
Cuanto más cerrado sea el ángulo de
empuje con respecto a la línea de movimiento,
más eficaz será la respuesta del vehículo. Del
mismo modo, la luz oblicuamente polarizada
también tiene efectos parciales: una parte de la
luz pasa.
Considerar que el vector está compuesto de
dos componentes, ayuda a entender este logro
parcial. En el caso de la luz, esto significa
considerar que la onda luminosa consta de dos
ondas superpuestas, una de las cuales vibra
paralelamente al plano del polarizador mientras
la otra ondula en posición vertical. Cuanto más
cerrado es el ángulo de polarización con respecto
al plano del polarizador, mayor será la proporción
de la primera onda a expensas de la segunda. El
paso de una fracción de luz oblicuamente
polarizada a través del polarizador resulta ahora
fácil de entender: la onda de la componente
paralela lo atraviesa íntegramente, pero toda la
onda perpendicular queda bloqueada.
Estos experimentos tan razonables adoptan
un aspecto algo peculiar cuando se tiene en
cuenta la naturaleza cuántica de la luz, pues el
rayo de luz consiste en realidad en una corriente
de fotones, cada uno de los cuales tiene su
propio plano de polarización. Como sabemos
que ningún fotón individual se puede dividir en
dos componentes, debemos concluir que el
fotón oblicuamente polarizado pasa o es
bloqueado según una cierta probabilidad. Por
ejemplo, un fotón de 45° tiene el cincuenta por
ciento de probabilidades de pasar. Sin embargo
—y esto es de crucial importancia—, una vez
que ha pasado el fotón debe emerger con una
polarización paralela a la del polarizador puesto
que, como ya hemos visto, la luz que ha
atravesado el polarizador emerge
completamente polarizada en el mismo plano.
La conclusión es que, cuando el fotón
interacciona con el polarizador, su plano de
polarización cambia para adaptarse al del
polarizador. Podemos hacerlo pasar (con una
cierta probabilidad) por un segundo, un tercero o
más polarizadores, cada uno de ellos
relativamente inclinado con respecto al anterior,
y cada vez, al atravesarlos, el fotón saldrá con
un nuevo plano de polarización. De hecho, se
puede inclinar el plano hasta hacerlo
perpendicular al plano original. Es como si cada
vez que el fotón chocase con el polarizador,
fuera golpeado o arrojado a una nueva condición
de polarización. Si consideramos el polarizador
como un burdo instrumento de medir o un
detector de fotones, podemos decir que existen
dos posibles resultados de la medición: o bien el
fotón pasa o bien queda bloqueado. Todo lo que
sabemos con seguridad es el estado del fotón
una vez aceptado, pues entonces sabemos que
está polarizado en el mismo plano que el
polarizador. Si nos preguntamos cuál es la
polarización del fotón antes de hacer la medición,
es decir, antes de que emerja del polarizador,
entonces se plantea una dificultad, pues al
parecer el polarizador ha perturbado el estado del
fotón e impuesto su propio plano.
Sin embargo, se podría seguir
argumentando que el fotón tenía realmente un
determinado estado de polarización antes de la
medición, pero que debido a la tosquedad del
polarizador esa información se esfumó cuando el
fotón chocó con el polarizador.
Considérese, por ejemplo, un fotón de 45°
que tiene el cincuenta por ciento de
probabilidades de atravesar el polarizador. Da la
impresión de que el polarizador tiene éxito en
corregir por término medio a la mitad de los
fotones; los restantes quedan descartados y no
lo atraviesan.
Llegamos ahora al punto central del
razonamiento de Einstein-Podolsky-Rosen.
Supongamos que, en lugar de un fotón,
estudiamos dos que se desplazan en sentidos
contrarios, emitidos como consecuencia de la
desintegración de otra partícula, o de la
descomposición de un átomo. Así como las
leyes fundamentales de la mecánica exigen que
los dos fotones roten uno en el sentido de las
agujas del reloj y otro en el sentido contrario,
también las polarizaciones deben estar
correlacionadas: por ejemplo, pueden ser
paralelas. Esto significa que la medición de la
polarización de un fotón nos dice
inmediatamente la del otro, sin que importe la
distancia a que se encuentre situado en el
tiempo. Pero ya hemos visto que el resultado de
una medición sólo puede ser sí o no, según que
el fotón pase o no pase a través de un
polarizador. Sólo podemos afirmar el estado en
que se halla el fotón después de que haya tenido
lugar la medición, es decir, cuando emerge del
polarizador, y eso es cierto cualquiera que sea el
ángulo en que situemos el polarizador. Sólo
podemos detectar los fotones en uno de estos
dos estados: paralelos o perpendiculares al
polarizador (que corresponden a sí y no). No
obstante, la elección de cuáles dos estados
dependen absolutamente de nosotros; el
polarizador puede orientarse arbitrariamente. Las
consecuencias verdaderamente desconcertantes
de esta libertad resultan patentes si utilizamos
dos polarizadores paralelamente orientados e
interponemos uno de ellos en la trayectoria de
cada uno de los fotones correlacionados. Puesto
que imponemos polarizaciones paralelas,
cualquiera que sea la medida de la polarización
del fotón en uno estamos obligados a encontrar
la misma en el otro, pero como en realidad sólo
hay dos estados de polarización medibles (es
decir, paralelo y perpendicular), la decisión sí-no
de un polarizador debe ser idéntica a la del otro.
Es decir, cada vez que uno de los fotones
pasa por un polarizador, el otro debe permitir que
también lo atraviese el otro fotón, y siempre que
se bloquee uno de los fotones, lo mismo debe
ocurrirle al otro. Por singulares que puedan
parecer estas ideas, han sido cuidadosamente
comprobadas mediante experimentos de
laboratorio y se han comprobado los detalles
aquí descritos.
La profunda peculiaridad de este resultado
es evidente cuando se comprende que los
fotones pueden haberse alejado millones de
kilómetros en el momento en que chocan con
los respectivos polarizadores, pero que sin
embargo siguen cooperando en cuanto a su
comportamiento. El misterio consiste en ¿cómo
sabe el segundo polarizador que el primero ha
dejado pasar el fotón, para poder hacer lo
mismo?
Los experimentos pueden realizarse
simultáneamente, en cuyo caso estamos
seguros, basándonos en la teoría de la
relatividad, de que ningún mensaje puede
transmitirse a mayor velocidad de la que se se
mueven los propios fotones entre los
polarizadores que diga: «déjesele pasar». De
hecho, situando los polarizadores a distintas
distancias del átomo en desintegración podemos
arreglárnoslas para que un experimento ocurra
antes que el otro, descartando en consecuencia
toda posibilidad de que un polarizador transmita
la señal al otro o dé lugar a que éste acepte o
rechace el fotón. En realidad, la teoría de la
relatividad permite que observadores en distintas
condiciones de movimiento estén en desacuerdo
sobre el orden temporal de dos acontecimientos
muy alejados, de modo que si se alegara que el
polarizador A hace que el B acepte o rechace
como consecuencia de su propia decisión, ¡quien
se moviera de distinta manera podría ver que B
acepta o rechaza a A antes de que tan siquiera
sepa qué hacer con su fotón!
Estas observaciones ponen en claro que la
indeterminación del micromundo no puede ser
obra del aparato de medición, ni tampoco de los
bamboleos aleatorios que sufren los fotones en
su camino, pues entonces no habría ninguna
razón para que dos polarizadores distintos
cooperaran de esta llamativa manera en
bloquear o dejar pasar al unísono a sus
respectivos fotones. Si cada fotón recibiera su
plano de polarización al azar, no habría razón
para que llegasen a sus respectivos
polarizadores situados exactamente en el mismo
plano.
Sería de esperar que, como media, la mitad
de los fotones fueran aceptados por un
polarizador cuando el otro rechaza su fotón, pero
esto está en clara contradicción con las
anteriores predicciones e la teoría cuántica y con
los experimentos que las han verificado. La
conclusión debe ser que la incertidumbre
subatómica no es una mera consecuencia de
nuestra ignorancia sobre las microfuerzas, sino
que es inherente a la naturaleza: una absoluta
indeterminación del universo.
El experimento Einstein-Rosen-Podolsky
tiene asombrosas implicaciones sobre la
naturaleza de la realidad si se toma literalmente.
Sólo es posible retener un último vestigio de
sentido común alegando que, cuando ambos
polarizadores colaboran misteriosamente en
aceptar simultáneamente a los fotones, será
porque tales fotones están en todo momento
realmente polarizados de forma exactamente
paralela a los polarizadores, lo que asegura su
paso final por los respectivos polarizadores, y
que los bloqueados estaban realmente vibrando
siempre perpendicularmente a los polarizadores.
Pero el absurdo de este último y desesperado
intento de aferrarse al mundo real no radica
únicamente en el hecho de que el átomo original
debe estar obligado a saber en qué ángulo se
colocan los polarizadores, sin que incluso
podemos alterar ese ángulo después de que los
fotones hayan sido emitidos. Es difícil de
concebir que el comportamiento del átomo
pueda estar influido por nuestra decisión de
experimentar en algún momento futuro sobre el
fotón que emite. Como todos los demás átomos
emiten afortunadamente fotones con toda clase
de polarizaciones, de modo perfectamente
aleatorio cuesta creer que nuestros caprichos
experimentales afecten a uno en concreto, sobre
todo teniendo en cuenta que podemos elegir
detectar fotones de átomos situados a millones
de años luz de distancia, al final del universo.
Si no bastaran estas objeciones, es posible
demostrar matemáticamente que si los fotones
estuvieran realmente o bien en un estado
(paralelo a los polarizadores), o bien en el otro
(perpendicular), entonces la cooperación sí, no
fallaría. La correlación entre los dos polarizadores
sólo puede lograrse si la onda que describe el
fotón es una genuina superposición de ambas
alternativas.
La naturaleza ondulatoria de los procesos
cuánticos participa en todo esto de manera vital.
Para eliminar absurdos como que los átomos
prevean nuestros experimentos, supongamos
que disponemos de un rayo de fotones
polarizado en un plano concreto por el sistema
de haberlo hecho pasar previamente por un
polarizador. Cuando los fotones se aproximan a
otro polarizador que está inclinado con respecto
al primero, pueden ser aceptados o bien
rechazados, según una determinada probabilidad
que depende de manera aritméticamente simple
del ángulo de inclinación. Si es de 45°, pasarán
por término medio la mitad de los fotones.
Desde esta perspectiva, cabe imaginar que el
rayo polarizado está compuesto de dos ondas
de la misma fuerza, una paralela y otra
perpendicular al segundo polarizador. Estas dos
ondas deben ir juntas con objeto de constituir la
onda original polarizada sin inclinación. Los
efectos de interferencia entre las dos ondas
desempeñan una función esencial. No es posible
decir que la onda paralela ni la perpendicular
existan solas, pues eso contradice el hecho que
ya conocemos de que la onda no está polarizada
paralela ni perpendicularmente al segundo
polarizador, pero, puesto que la interferencia de
la onda sigue existiendo incluso para una sola
partícula, ambas posibilidades deben coexistir y
superponerse. Además, el ángulo del
polarizador, y de ahí la combinación relativa de
las dos alternativas, ¡depende por completo del
control del experimentador! Hay que subrayar
que la indeterminación cuántica no significa
simplemente que no podamos saber cuál es el
plano de polarización que realmente posee el
fotón: significa que la idea de un fotón con un
plano concreto de polarización es algo que no
existe. Hay una incertidumbre inherente en la
identidad del mismo fotón, no sólo en nuestro
conocimiento del fotón. Del mismo modo,
cuando se dice que no estamos seguros de la
localización de un electrón, no se trata
simplemente de que el electrón esté en un sitio u
otro, que nosotros no podemos asegurar. La
incertidumbre se refiere a la misma identidad del
electrón-en-un-sitio.
Dentro del espíritu de la idea del
superespacio, podemos considerar las ondas de
los fotones como representaciones de dos
mundos, uno en el que el segundo polarizador
acepta el fotón y otro en el que es rechazado.
Además, estos dos mundos pueden ser muy
distintos, pues el fotón aceptado puede proseguir
y disparar, por ejemplo, un detonador que haga
explotar una bomba de hidrógeno. No obstante
—y ésta es la culminación del largo análisis de
este capítulo—, estos dos mundos no son
realidades independientes. No son mundos
alternativos; se superponen entre sí. Es decir,
los cruciales efectos de interferencia causados
por la superposición de las dos ondas
demuestran que, antes de que el segundo
polarizador decida sobre el sino del fotón, ambos
mundos están combinados. Sólo cuando por fin
el polarizador decide, los dos mundos se
convierten en alternativas distintas de realidad.
El efecto de la medición por el segundo
polarizador consiste en separar los mundos
superpuestos en dos realidades alternativas
desconectadas.
Hemos llegado a hora a una cierta idea de la
naturaleza de la realidad concorde con las
interpretaciones habituales de la teoría cuántica,
pero se trata de una pálida sombra de la imagen
de sentido común. La indeterminación del
micromundo no es una mera consecuencia de
nuestra ignorancia (como ocurre con el clima),
sino que es absoluta. No nos encontramos con
una simple elección entre alternativas, tal como
la imprevisibilidad del cara/cruz en la vida diaria,
sino con un genuino híbrido de ambas
posibilidades. Hasta que hemos hecho una
observación concreta del mundo, carece de
sentido adscribirle una realidad concreta (o
incluso diversas alternativas), pues se trata de
una superposición de diversos mundos. En
palabras de Niels Bohr, uno de los fundadores de
la teoría cuántica, hay «limitaciones básicas, que
percibe la física atómica, en la existencia objetiva
de fenómenos independientes de los medios que
son observados». Sólo cuando se ha hecho la
observación se reduce este estado
esquizofrénico a algo que pueda llamarse
verdaderamente real.
En el capítulo anterior se explicó cómo el
mundo que observamos es un corte o una
proyección de un superespacio de infinitas
dimensiones, de una inmensa masa de mundos
alternativos. Vemos ahora que el mundo que
observamos no es exactamente una sección
aleatoria del superespacio, sino que depende de
modo crucial de todos los demás mundos que
no vemos. Así como la correlación sí/no entre
los dos polarizadores separados depende
crucialmente de la interferencia entre el mundo
del sí y el mundo del no, del mismo modo en
cualquier otra interacción, en cada átomo
perdido, en cada microsegundo, todos los
mundos-que-nunca-existieron dejan un vestigio
de su realidad putativa en nuestro propio mundo
por su efecto sobre las probabilidades de todos
estos procesos subatómicos. Sin los otros
mundos del superespacio, el cuanto fallaría y el
universo se desintegraría; estas innumerables
alternativas que se disputan la realidad ayudan a
dirigir nuestro propio destino.
Según estas ideas, la realidad sólo tiene
sentido dentro del contexto de una medición u
observación prescrita. Por regla general, no
podemos decir que un electrón, ni un fotón ni un
átomo, se estaba comportando realmente de tal
o cual modo antes de haberlo medido. La única
realidad es el sistema total de partículas
subatómicas más el aparato y el
experimentador, pues cuando el experimentador
decide, por ejemplo, girar su polarizador, cambia
los mundos alternativos.
Cada vez que alguien con gafas polarizadas
hace un movimiento de cabeza, reordena la
selección de mundos del superespacio. Puede
optar entre crear un mundo de fotones
orientados de norte a sur, de este a oeste o
cualquier otro que se le ocurra.
De ahí se deduce que el observador está
inserto en la realidad de una manera
fundamental: al elegir el experimento, elige las
alternativas que se ofrecen. Cuando cambia de
idea, cambia la selección de los mundos
posibles. Por supuesto, el experimentador no
puede seleccionar exactamente el mundo que
quiere, pues los mundos siguen sometidos a las
leyes probabilísticas, pero puede influir en la
selección disponible. En suma, no podemos
cargar los dados, pero sí decidir a qué queremos
jugar.
Hay que aceptar, pues, que la participación
del observador en su propia realidad es mucho
más profunda que la clásica imagen newtoniana
del mundo en la que el observador está
incrustado en la realidad pero sólo como un
autómata cuyos actos vienen totalmente
determinados por las leyes de la mecánica. En la
versión cuántica, hay una indeterminación
inherente y la realidad concreta sólo aparece
dentro del contexto de un tipo concreto de
medición u observación.
Sólo cuando se ha especificado el montaje
experimental (por ejemplo, qué ángulo se escoge
darle al polarizador) pueden especificarse las
posibles realidades. Algunos científicos han
sugerido que al desacreditar la idea newtoniana
de un universo mecánico habitado por
observadores que son meros autómatas, la
teoría cuántica restaura la posibilidad del libre
albedrío. Si en cierto sentido el observador
escoge su propia realidad, ¿no equivale eso a la
libertad de elección y a la capacidad de
reestructurar el mundo según nuestro capricho?
Aunque la respuesta puede ser afirmativa,
debemos recordar que en la teoría cuántica el
observador (o experimentador) no puede
determinar, por regla general, el resultado de
ningún experimento concreto. Como ya hemos
subrayado, la única elección de que disponemos
es entre varios resultados alternativos, no sobre
cuál de las alternativas se realizará. Así pues, es
posible decidir la creación de un mundo en que
unos fotones estén polarizados de norte a sur o
de este a oeste, o bien otro mundo en que estén
polarizados de nordeste a sudoeste o de
noroeste a sudeste, etc. NO obstante, no se
puede elegir cuál de las dos posibilidades ocurrirá
en cada caso. No nos es posible obligar a un
fotón polarizado de manera aleatoria a que lo
esté de norte a sur en lugar de estarlo de este a
oeste, porque no podemos obligarlo a pasar por
un polarizador orientado de norte a sur. Del
mismo modo, podemos elegir medir la posición
o el impulso de una partícula, pero no ambas
cosas. Después de la medición, la partícula
tendrá un valor bien determinado de una u otra
cosa, según el experimento que hayamos
elegido.
Al parecer nos encontramos en una situación
en que el universo está en una especie de
estado esquizofrénico latente hasta que alguien
lleva a cabo una observación, pues entonces se
colapsa repentinamente en realidad. Además,
como ha subrayado el dilatado tratamiento
anterior de los dos fotones correlacionados que
se desplazan en direcciones opuestas, el colapso
en realidad no ocurre únicamente en el plano
local (es decir, en el laboratorio), sino también,
súbita e instantáneamente, en regiones distintas
del universo.
Sabemos por la teoría de la relatividad, que
observadores distintos suelen estar en
desacuerdo sobre qué es lo instantáneo, de
modo que el acceso a la realidad parece ser
exclusivamente una cuestión individual. En
consecuencia, no es posible utilizar este colapso
como instrumento para transmitir señales entre
dos observadores distantes.
Según la relatividad, toda señal enviada a
mayor velocidad que la de la luz amenazaría el
principio de causalidad, pues en ese caso no sólo
sería posible enviar una señal de respuesta
instantánea desde el punto de vista del otro
observador, sino incluso enviar señales al propio
pasado. Esta posibilidad plantea horribles
paradojas en relación con las máquinas
autocidas que están programadas para
autodestruirse a las dos en punto si reciben a la
una una señal que ellas mismas han transmitido
a las tres. Si se destruyen a las dos, no pueden
transmitir a las tres, de tal modo que no se
recibe ninguna señal y no se produce ninguna
destrucción. Pero si no se produce ninguna
destrucción, entonces se envía la señal y se
produce la destrucción.
Esta evidente contradicción parece regir la
comunicación que retrocede en el tiempo y, por
tanto, los mensajes más rápidos que la luz.
En el caso cuántico, hemos visto que el
paso de un fotón por un polarizador en un lugar
puede asegurar el paso de otro fotón por otro
polarizador situado en otro lugar, quizás a miles
de kilómetros de distancia, en el mismo
momento (en relación con un experimento
concreto) o bien, de hecho, incluso antes de ese
momento. A pesar de esta sorprendente
propiedad, el experimentador no tiene control
sobre ninguno de los fotones individuales, debido
a la incertidumbre cuántica, de manera que no le
es posible convenir con un colega distante que,
por ejemplo, el paso de tres fotones
consecutivos por el polarizador significa que el
Everton ha ganado la Copa de fútbol. Por tanto,
la teoría de la relatividad se mantiene intacta y la
posibilidad de comunicarse por el universo a
mayor velocidad que la luz, con su consiguiente
amenaza a la causalidad, sigue siendo ilusoria.
Aunque los sistemas distante, como el de
nuestros dos fotones y polarizadores, no pueden
vincularse mediante ningún tipo convencional de
canal comunicativo, tampoco se pueden
considerar entidades separadas. Aunque los dos
polarizadores estén en distintas galaxias,
inevitablemente constituyen un único dispositivo
experimental y una única versión de la realidad.
En la concepción intuitiva del mundo
consideramos que dos cosas tienen identidades
distintas cuando están tan alejadas que su
mutua influencia es despreciable. Dos personas
o dos planetas, por ejemplo, se consideran
cosas distintas, cada cual con sus propios
atributos. Por el contrario, la teoría cuántica
propone que, al menos hasta haber hecho la
observación, el sistema que nos interesa no se
puede considerar un conjunto de cosas distintas
sino un todo unificado e indivisible. Así pues, los
dos polarizadores distantes y sus respectivos
fotones no son realmente dos sistemas aislados
con propiedades independientes, sino que están
enigmáticamente vinculados por los procesos
cuánticos.
Sólo una vez hecha la observación puede
considerarse que el fotón lejano adquiere
identidad diferenciada y existencia
independiente.
Además, ya hemos visto cuán falto de
sentido es asignar propiedades a los sistemas
subatómicos en ausencia de un dispositivo
experimental preciso. No podemos decir que un
fotón tenga realmente tal o cual polarización
antes de haberla medido. Por tanto, es
incorrecto considerar la polarización del fotón
como una propiedad del fotón; es más bien un
atributo que debe asignarse a ambos fotones y
al dispositivo macroscópico experimental.
De ahí se deduce que el micromundo sólo
tiene propiedades en la medida que las comparte
con el macromundo de nuestra experiencia.
La verdadera amenaza a nuestra
concepción intuitiva de la realidad se produce
cuando se tiene en cuenta la naturaleza atómica
de toda la materia. Podríamos tener la
sensación de que los resultados de los oscuros
experimentos sobre fotones polarizados tienen
escasa relevancia para nuestra vida cotidiana,
pero todas las cosas conocidas que nos rodean
—todos los cuerpos materiales— están
compuestos de átomos, sujetos a las leyes de la
teoría cuántica. En cualquier puñado de materia
ordinaria hay miles de millones de billones de
átomos, que chocan entre sí a razón de millones
de veces por segundo.
De acuerdo con las ideas que hemos
esbozado, cuando dos partículas microscópicas
se influyen mutuamente, aunque se separen, no
pueden considerarse cosas reales
independientes, sino que están correlacionadas,
aunque habitualmente de manera mucho más
compleja que los dos fotones de que nos hemos
ocupado. De ahí se sigue que, a todo lo ancho
del universo, los sistemas cuánticos están
emparejados de este extraño modo en una
gigantesca congregación indivisible. La creencia
original de los antiguos griegos de que toda la
materia está compuesta de átomos individuales
e independientes parece ser una burda
simplificación, pues los átomos no tienen
realidad considerados de uno en uno. Sólo en el
contexto de nuestras observaciones
macroscópicas tiene sentido su realidad. Pero
nuestras observaciones están enormemente
limitadas, tanto a los rasgos más toscos de la
materia —pues rara vez observamos los átomos
individuales, excepto en experimentos especiales
— como a nuestra pequeña parcela del universo.
Llegamos, pues, a una imagen en la que la
inmensa mayor parte del universo no puede
considerarse real, en el sentido tradicional de la
palabra. De hecho, John Wheeler ha llegado a
afirmar que el observador crea literalmente el
universo con sus observaciones:

«¿Ha de resultar el propio


mecanismo de la existencia del universo
sin sentido o inviable, o ambas cosas, a
no ser que el universo tenga la garantía
de producir vida, conciencia y
observación en alguna parte y durante
algún breve periodo de su historia
futura? La teoría cuántica demuestra
que, en un cierto sentido, lo que el
observador haga en el futuro determina
lo que ocurre en el pasado, incluso en un
pasado tan remoto en que no existía la
vida, y aún demuestra más: que la
observación es un requisito previo de
cualquier versión útil de la realidad».

No es necesario decir que estas ideas


radicales sobre la realidad incorporadas en la
teoría cuántica han dado lugar a décadas de
controversia y polémica. Si bien quedan pocas
dudas sobre el éxito alcanzado por la teoría en el
plano operativo —los físicos no tiene dudas
sobre cómo calcular realmente las propiedades
de los átomos, las moléculas y la materia
subatómica utilizando esta teoría—, sin
embargo, los aspectos epistemológicos y
metafísico de la física cuántica siguen causando
nerviosismo. La interpretación descrita en este
capítulo se debe principalmente a Niels Bohr,
que fue uno de los creadores de la teoría
cuántica.
Se le suele denominar la interpretación de la
escuela de Copenhage, por el grupo de Bohr
radicado en Dinamarca, y es probablemente una
de las más aceptadas por los físicos. No
obstante, algunos han entendido que contiene
ideas paradójicas, incompletas o insensatas.
Albert Einstein, en especial, pensaba que la
teoría era incompleta porque no podía
comprender cómo un fotón y un polarizador
lejanos podían ser inducidos a responer de
acuerdo con el comportamiento de un fotón y un
polarizador cercanos. ¿Cómo puede saber el
lejano si debe aceptar o rechazar el fotón sin
algún complicado mecanismo que se lo indique,
que necesariamente quebranta los principios de
la teoría de la relatividad del propio Einstein al
ser más rápido que la luz?
En réplica al rechazo de Einstein, Bohr
sostuvo que los sistemas microscópicos no
tienen propiedades intrínsecas de ninguna clase,
de modo que es innecesario considerar que el
estado de un fotón le sea indicado a otro, pues
después de todo un fotón aislado no tiene en
absoluto estado. Sólo el experimento global tiene
sentido.
Bohr propuso que la única realidad
verdadera es la que puede comunicarse en
lenguaje llano entre las personas, como es la
descripción del clic de un contador Geiger o el
paso de un fotón por un polarizador. Todo
planteamiento sobre lo que está realmente
haciendo un fotón, un átomo, etc., sólo puede
afrontarse en el marco de un dispositivo
experimental concreto y real. Refiriéndose a
estas condiciones experimentales, que
determinan el tipo de propiedades que se
pueden medir, Bohr sostuvo que «constituyen
un elemento inherente de […] la realidad física».
De este modo eludió las objeciones de Einstein.
A pesar del atractivo de la interpretación de
Copenhage y de los habilidosos argumentos de
Bohr, algunos físicos siguen encontrando las
ideas en cuestión paradójicas, porque basan la
realidad en los conceptos clásicos de los
aparatos experimentales que en sí mismos
están desacreditados por la teoría cuántica. La
física newtoniana clásica —la física del lenguaje
llano y diario, de los objetos de sentido común
que Bohr desea utilizar— sabemos que es falsa.
Utilizar un lenguaje llano para definir la realidad
microscópica parece, pues, una incoherencia. En
el próximo capítulo veremos que se han
propuesto otras interpretaciones de la teoría
cuántica con consecuencias aún más
fantásticas.
Capítulo VII

Mente, materia y mundos múltiples

Hemos visto cómo la teoría cuántica ha


socavado la noción intuitiva o de sentido común
de la realidad objetiva y ha colocado al
observador y sus experimentos en el centro de
la definición de cualquier idea válida del mundo
real exterior. No obstante, sigue habiendo cierta
vaguedad sobre qué es exactamente lo que
constituye un observador y qué clases de
procesos físicos participan en su observación. La
interpretación de la escuela de Copenhage utiliza
mucho el aparato experimental. ¿Qué es éste
exactamente?
Un laboratorio bien pertrechado está
equipado con numerosos instrumentos para
sondear la estructura de los átomos y de sus
componentes. Algunos nos son conocidos: tubos
de rayos X, contadores Geiger, cámaras de
vacío, aceleradores de partículas de gran
energía y placas fotográficas. No obstante,
todos estos aparatos, por no hablar de los
técnicos del laboratorio, están compuestos de
átomos, e incluso Bohr concede que asimismo
deben estar sometidos a las minúsculas
incertidumbres que caracterizan la física
cuántica.
No hay una línea divisoria clara entre los
sistemas microscópicos y los instrumentos
microscópicos de medición. Los procesos
cuánticos pueden observarse en moléculas que
contienen muchos átomos y pueden ser
prominentes incluso en cantidades visibles de
fluidos y metales. El fenómeno de la
superconductibilidad, por ejemplo, en que los
electrones de un metal se combinan en parejas
y cooperan a escala macroscópica para crear un
flujo de corriente eléctrica completamente
carente de resistencia es un ejemplo de efectos
cuánticos en el plano de la ingeniería. Sin duda,
no es posible señalar una cosa y decir «que es
microscópica y está sometida a la teoría
cuántica» o «que es macroscópica y está
sometida a la física clásica de Newton».
Si todos los sistemas son, en último término,
de naturaleza cuántica, una paradoja parece
envolver el acto de medir. Para centrar las ideas,
tomemos un ejemplo sencillo: la observación de
un núcleo atómico radiactivo. Tal núcleo emitirá
una o más partículas subatómica que pueden
detectarse en un contador Geiger: si el contador
emite un clic esto significa que se ha
desintegrado un núcleo; si no, el núcleo está
intacto. En lugar del clic, hay contadores
equipados con indicadores que oscilan sobre una
escala graduada: si el indicador se mantiene en
la posición A, el núcleo está intacto; si salta,
pongamos, a la posición B, se ha detectado una
partícula y podemos deducir que el núcleo se ha
desintegrado. Por tanto, la posición del indicador
está correlacionada con la condición del núcleo
de una manera simple. Observando el indicador
observamos de manera eficaz el núcleo.
Toda medición conlleva el par de elementos
aquí descrito, que constituye una parte
indispensable del proceso de observación, es
decir, la correlación entre las condiciones
microscópicas del sistema que nos interesa y
ciertos estados macroscópicos visibles del
aparato, y la ampliación de los diminutos efectos
cuánticos para producir alguna clase de cambio a
gran escala, como es la desviación del indicador.
Según la física cuántica, el estado del sistema
microscópico debe describirse como una
superposición de ondas, cada una de las cuales
representa un determinado valor de alguna
propiedad, como la posición, el impulso, el spin o
la polarización de una partícula. Es vital recordar
que la superposición no representa un conjunto
de alternativas —una elección excluyente—, sino
una genuina combinación superpuesta de
realidades posibles. La verdadera realidad sólo
queda determinada cuando se ha efectuado la
medición de aquellas propiedades. No obstante,
aquí yace el problema. Si el aparato de medición
de aquellas propiedades. No obstante, aquí yace
el problema. Si el aparato de medición también
está compuesto de átomos, también debe
describirse como una onda compuesta de una
superposición de todos sus estados alternativos.
Por ejemplo, nuestro contador Geiger es una
superposición de los estados A y B (indicador no
desviado e indicador desviado), lo cual,
repetimos, no significa que o bien está desviado
o bien no está desviado, sino de un modo
extraño y esquizofrénico ambas cosas a la vez.
Cada una de ellas representa una realidad
alternativa generada por la desintegración del
núcleo, pero estas realidades no sólo coexisten,
también se superponen o interfieren entre sí
mediante el fenómeno de la interferencia de las
ondas.
La razón de que no percibamos la
superposición de otras realidades con la nuestra
se debe a que, al tamaño del aparato de
laboratorio, el efecto de interferencia es casi
infinitesimalmente pequeño. Mientras que en el
interior de los átomos los mundos alternativos se
empujan vigorosamente unos a otros, a la
escala cotidiana sus influencias mutuas son casi
inexistentes. Pero no completamente
inexistentes. Si realmente creemos que la teoría
cuántica se aplica a los objetos macroscópicos,
entonces hemos de conceder que estas
influencias, por pequeñas que sean, de las
realidades superpuestas invaden nuestro mundo.
Tratándose de tan profundas cuestiones
teóricas, la pequeñez del efecto poco importa,
pues en teoría podremos detectar tal
interferencia utilizando aparatos suficientemente
complejos y delicados.
Hasta este momento tenemos una imagen
del universo en forma de superposición de
realidades extendidas por el superespacio, que
son separadas en mundos desconectados y
alternativos en cuanto se hace una observación.
Ahora vemos que el mecanismo de separación
no es del todo efectivo y que algunos diminutos
hilos siguen conectando nuestro mundo con los
demás mundos del superespacio. La separación
sólo puede ser total, y la realidad hacerse
completamente objetiva, cuando se utiliza un
instrumento verdaderamente no cuántico para la
medición, pues en otro caso siempre quedarán
interferencias residuales entre los distintos
mundos. Pero, ¿existe algún sistema que
verdaderamente no sea cuántico? Si lo hay
puede utilizarse para transgredir las normas de la
teoría cuántica; si no lo hay, no puede haber
ninguna realidad. ¿Cómo escapar a este dilema?
En la década de 1930 el matemático John
Von Neumann investigó con gran detalle el
proceso de medición cuántica. Sostuvo en
términos matemáticos que cuando un sistema
microscópico se empareja con un instrumento de
medida macroscópico, el efecto del
emparejamiento consiste en hacer que el
sistema microscópico se comporte como si
estuvieran ausentes los efectos de interferencia.
Es decir, el estado del microsistema parece
reducirse de una superposición de estados a un
conjunto genuino de posibilidades alternativas
excluyentes. Por desgracia, este análisis no
equivale a una demostración de la reducción a
una realidad, puesto que otro resultado del
emparejamiento consiste en transferir efectos de
interferencia al aparato medidor, y para que el
aparato se reduzca a una realidad, otro sistema
debe hacer otra medición del aparato. Pero el
mismo razonamiento puede extenderse al
siguiente sistema, requiriéndose entonces otro
instrumento para medir ese instrumento, y así
sucesivamente, al parecer, hasta el infinito.
¿Dónde termina esta cadena?
Erwin Schrödinger, el inventor de la teoría
ondulatoria de la mecánica cuántica, llamó la
atención sobre una curiosidad que ha llegado a
conocerse como paradoja del gato. Supongamos
un microsistema compuesto de un núcleo
radiactivo que puede desintegrarse o n al cabo
de, pongamos, un minuto, según las leyes de la
probabilidad cuántica. La desintegración la
registra un contador Geiger, que a su vez está
conectado a un martillo, de tal modo que si el
núcleo se desintegra y se produce la respuesta
del contador, se libera un disparador que hace
que el martillo caiga y rompa una cápsula de
cianuro. Todo el conjunto está colocado dentro
de una caja sellada junto con un gato. Al cabo de
un minuto, hay el cincuenta por ciento de
probabilidades de que el núcleo se haya
desintegrado. Pasado el minuto el instrumento
se desconecta automáticamente. ¿Está el gato
vivo o muerto?
La respuesta podría parecer que consistiera
en que hay un 50% de probabilidades de que el
gato esté vivo cuando miremos en la caja. No
obstante, si seguimos a Von Neumann y
aceptamos que las ondas superpuestas que
representan el núcleo desintegrado y el núcleo
intacto están correlacionadas con las ondas
superpuestas que describen al gato, entonces
una onda del gato corresponde al gato vivo y la
otra al gato muerto. El estado del gato, al cabo
de un minuto, no puede ser o bien vivo o bien
muerto debido a esta superposición. Por otra
parte, ¿qué sentido podemos darle a un gato
vivo-y-muerto?
A primera vista, parece que el gato sufre
uno de esos curiosos estados esquizofrénicos de
que hemos hablado extensamente en el capítulo
anterior, y su sino sólo queda determinado
cuando el experimentador abre la caja y mira
para comprobar el estado de salud del gato. No
obstante, como es posible retrasar este último
paso tanto como se quiera, el gato puede
perdurar en esta animación suspendida hasta
que finalmente sea expulsado de su purgatorio o
resucitado a plena vida por la obligada pero
caprichosa curiosidad del experimentador.
El aspecto insatisfactorio de esta descripción
es que el propio gato, presumiblemente, sí sabe
si está vivo o muerto mucho antes de que nadie
mire dentro de la caja.
Cabría alegar que el gato no es un
observador propiamente dicho, en la medida en
que no tiene la completa conciencia de su propia
existencia de que disfruta el hombre, de manera
que sería demasiado corto de luces para saber si
está muerto, vivo o vivo-y-muerto. Para eludir
esta objeción, podemos sustituir al gato por un
voluntario humano, a veces conocido en le
hermandad de los físicos como el amigo de
Wigner, por el físico Eugene Wigner, que ha
tratado este aspecto de la paradoja. Con un
cómplice así de capaz instalado en la caja, es
posible, si lo encontramos vivo al final del
experimento, preguntarle qué ha sentido durante
el periodo anterior a que se abriera la caja. No
cabe duda de que responderá «nada», pese a
que su cuerpo estuviera en estado de vida-y-
muerte durante el tiempo del experimento, para
emerger dramáticamente una vez más a la
condición de vivo. Es cierto que a veces las
personas se quejan de sentirse medio muertas,
pero cuesta creer que los fenómenos de
interferencia cuántica tenga mucho que ver con
eso.
Si insistimos en adherirnos a cualquier precio
a los principios cuánticos, desembocamos en el
solipsismo: la conclusión de que el individuo (en
este caso el lector) es lo único que realmente
existe, siendo todo lo demás robots
inconscientes que simplemente componen el
decorado. Si el amigo de Wigner es un robot, no
se puede confiar en que dé fielmente cuenta de
sus percepciones, pues en realidad no siente
nada. Ahora bien, esto es un gran salto, pues
coloca al observador en el centro de la realidad
de una manera más crucial de lo que
previamente habíamos aceptado.
Para eludir el solipsismo, el propio Wigner ha
propuesto que la teoría cuántica no puede ser
correcta en todas las circunstancias; que cuando
participa la percepción consciente del observador
la teoría se desmorona y la descripción del
mundo como conjunto de ondas superpuestas
queda invalidada. El solipsismo ha tenido sus
partidarios durante siglos, pero la mayor parte de
la gente, incluido Wigner, lo encuentra
inaceptable. En la interpretación de Wigner de la
teoría cuántica, el entendimiento de los seres
conscientes ocupa un papel central dentro de las
leyes de la naturaleza y de la organización del
universo, pues es precisamente cuando la
información sobre una observación penetra en la
conciencia de un observador cuando realmente
la superposición de ondas cristaliza en realidad.
Así pues, en un determinado sentido, ¡todo el
panorama cósmico está generado por sus
propios habitantes! Según la teoría de Wigner,
antes de que hubiese vida inteligente el universo
realmente no existía. Esto plantea a los seres
vivos la grave responsabilidad, de hecho una
responsabilidad cósmica, de mantener la
existencia de todo lo demás, pues si cesara la
vida, todos los demás objetos —desde la estrella
remota hasta la menor partícula subatómica—
ya no disfrutarían de realidad independiente, sino
que caerían en el limbo de la superposición. La
ganancia que reporta este pavoroso papel
consiste en que el amigo de Wigner está ahora
en condiciones de reducir los contenidos de la
caja —incluido él mismo— a realidad, de tal
modo que cuando Wigner le pregunte finalmente
cómo se ha sentido en los momentos
precedentes, podrá afirmar «bien», seguro de
que el conocimiento que tiene es ya cien por
cien real, sin depender de la ayuda de la
posterior observación de su estado por Wigner
para emerger corporal y mentalmente en
realidad.
Como era de esperar, la idea de Wigner ha
sido muy criticada. Los científicos suelen
considerar la conciencia, en el mejor de los
casos, como algo poco definido (¿es consciente
una cucaracha?, ¿una rata?, ¿un perro?…) y, en
el peor de los casos, como inexistente desde el
punto de vista físico. Sin embargo, debe
concederse que todas nuestras observaciones y,
a través de éstas, toda la ciencia se basan, en
último término, en nuestra conciencia del mundo
que nos rodea.
Tal como habitualmente se concibe, el
mundo exterior puede actuar sobre la conciencia,
pero ésta no puede de por sí actuar sobre el
mundo, lo que quebranta el principio, por lo
demás universal, de que toda acción da lugar a
una reacción. Wigner propone reafirmar este
principio también en el caso de la conciencia, de
modo que ésta pueda afectar al mundo, de
hecho, reduciendo la superposición a realidad.
Una objeción más seria a las ideas de
Wigner se plantea si participan dos observadores
en el mismo sistema de observación, pues
entonces cada uno de ellos tiene el poder de
cristalizarlo en realidad.
Para ilustrar el tipo de problemas que de ahí
se derivan, supongamos que estudiamos de
nuevo un núcleo radiactivo, cuya desintegración
dispararía un contador Geiger, pero que esta vez
no hay ningún observador consciente implicado
de forma inmediata. Todo está dispuesto de tal
mod que al cabo de un minuto, cuando la
probabilidad de desintegración es del cincuenta
por ciento, el experimento haya terminado y el
indicador del contador Geiger queda fijo en
cualquiera que sea la posición que en ese
momento ocupe, es decir, desviada si el núcleo
se ha desintegrado y sin variación en el caso
contrario, de tal forma que sea posible hacer su
lectura en cualquier momento posterior. En lugar
de haber un experimentador que mire
directamente el contador, el contador Geiger es
fotografiado. Cuando al fin se revela la
fotografía, el experimentador la mira, sin
consultar en ningún momento el contador
directamente. Según Wigner, sólo en esta última
etapa del proceso aparece la realidad, puesto
que la realidad debe su creación al ato
consciente de la observación por parte del
experimentador o de cualquier otra persona. De
ahí que debamos concluir que antes del examen
de la fotografía, el núcleo, el contador Geiger y
la fotografía estaban los tres en situaciones
esquizofrénicas consistentes en la superposición
de los resultados alternativos del experimento,
aun cuando el revelado de la fotografía pueda
retrasarse muchos años. Ese rinconcito del
universo tiene que permanecer brujuleando en la
irrealidad hasta que el experimentador (o bien un
espectador curioso) se digne a echar una ojeada
a la fotografía.
El verdadero problema surge si se toman
dos fotografías sucesivas, llamémoslas A y B,
del contador Geiger al final del experimento.
Puesto que el indicador queda fijado, sabemos
que la imagen de A debe ser idéntica que la de
B. El obstáculo aparece si también hay dos
experimentadores, llamémosles Alan y Brian, y
Brian ve la fotografía B antes de que Alan vea la
A. Ahora bien, B fue tomada después de A, pero
es examinada antes. La teoría de Wigner exige
que Brian sea aquí el individuo consciente
responsable de crear la realidad, puesto que es
el primero que ve su documento fotográfico.
Supongamos que Brian ve el indicador
desviado y afirma que el núcleo se ha
desintegrado. Naturalmente, cuando Alan ve la
fotografía A, ésta presentará igualmente le
indicador desviado. La dificultad es que cuando
se tomó la fotografía A, todavía no existía la
fotografía B, ¡de manera que la ojeada de Brian
a la fotografía B causa misteriosamente que A
sea idéntica a B aun cuando A fue tomada con
anterioridad a B!
Parece ser que nos vemos obligados a creer
en causaciones retroactivas; al mirar Brian la
fotografía, quizá muchos años después, influye
en la operación de la cámara durante la
fotografía anterior.
Pocos físicos están dispuestos a invocar la
conciencia como explicación de la transición del
mundo desde la superposición fantasmal a la
realidad concreta, pero la cadena de Von
Neumann no tiene ningún otro final evidente.
Podemos considerar sistemas cada vez
mayores, actuando cada cual como una especie
de observador de otro sistema, tomando nota
del estado del sistema menor, hasta que el
conjunto de ensamblaje abarque el universo
entero. ¿Qué pasa entonces?
Como vimos en el capítulo 5, de hecho el
universo puede describirse como un
superespacio de universos: la superposición de
una infinitud de mundos superpuestos. Si
nuestro mundo no es más que una proyección
del superespacio, o un corte tridimensional del
mismo, entonces hay que encontrar la forma de
reducir este inmenso haz de mundos del
superespacio a esta única proyección. Pero
como sabemos ahora, esta cristalización en
realidad precisa de un sistema no-cuántico que lo
observe. Cuando nos ocupamos del universo
entero —de toda la creación— no hay, por
definición, nada exterior que pueda observarlo. El
universo se supone que es todo lo que existe y,
si todo está cuantificado, incluido el espacio-
tiempo, ¿qué es lo que puede colapsar el
cosmos en realidad sin invocar la conciencia?
Una idea extravagante que ha disfrutado de
cierta aceptación entre los físicos es la propuesta
por Hugh Everett en 1957 y desarrollada por
Bryce De Witt, de la Universidad de Texas. La
idea básica consiste en abandonar los aspectos
epistemológicos y metafísicos de la teoría
cuántica y aceptar literalmente la descripción
matemática. Se trata de una cuestión sutil que
precisa de explicación. Cuando utilizamos las
matemáticas para representar un sistema
conocido, como la trayectoria de un proyectil, la
marcha de una economía o bien para contar
ovejas, se supone que los símbolos
matemáticos sustituyen directamente las cosas
que representamos (es decir, proyectiles, dinero
u ovejas). Esto también sigue siendo cierto en
buena parte de la física moderna y sin duda en
el caso de la mecánica newtoniana. No
obstante, en la interpretación convencional de la
teoría cuántica, no es cierto.
Como hemos explicado en los anteriores
capítulos, es necesario describir el movimiento
de las partículas microscópicas mediante una
onda. La onda no es en sí un objeto físico que
pueda imaginarse como una sustancia ni
observarse en el laboratorio; es una onda
probabilística. Además, como hemos señalado
en el capítulo 6, ni siquiera podemos considerar
una partícula aislada como una cosa por derecho
propio, con cualidades independientes. De ahí se
sigue que las matemáticas se refieren en este
caso a algo absolutamente abstracto y que
realmente sólo proporciona un algoritmo para
calcular los resultados de las observaciones
reales.
Según Bohr, las ondas de materia no son en
absoluto una cosa, sino únicamente un
procedimiento de cálculo. Bohr sostiene que «es
un error pensar que la tarea de la física consiste
en descubrir cómo es la naturaleza. La física se
ocupa de lo que nosotros podemos decir de la
naturaleza». Y según Heisenberg, las
matemáticas «ya no describen el
comportamiento de las partículas elementales,
sino sólo nuestro conocimiento de su
comportamiento».
La propuesta de Everett y De Witt consiste
en restaurar la realidad de la onda y considerarla
una auténtica descripción del mundo. El precio a
pagar por el ascenso de categoría es la
supresión de la paradoja de la medición
anteriormente descrita, puesto que no es
necesario que ocurra ninguna especial reducción
a una realidad en el momento de la observación:
la realidad ya está ahí. Así pues, la teoría de
Everett considera que las partículas atómicas
existen realmente en unas condiciones concretas
y bien determinadas, aunque sigan estando
sometidas a las habituales incertidumbres de la
mecánica cuántica. Esto supone un marcado
contraste con la interpretación de la escuela de
Copenhage descrita en el capítulo 6.
A la vista del tratamiento presentado en el
anterior capítulo sobre las dificultades que
conlleva la visión de sentido común de la
realidad, podría parecer extraño que un simple
cambio de perspectiva respecto a las
matemáticas restaurase la realidad. El caso es
que la imagen de la realidad de Everett está tan
lejos de la de sentido común como la imagen de
la escuela de Copenhage. La capacidad de las
ondas para superponerse y de las condiciones
cuánticas para reconstruirse a partir de una
superposición de otros estados es un elemento
ineludible de la física microscópica. En la teoría
de Everett esto se acepta serenamente y se
lleva a sus conclusiones lógicas: si la
superposición a modo de onda es real, también
lo es el superespacio. En lugar de suponer que
todos los demás mundos del superespacio son
meras realidades potenciales —mundos fallidos
— que se codean con el mundo que nosotros
percibimos pero no adquieren su propia
concreción, Everett propone que esos otros
universos existen realmente y son en cada punto
tan reales como el que nosotros habitamos. De
hecho, como veremos, es equivocado pensar
que nosotros habitamos un mundo especial del
superespacio: en la teoría de Everett, el propio
superespacio es nuestra morada.
La teoría de Everett se denomina a veces,
por razones obvias, la interpretación en muchos
universos de la teoría cuántica, y tiene algunas
consecuencias notables, una de las cuales
queda bien ejemplificada en el polarizador y el
fotón. Como se ha explicado en el capítulo
anterior, si el polarizador se sitúa en un
determinado ángulo, el fotón o bien pasará —en
cuyo caso emergerá con exactamente la
polarización del ángulo del polarizador— o bien
quedará bloqueado. En términos de ondas, el
estado del fotón antes de alcanzar el polarizador
es una superposición de dos mundos, uno en
que la polarización del fotón es paralela a la del
polarizador y otro en el que es perpendicular.
Ahora bien, la interpretación de la escuela de
Copenhage dice que, al alcanzar el polarizador,
sólo uno de estos dos mundos se proyecta fuera
del superespacio como verdadera realidad.
En la teoría de los muchos universos,
ambos mundos son reales, de manera que el
hecho de disparar un fotón hacia el polarizador
divide literalmente el universo en dos: uno en el
que el fotón pasa y otro en el que queda
bloqueado.
En la exposición anterior, se ha elegido un
ejemplo especialmente simple que sólo admite
dos alternativas. No obstante, en general, habría
muchos mundos alternativos posibles como
resultado de un experimento, e incluso podría
haber una infinidad de ellos. De ahí se deduce
que, según esta teoría, el mundo está
constantemente escindiéndose en incontables
nuevas copias de sí mismo. En palabras de De
Witt: «Debemos imaginar que nuestro universo
está constantemente dividiéndose en un
inmenso número de ramas». Cada proceso
subatómico tiene la facultad de multiplicar el
mundo, a lo mejor un enorme número de veces.
De Witt explica: «Cada transición cuántica que
tiene lugar en cada estrella, en cada galaxia, en
cada remoto rincón del universo está dividiendo
nuestro mundo local en miríadas de copias de sí
mismo. ¡Es esquizofrenia con ganas!». Además
de esta incesante repetición, nuestros propios
cuerpos forman parte del mundo y también se
dividen una vez tras otra. No sólo nuestro
cuerpo, sino nuestro cerebro y, cabe presumir,
nuestra conciencia se multiplica repetidamente,
convirtiéndose cada copia en un ser humano
pensante y sintiente que habita en otro universo
muy parecido al que vemos a nuestro alrededor.
La idea de que el propio cuerpo y la propia
conciencia se dividan en miles de millones de
copias es, como mínimo, sorprendente, pero los
partidarios de esta teoría han argumentado que
el proceso de escisión es absolutamente
inobservable, porque las réplicas de conciencias
no pueden comunicarse de ninguna manera
entre sí. De hecho, los distintos mundos del
superespacio están todos desconectados en lo
que respecta a comunicación. A ningún individuo
le es posible dejar un mundo y visitar su copia en
otro; ni siquiera podemos echar una ojeada a
cómo es la vida en todos esos otros mundos.
Si no podemos ver esos otros mundos ni
visitarlos, ¿dónde están?
Los autores de ciencia-ficción han inventado
muchas veces mundos paralelos que
supuestamente coexisten al lado del nuestro o
que de alguna manera se interpenetran con el
nuestro. En un determinado sentido, mucha
gente tiene una imagen del cielo en forma de
mundo alternativo que coexiste con el nuestro,
pero que no ocupa el mismo tiempo ni espacio
físico. A veces se ha intentado explicar los
fantasmas como supuestas imágenes de algún
otro mundo momentáneamente vislumbradas
por personas dotadas de especiales capacidades
sensoriales. Por lo que se refiere al científico,
nuestro mundo se percibe como
cuatridimensional (tres dimensiones en el
espacio y la cuarta en el tiempo), pero con
frecuencia se injertan otras dimensiones, sea por
conveniencia matemática o bien, como ocurre
en el caso del superespacio de Everett, como
modelo de la realidad. Desde el punto de vista
matemático, estas extradimensiones son fáciles
de manejar, aunque pueda costar visualizarlas
físicamente. Irónicamente, en lugar de paralela a
nuestro espacio, toda extradimensión de que no
somos conscientes se describe
matemáticamente como perpendicular a las
nuestras.
Para entender esta cuestión, imaginemos
las sensaciones de una criatura absolutamente
plana —llamémosle una hojuela— que vive en
una superficie bidimensional, como es la de una
mesa o de un balón.
Para la hojuela todo su mundo consiste en
esta superficie bidimensional y no puede percibir
nada arriba ni abajo. En el mundo de la hojuela,
las cosas tienen una extensión que se describe
con la longitud y el área, pero no existe la idea
de volumen. Con nuestra percepción superior,
nosotros vemos que la hojuela está en realidad
incrustada en un espacio mayor que se extiende
perpendicularmente a ella y a su superficie.
Nosotros vemos que hay un dentro y un fuera
del balón, idea que se puede enseñar a
comprender y describir a la hojuela mediante las
matemáticas, pero que tendrá dificultades en
visualizar en términos de sus conceptos físicos
habituales.
De manera similar, si existieran en el espacio
otras direcciones perpendiculares a la altura, la
longitud y la anchura, las limitaciones de nuestra
percepción nos impedirían el conocimiento
directo de estas dimensiones, aunque
pudiéramos inferir su existencia utilizando las
matemáticas y la experimentación. En el modelo
del mundo de Everett, el espacio es un mero
subespacio tridimensional del superespacio, que
en realidad contiene infinitas direcciones
perpendiculares, lo cual es una idea
completamente imposible de visualizar, pero con
un sólido fundamento matemático.
Aunque no podamos percibir todos esos
otros mundos, su existencia conduce de manera
harto natural a las propiedades estadísticas de
los sistemas cuánticos que, en la interpretación
habitual de la teoría cuántica, surge como un
elemento inherente a la naturaleza que carece
de explicación. Como hemos explicado,
normalmente utilizamos los conceptos
estadísticos y de probabilidades cuando
crecemos de información pormenorizada sobre
un sistema.
Por ejemplo, cuando lanzamos una moneda,
puesto que no conocemos al detalle la velocidad
de rotación, la altura de lanzamiento, etc., sólo
podemos decir que hay el cincuenta por ciento
de probabilidades de que salga cara o cruz. Por
tanto, la incertidumbre es realmente la exacta
medida de nuestra ignorancia. En la teoría
cuántica, la incertidumbre es absoluta, pues ni
siquiera el más detallado conocimiento del
estado de un núcleo atómico radiactivo,
pongamos, consigue predecir con exactitud
cuándo se desintegrará. La teoría de los muchos
universos aporta una nueva perspectiva a esta
indeterminación fundamental. La información
que habría conducido a la total predecibilidad
queda, por así decirlo, oculta para nosotros en
los otros mundos a que no tenemos acceso.
Por tanto, si el superespacio en su totalidad
es completamente determinista; el elemento
aleatorio procede de que nosotros solamente
tenemos acceso a una diminuta porción del
todo. Entendiendo el universo real como todo el
superespacio, se ve que Dios, a fin de cuentas,
no juega a los dados. El juego del azar no
procede de la naturaleza, sino de nuestra
percepción del naturaleza. Nuestra conciencia
trenza una ruta aleatoria a lo largo de las
trayectorias constantemente ramificadas del
cosmos, como si fuéramos nosotros, y no Dios,
quienes jugásemos a los dados.
Muchos de los otros mundos son muy
parecidos al nuestro, diferenciándose tan sólo en
el estado de unos cuantos átomos. Estos
mundos contienen individuos conscientes
virtualmente indiferenciables de nosotros en
cuerpo y entendimiento, que poseen existencias
casi paralelas a las nuestras. De hecho, estos
duplicados casi exactos comparten con nosotros
precursores comunes, pues en el pasado las
ramas convergen y se fusionan. De modo que lo
que comienza en el nacimiento como una
conciencia se multiplica innumerables millones
de veces hasta la muerte.
No todos los demás mundos están
habitados por otros nosotros, sin embargo. En
algunos las trayectorias ramificadas conducen a
la muerte prematura. En otros, nunca habrá
ningún nacimiento, mientras que también existen
aquellos que pueden haber quedado tan
desviados del mundo de nuestra experiencia que
allí no es posible ninguna clase de vida. Este
tema lo completaremos en el siguiente capítulo.
¿Qué podemos decir sobre esas otras
regiones del superespacio de las que no somos
más que una diminuta muestra? ¿Qué ocurre en
todos esos otros mundos? En el capítulo 1
decidimos que ciertos procesos, como el
lanzamiento de una bola, son relativamente
poco sensibles a los pequeños cambios de las
condiciones iniciales, mientras que otros, como
el movimiento de un conjunto de bolas de billar,
pueden verse drásticamente afectados por la
menor variación de la velocidad o del ángulo de
la bola que impele el taco. En el superespacio, la
indeterminación cuántica dará lugar a que las
bolas, y todo lo demás, sigan trayectorias
ligeramente inciertas. Cada uno de los mundos
del superespacio es una realidad distinta con su
propia trayectoria de la bola, de manera que
cada punto representa un universo genuino,
ligeramente distinto de los inmediatos. En
muchos casos, cuando las pequeñas
perturbaciones no crean diferencias cualitativas,
los mundos serán indistinguibles, pero cuando el
proceso en cuestión está delicadamente
equilibrado en las escalas del azar, los mundos
alternativos se diferencian de modo notable.
Un ejemplo importante de cómo influyen
drásticamente los fenómenos cuánticos en el
mundo de nuestra experiencia es el efecto de la
radiación sobre el material genético. La
composición de toda la materia viviente de la
Tierra está controlada por la larga cadena
molecular denominada ADN, que consiste en
una doble hélice de átomos ordenados de
manera compleja. Si el modelo ordenador se
altera, el código genético cambia y el ADN no se
reproduce de la forma adecuada. Si el ADN
alterado es de las células del huevo o del
esperma, la descendencia sufrirá una mutación.
El ADN puede dañarse de muchos modos, pero
una amenaza universal es la radiación cósmica:
partículas subatómicas con mucha energía que
acribillan la Tierra desde el espacio exterior. El
impacto de cualquier partícula cargada sobre la
molécula de ADN tiene como resultado una
mutación del código genético.
Las mutaciones son vitales para la
evolución, porque proporcionan una diversidad
de formas alternativas entre las que la
naturaleza selecciona o destruye según la
eficiencia de cada una. Pero, en lo tocante a una
persona individual, la mutación puede ser un
desastre. Está claro que la presencia de una
mutación es una cuestión enormemente
delicada, pues depende de que una partícula
subatómica colisiones con determinada parte de
una molécula. La partícula bien puede haber sido
producida como efecto secundario, en la alta
atmósfera, cuando una partícula primaria se
estrelló contra los átomos del aire. De ahí se
sigue que incluso un simple cambio infinitesimal
en el ángulo de salida de la partícula bastaría
para que no acertara con la exacta molécula
situada millas abajo y que la mutación no se
produjese. De manera que vemos que los
accidentes genéticos son enormemente
inestables con respecto a los pequeños cambios
subatómicos y que los mundos vecinos del
superespacio podrían ser muy distintos por lo
que se refiere a una persona mutante. Además,
si la mutación engendra alguna cualidad superior
—tal como mayor capacidad literaria, militar o
científica—, el mundo habitado por el mutante
puede ser drásticamente modificado por su
influencia. Recíprocamente, figuras de vital
importancia histórica habrán sufrido en los
mundos vecinos mutaciones deletéreas y no
sobresaldrán.
Retrocediendo mucho en el tiempo, cambios
muy pequeños pueden haber dado lugar a
grandes diferencias actuales. Por ejemplo, en un
mundo donde le hubiera ocurrido un accidente a
uno de nuestros antepasados hace diez mil
años, todos sus descendientes actualmente
vivos, que pueden sumar miles de personas, no
existirían. Tomando otro ejemplo, cambios
inmensamente pequeños en el movimiento de
los planetas o de los residuos rocosos que hay
entre ellos pueden alterar la ruta de un asteroide
próximo e inofensivo dando lugar a un horroroso
cataclismo.
Adoptando la visión más amplia posible del
superespacio, da la sensación de que toda
situación a que se pueda llegar siguiendo
cualquier trayectoria por retorcida que sea,
ocurrirá a la postre en alguno de esos otros
mundos. Cada átomo tiene a su disposición, por
obra del azar cuántico, miles de millones de
trayectorias, y en la teoría de los muchos
mundos se acepta que todas, y por tanto
cualquier ordenación atómica, ocurrirá en alguna
parte. Habrá mundos que no tengan Tierra, ni
Sol, ni siquiera Vía Láctea. Otros pueden ser tan
distintos del nuestro que no existan estrellas ni
galaxias de ninguna clase. Algunos universos
serán completamente oscuros y caóticos, con
agujeros negros que se tragarán al azar el
material desperdigado, mientras que otros
estarán quemados por las radiaciones.
Existirán universos que en apariencia tengan
el mismo aspecto que el nuestro, pero con
distintas estrellas y planetas. Incluso aquellos
que, en esencia, cuenten con la misma
ordenación astronómica contendrán distintas
formas de vida: en muchos casos, no habrá vida
sobre la Tierra, pero en otros la vida habrá
prosperado a mayor velocidad y existirán
sociedades utópicas. Y aún otros habrán sufrido
la total destrucción bélica, mientras que en
algunos toda la Vía Láctea estará colonizada por
extraterrestres, incluida la Tierra. De hecho,
virtualmente, las alternativas posibles no tienen
ningún límite.
Esta vasta multiplicidad de realidades
plantea una intrigante pregunta: ¿por qué nos
hallamos nosotros viviendo en este universo
concreto y no en cualquier otro de las miríadas
que hay de ellos? ¿Tiene éste algo de especial o
bien nuestra presencia aquí se debe al puro
azar? Por supuesto, en la teoría de Everett,
también vivimos en otros muchos universos, si
bien sólo una pequeña fracción de ellos está
habitada, pues hay muchos que no permiten la
vida. ¿Cuántas de las características que nos
rodean son necesarias para que exista la vida?
Estos problemas se abordarán en el siguiente
capítulo.
Capítulo VIII

El principio antrópico

¿Por qué está este mundo organizado así? El


universo que habitamos es un lugar muy
especial, dotado de una estructura muy
elaborada y de una actividad compleja.
¿Tiene algo de particular la ordenación de la
materia y la energía que realmente observamos
en comparación con la que hubiera podido
tener? Dicho en otras palabras, entre la infinitud
de mundos alternativos que nos rodean en el
superespacio, ¿por qué nuestras mentes
conscientes perciben este mundo concreto en
lugar de cualquier otro?
Las cuestiones de selección y probabilidad
siempre deben abordarse con cuidado. Si se
baraja un mazo de cartas y se reparte, el juego
que recibe cada jugador es a priori
sobrecogedoramente improbable; es decir, si se
intenta predecir el juego antes de barajar, las
posibilidades de acertar son enormemente
pequeñas. Sin embargo, claro está, no
consideramos que cada reparto de cartas
constituya un milagro. Por regla general, todo
conjunto de cartas se parece mucho a otro y con
frecuencia nada tiene de particular cualquier
selección concreta hecha al azar. No obstante, si
recibimos un palo completo deberemos
considerarlo una ocurrencia enormemente rara,
pues la serie del palo tiene una significación
superior a la de cualquier otra secuencia menos
estructurada de cartas. Del mismo modo, ganar
una rifa suele tenerse por un suceso afortunado,
porque el número ganador, en nada más notable
que cualquier otro, tiene una significación
especial.
En el tratamiento religioso tradicional de la
cuestión del orden cósmico, suele suponerse que
el mundo fue hecho por Dios con la estructura
concreta que conocemos, precisamente con el
objeto de colonizarlo con seres humanos. La
Biblia presenta una descripción directa de cómo
se llevó a cabo la obra: en primer lugar, se puso
la luz, luego el firmamento en medio de las
aguas; las aguas se dividieron entre las que
están bajo el firmamento y las que están sobre
el firmamento, y las situadas bajo el firmamento
se congregaron en un lugar; apareció la tierra
seca y, por último, la Tierra fue dotada de
plantas y animales. De este modo, Dios creó las
condiciones necesarias para el sostenimiento de
la vida humana.
Un examen de la vida sobre la Tierra pone
de manifiesto cuán delicadamente equilibrada
está nuestra existencia en la balanza del azar.
Hay una larga lista de prerrequisitos
indispensables para la supervivencia de nuestra
especie. En primer lugar, debe haber un
abundante suministro de los productos químicos
que componen la materia bruta de nuestro
cuerpo: carbono, hidrógeno, oxígeno, así como
algunas pequeñas pero vitales cantidades de
elementos más pesados como el calcio y el
fósforo. En segundo lugar, no debe haber peligro
de contaminación por obra de otros productos
químicos venenosos: no nos convendría una
atmósfera de metano ni de amoníaco como la
que hay en otros muchos planetas. En tercer
lugar, precisamos un abanico de temperaturas
bastante estrecho, de modo que la química de
nuestro cuerpo pueda funcionar al ritmo
adecuado. Sin un vestuario especial, es dudoso
que los seres humanos puedan sobrevivir mucho
tiempo fuera de las temperaturas comprendidas
entre los 5 y los 40 grados centígrados. En
cuarto lugar, se necesita provisión de energía
libre, que en nuestro caso proporciona el Sol. Es
importante que esta provisión de energía se
mantenga estable y no sufra grandes
fluctuaciones, lo que no sólo exige que el Sol
continúe ardiendo con extraordinaria uniformidad,
sino también que la órbita de la Tierra sea casi
circular para evitar acercamientos y alejamientos
de la superficie solar. Un quinto requisito es que
la gravedad de la Tierra sea lo bastante fuerte
para evitar que la atmósfera se disperse en el
espacio, pero lo bastante débil para que
podamos movernos con facilidad y, en
ocasiones, caernos sin lesiones fatales.
Un examen más detallado muestra que la
Tierra está dotada de servicios aún más
asombrosos. Sin la capa de ozono situada sobre
la atmósfera, los mortales rayos ultravioletas del
sol nos destruirían y, de faltar el campo
magnético, las partículas subatómicas cósmicas
diluviarían sobre la superficie terrestre. Teniendo
en cuenta que el universo está lleno de violencia
y cataclismos, nuestro pequeño rincón del
cosmos disfruta de una apacible tranquilidad. A
quienes creen que Dios hizo el mundo para la
humanidad, todas estas condiciones de ningún
modo deben parecer casuales, sino el reflejo de
un medio ambiente cuidadosamente preparado
para que los humanos puedan vivir
cómodamente, un ecosistema preestablecido al
que la vida se ajusta de manera natural e
inevitable: una especie de mundo hecho a
nuestra medida.
El significado de estas coincidencias se
alteró espectacularmente al descubrirse que la
vida en la Tierra no es estática, sino que está en
constante evolución. Entonces fue posible, a
partir de la teoría evolucionista de Darwin, dar la
vuelta al problema y preguntar, no por qué está
la Tierra tan bien conformada para la vida, sino
por qué la vida se adapta tan bien a la Tierra. La
mutación y la selección natural aportaron la
respuesta: los organismos que por cambios
aleatorios resultan ser más acordes con las
condiciones prevalecientes tienen ventajas
selectivas en las contingencias de la
supervivencia, y tenderán a proliferar a expensas
de sus vecinos peor adaptados. Por ejemplo, de
haber sido la gravedad mayor, eso hubiera
favorecido el desarrollo de las criaturas parásitas
de menor tamaño dotadas de huesos más
fuertes. Una temperatura ambiente más alta
hubiera fomentado el desarrollo de aletas
refrescantes y de otros medios de controlar el
calor. Por tanto, en muchos sentidos, después
de todo, la Tierra no tiene nada de especial, en
lo tocante a la vida. De haber sido las
condiciones distintas, también nosotros seríamos
distintos.
Sin embargo, no es posible sostener que
hubiéramos evolucionado para adaptarnos a
cualesquiera circunstancias, pues existen ciertos
límites y requisitos absolutos sin los cuales la
vida es imposible.
Por ejemplo, es dudoso que pueda haber
vida en un planeta sin atmósfera (como es el
caso de la Luna) o bien con una temperatura
superior a la de la ebullición del agua.
También cuesta imaginar la vida alrededor
de un sol de costumbres excéntricas:
conocemos muchas estrellas que fulguran de
forma impredecible y que incluso explotan.
Al estimar que el Sol es una estrella típica,
apreciamos la vida sobre la Tierra desde una
perspectiva más cósmica. Hay estrellas de todas
clases de tamaños, masas y temperaturas, y
aunque nuestro Sol es un enano entre las
estrellas, no se desconocen otras de su mismo
tamaño. Hay tantos miles de millones de
estrellas (quizás infinitas) que aun cuando la vida
sea un accidente increíblemente raro es
indudable que ocurrirá en último término en
puntos sueltos del universo. La vida que ha
surgido en la Tierra es una simple consecuencia
del hecho de que es más probable que el
accidente ocurra en un planeta cuyas
condiciones son óptimas. De ahí podemos sacar
la conclusión de que nuestra localización en el
cosmos no es aleatoria, sino que está
seleccionada por las condiciones necesarias para
que estemos aquí. Esta importante conclusión,
que muchas veces se da por supuesta, puede
ser vital para nuestra visión de nosotros mismos
y de nuestro lugar dentro del gran orden.
Si aplicamos a nuestra localización en el
superespacio el mismo razonamiento que a
nuestra localización en el espacio, podemos
concluir que muchísimos otros rasgos del mundo
deben ser consecuencia de esta selección
biológica. Como sólo un magro subconjunto de
todos los mundos posibles puede sostener la
vida, la mayor parte del superespacio estará
deshabitada. El mundo en que vivimos es,
inevitablemente, el mundo que vivimos.
Este tipo de razonamiento se conoce, con
cierta grandiosidad, como el principio antrópico.
Su significación depende de cuál sea la
interpretación de la teoría cuántica que
adoptemos. Según la interpretación convencional
de la escuela de Copenhage, esbozada en
anteriores capítulos, sólo existe realmente
nuestro mundo, siendo las demás regiones del
superespacio mundos fallidos: alternativas
potenciales que la naturaleza, por capricho
casual, ha rechazado. En cuyo caso no
podemos afirmar que nuestra propia existencia
explique la estructura y la organización del
universo (al menos en la medida en que afecta a
la supervivencia de la vida inteligente) porque
eso supondría un razonamiento circular:
estamos aquí porque las condiciones son las
adecuadas y las condiciones son las adecuadas
porque estamos aquí. Todo lo que puede aportar
el principio antrópico es un comentario sobre lo
afortunado que resulta el que estemos aquí. Si
una cantidad inmensamente mayor de mundos
alternativos no puede mantener la vida
inteligente, entonces pasarán inadvertidos, sin
que ningún cosmólogo se extrañe de su grado
de improbabilidad. Así que deberíamos
considerarnos inmensamente afortunados por el
hecho de estar vivos, y deberíamos ver nuestra
existencia como un accidente enormemente
improbable.
Por otra parte, en la interpretación de la
teoría cuántica de Everett, la de los muchos
universos, todos los demás mundos del
superespacio son reales y todos tienen el mismo
grado de existencia. Si la vida es algo muy
delicado, entonces la mayor parte de estos
mundos están desprovistos de observadores.
Sólo el nuestro y los muy similares tendrán
espectadores. En tal caso, nosotros, mediante
nuestra presencia, hemos seleccionado el tipo de
mundo en que habitamos entre una infinita
variedad de posibilidades. El que esto se
considere o no una verdadera explicación del
mundo depende del sentido que demos a la
palabra.
Si entendemos por explicación la
identificación de la causa de algo, entonces,
dada la forma habitual de entender la causalidad,
no podemos decir que el universo esté
verdaderamente causado por la vida, puesto que
la vida es posterior.
Pero si explicación significa un marco de
referencia para comprender, entonces la teoría
de los muchos universos aporta una explicación
de por qué las muchas cosas que nos rodean
son como son. Exactamente igual que podemos
explicar por qué vivimos en un planeta próximo a
una estrella estable, señalando que sólo en
semejante localización puede formarse la vida,
así también podemos explicar muchos de los
rasgos más generales del universo mediante
este proceso de selección antrópica. En
resumen, las dos interpretaciones de la teoría
cuántica se remiten bien al azar o bien a la
elección para explicar el mundo.
¿Hasta qué punto exactamente es delicado
el equilibrio de la vida en la balanza del azar y
con qué amplitud pueden variar las
características de nuestro universo sin que éste
deje de existir? Sobre todo, ¿hasta qué punto
son distintos los demás mundos del
superespacio? ¿Sería posible que casi todos
ellos, pese a todas las variaciones disponibles,
acabaran por parecer muy similares al nuestro?
Para responder a la primera de estas
preguntas es necesario determinar cuál es el
tamaño de la fracción habitable de todos los
mundos posibles. Desde un principio, debemos
volver a subrayar que la naturaleza del mundo
depende de dos cosas: las leyes de la física y
las condiciones iniciales. En el capítulo 1 se
explicó que la forma de la trayectoria que sigue
una bola lanzada al aire está determinada
(despreciando los efectos cuánticos) tanto por las
leyes del movimiento newtoniano como por el
ángulo y la velocidad de lanzamiento. Puesto
que las leyes de la física se consideran
absolutas, debemos esperar que también se
cumplan en los demás mundos del
superespacio. Por el contrario, las condiciones
iniciales que acompañan a todo proceso
concreto no serán las mismas en los demás
sitios, puesto que en eso precisamente consiste
la diferencia entre los distintos mundos.
Dos problemas plantea dividir las influencias
en condiciones iniciales y leyes físicas. El
primero es que en cosmología, donde el objeto
de estudio es todo el universo, no tiene mucho
sentido hablar de una ley física. Una ley se
caracteriza por ser una propiedad que se aplica
repetida e infaliblemente a un gran número de
sistemas idénticos, pero como sólo hay un
universo accesible a nuestra observación no
podemos comprobar si se comporta (como un
todo) de acuerdo a alguna ley. Por ejemplo, ¿es
una ley o tan sólo un rasgo accidental que la
temperatura del espacio (muy alejado de las
estrellas) sea alrededor de tres grados
absolutos? ¿Pudiera ser otra su temperatura?
Sólo si pudiéramos ver los otros mundos del
superespacio y comprobar que estos rasgos,
supuestamente similares a las leyes, se
manifiestan también allí, se podría establecer
alguna ley cosmológica.
El segundo problema consiste en que, lo que
para una generación es una ley fundamental de
la física puede convertirse en la siguiente
generación, con un conocimiento científico
superior, en un simple caso especial de alguna
ley aún más fundamental. Un ejemplo conocido
se refiere a la noche y el día. Para los antiguos
era una ley de la naturaleza, de la misma
categoría que las demás leyes, que el día tiene
infaliblemente veinticuatro horas de duración.
Gracias a nuestros superiores conocimientos
de mecánica, sabemos ahora que nada hay de
fundamental en el periodo de veinticuatro horas
y que la duración del día puede variar y de
hecho varía. Las variaciones son muy ligeras
(aunque fáciles de medir con los modernos
relojes atómicos) en la duración de una vida
humana, pero a lo largo de las escalas de
tiempo geológicas la duración del día ha
aumentado en varias horas. Cuando se trata de
pensar en otros mundos del superespacio,
tenemos que decidir qué rasgos de nuestro
mundo tienen posibilidades de variar, es decir,
cuáles son los rasgos incidentales, como la
duración del día terráqueo, y cuáles son los
verdaderamente básicos. Como no sabemos
cuáles de nuestras leyes más generales son
únicamente casos especiales, la estrategia más
segura consiste en, primero, tener en cuenta las
variaciones de las cosas que sabemos que son
incidentales y, luego, conceder que las leyes
actualmente aceptadas pueden variar, teniendo
presente la naturaleza especulativa de nuestro
análisis.
El tipo de pregunta a la que nos gustaría
contestar es si podríamos vivir en un universo
donde la temperatura del espacio fuera de
trescientos en lugar de ser de tres grados. Para
responder a semejante pregunta es menester
tener una idea concreta de qué entendemos por
nosotros. Si nosotros significa vida inteligente
con la forma que se encuentra en la Tierra, la
respuesta es probablemente no: haría
demasiado calor para que la vida terrestre
pudiera desarrollarse en ninguna parte del
universo.
Por otra parte, puede haber formas de vida
absolutamente distintas de las bioformas
terrestres, tal vez basadas en procesos
completamente distintos, que podrían sobrevivir
e incluso florecer en condiciones enormemente
distintas de las que reinan en la Tierra. La vida
terráquea se basa en el carbono, que tiene la
importante propiedad química de formar
cadenas con sus átomos y con otros átomos,
como el hidrógeno y el oxígeno, según una
enorme variedad de formas. La clave de la vida
es la complejidad, pues sin un enorme número
de variaciones posibles entre los organismos
vivos, no habría evolución.
La vida debe ser capaz de adaptarse en un
número casi ilimitado de formas a las
condiciones prevaleciente y, como ya hemos
explicado, esto acontece mediante ocasionales
errores aleatorios en la estructura química de un
individuo. Luego de un gran número de errores
inútiles, la especie sufre una pequeña variación
que dota a los organismos individuales con
algunos rasgos que se adaptan mejor al medio
ambiente del momento. De este modo, a lo
largo de miles de millones de pasos, se ha
desarrollado la inteligencia sobre la Tierra.
La necesidad de una complejidad suficiente
limita en gran medida los elementos químicos
disponibles para servir de base a la vida: quizás
el carbono sea el único, aunque a veces se ha
propuesto como posibles la silicona y el estaño.
El problema es que no existe ninguna
definición auténtica de la vida. Los sistemas
vivos son ejemplos de materia y energía
organizadas en niveles de extrema complejidad,
pero no existe ninguna clase de frontera entre lo
vivo y lo no-vivo. Los cristales, por ejemplo, son
estructuras muy organizadas capaces de
reproducirse, pero no los consideramos vivos.
Las estrellas son sistemas con una
organización compleja y elaborada, pero
normalmente no se las considera vivas. Tal vez
nuestra visión de la vida sea demasiado
estrecha: puede haber sistemas complejos en
otras regiones del universo que no tengan el
menor parecido con los organismos vivos
presentes en la Tierra y que, sin embargo, sean
en todos los aspectos tan vivos como nosotros.
Una de las especulaciones sobre estas
formas de vida extravagantes la hizo el
astrónomo Fred Hoyle en su novela de ciencia-
ficción The Black Cloud (La nube negra). El
sujeto de la conjetura de Hoyle son las grandes
nubes de gases, sobre todo de hidrógeno, que
vagabundean por el espacio interestelar. Las
nubes de gases no se parecen en nada a las
nubes de la Tierra y, desde el punto de vista de
las normas terrestres, son demasiado tenues,
pues sólo contienen unos mil átomos por
centímetro cúbico, que es una millonésima de
billonésima de la densidad del aire y que, por
tanto, se considera vacío en el laboratorio. Sin
embargo, en el vacío casi perfecto del espacio,
las nubes son cuerpos muy sustanciales y
dispersan una gran cantidad de luz.
En la novela, Hoyle sostiene que algunas de
estas nubes en realidad tienen vida, en el
sentido de que tienen motivaciones y controlan
sus movimientos lo mismo que una ameba;
poseen una compleja organización interna,
incluidas capacidades intelectuales muy
superiores a las humanas.
Todas las formas de vida química son
esencialmente de naturaleza electromagnética;
es decir, las fuerzas que controlan los procesos
químicos de nuestros cuerpos son fuerzas
eléctricas y magnéticas que actúan entre los
átomos. Pero el electromagnetismo sólo es una
de las cuatro fuerzas conocidas de la naturaleza.
Existen, además, la gravedad y dos fuerzas
nucleares, conocidas como la fuerte y la débil.
Es importante no excluir la posibilidad de una
vida basada en estas otras fuerzas en cualquier
valoración general de las condiciones necesarias
para que surja vida. No obstante, al menos
desde una perspectiva superficial, las otras tres
fuerzas no parecen ser un fundamento realista
para la vida. La gravedad es tan débil que sólo
las masas astronómicas despliegan fuerzas
significativas.
Una galaxia o, en el mejor de los casos, un
conglomerado de estrellas parece ser el único
tipo de sistema organizado por la gravedad que
conocemos. ¿Puede, en algún sentido, estar
viva una galaxia? Cuesta reconocer que tal
pueda ser el caso. Al margen de todo lo demás,
la luz, que es lo más rápido, necesita decenas
de millares de años para cruzar una galaxia, lo
que quiere decir que, según la teoría de la
relatividad, la galaxia solamente puede desplegar
formas de comportamiento integrado a esa
escala temporal. Dicho de otra manera, el
tiempo que tarda en pensar la Vía Láctea es de
unos 100 000 años, de modo que cualquier
actividad organizada ha de ser aún más lenta, lo
que desde cualquier punto de vista resulta de
una gran indolencia.
Las fuerzas nucleares también tienen sus
problemas. Los núcleos atómicos son cuerpos
compuestos ligados por la fuerza fuerte, de
modo que a primera vista parecen moléculas en
que los átomos están unidos por fuerzas
electromagnéticas. El parecido sólo es leve,
empero. Los núcleos constan de dos tipos de
partículas: unas llamadas protones, que tiene
carga eléctrica, y otras llamadas neutrones, que
no tienen carga eléctrica. Ambos tipos
experimentan una fuerte atracción nuclear que
las mantienen apretadas. Un núcleo pesado,
como el de los átomos de uranio, tiene unas
doscientas partículas cohesionadas del modo
descrito. La razón de que la vida nuclear parezca
imposible radica en el equilibrio de fuerzas del
interior del núcleo. La fuerza nuclear fuerte trata
de unir las partículas, pero la fuerza eléctrica de
los protones constituye una influencia
contrarrestante y desorganizante, puesto que
cada protón repele eléctricamente a los demás al
mismo tiempo que los atrae mediante la fuerza
nuclear. Aunque la atracción nuclear es mucho
más fuerte que la repulsión eléctrica, tiene un
campo de acción muy corto y se reduce
prácticamente a nada en cuanto las partículas se
separan más de una diez billonésima de
centímetro. Esto significa que el protón o
neutrón sólo atrae a sus vecinos más próximos,
mientras que la repulsión entre los protones
actúa sobre los protones del núcleo, puesto que
su acción sólo disminuye gradualmente con la
distancia. La disparidad de ámbitos de acción
favorece, pues, a la repulsión eléctrica sobre la
atracción nuclear en los núcleos que contienen
muchos protones.
Si la repulsión eléctrica total crece hasta ser
lo bastante fuerte, puede imponerse a la fuerza
aglutinante de la atracción nuclear, y el núcleo
explotará. Para ayudar a que las fuerzas se
mantengan en una situación de equilibrio, un
núcleo pesado, que contiene muchos protones,
cuenta con la ayuda de los neutrones, que
pueden colaborar al proceso aglutinante sin
hacerlo a la repulsión eléctrica, dado que son
eléctricamente neutros. Por eso los núcleos
ligeros suelen contener el mismo número de
protones y de neutrones (por ejemplo, el oxígeno
contiene ocho de cada clase), pero el uranio, el
elemento más pesado que se encuentra en
estado natural en la Tierra, tiene noventa y dos
protones y hasta ciento cincuenta neutrones. Se
conocen núcleos con aún mayor número de
protones pero, al igual que el uranio, son
radiactivos y se desintegran espontáneamente.
Sin duda, hay un límite para el número de
neutrones que pueden resolverle al núcleo este
tipo de problemas, y el origen de esta nueva
inestabilidad tiene relación con el otro tipo de
fuerza nuclear, la llamada fuerza débil.
La fuerza débil es mucho más débil que el
electromagnetismo y su campo de acción es tan
pequeño que nunca se ha medido como
extensión finita. No juega ningún papel en
mantener unidas las partículas; su actividad
parece reducirse, por el contrario, a hacer que las
partículas subatómicas se desperdiguen o
desintegren. El ejemplo más espectacular lo
constituye, de hecho, el neutrón. Si un neutrón
se libera de un núcleo, al cabo de unos quince
minutos explota convirtiéndose en un protón, un
electrón y otro tipo de partícula denominada
neutrino. Esta rápida defunción se evita, dentro
de los confines del núcleo, gracias a un principio
cuántico fundamental denominado principio de
exclusión de Pauli, del que ya hemos hablado en
el capítulo 4, que dice que como todos los
protones son idénticos, ningún protón puede
(dicho sin rigor) ocupar el mismo estado
cuántico.
Es decir, las ondas de dos protones no
pueden superponerse demasiado, lo que en
términos físicos significa que no pueden
acercarse demasiado. Por eso, si un neutrón
intenta descomponerse en protón, no habrá
ningún sitio adonde pueda ir el protón al estar
previamente ocupados todos los
emplazamientos disponibles del núcleo. En
consecuencia, se impedirá la desintegración.
La estructura del núcleo es similar en cierto
sentido a la del átomo: los electrones del átomo
están confinados a determinados niveles
energéticos y tanto los protones como los
neutrones están también confinados a niveles
energéticos dentro del núcleo. Cuando los
niveles inferiores están ocupados, una partícula
adicional sólo puede acomodarse en el núcleo
ocupando uno de los niveles energéticos altos,
pero si un núcleo adquiere demasiados
neutrones entonces este problema queda
solventado. La razón es que los neutrones están
también sometidos al principio de Pauli, de tal
modo que los sobrantes deben encontrar
localizaciones de alto nivel energético. En esta
elevada posición, tendrán la suficiente energía,
de tal modo que, al descomponerse, el protón
quedará en una posición vacante de alta
energía. De ahí se sigue que los núcleos ricos en
neutrones son inestables y se convierten
espontáneamente en núcleos con más protones,
mientras que los núcleos ricos en protones son
eléctricamente inestables y tienden a escindirse.
Estos dos tipos de inestabilidad conducen a dos
tipos de radiaciones, conocidas,
respectivamente, como beta y alfa. Entre
ambas consiguen que no pueda existir por
mucho tiempo ningún núcleo con más de un par
de centenares de partículas. Lo cual de ningún
modo se acerca al nivel de variedad y
complejidad necesario para la materia viva.
En conclusión, parece que la fuerza
electromagnética es la única capaz de producir
cuerpos compuestos con la bastante
complejidad para que satisfagan cualquier
definición razonable de vida. Llegamos, pues, a
la definición de la vida como energía
electromagnética organizada, probablemente
mediante enlaces químicos. De ahí se sigue que
adoptaremos una perspectiva conservadora y
supondremos que la única clase de vida que
puede existir es similar a la que se encuentra en
la Tierra.
Volviendo a las condiciones de los otros
mundos del superespacio y a su aptitud para la
vida, en primer lugar es necesario situar el
asunto en una perspectiva cósmica.
No nos interesan los otros universos donde
no hay vida sobre la Tierra, aunque ocurra en
otros lugares; nuestra principal preocupación es
si la vida puede formarse en algún lugar de un
universo alternativo particular. Según nuestra
comprensión actual de la astronomía, el Sol es
una estrella típica, de manera que podemos
esperar, por razones de orden general, que otras
estrellas similares tengan vinculados cuerpos
planetarios como los del sistema solar.
Los planetas son demasiado pequeños para
verlos ni siquiera con los telescopios más
potentes, de modo que sólo tenemos pruebas
indirectas de su existencia en otros sistemas
estelares. A pesar de eso, por lo que se sabe de
cómo se forman las estrellas y por la existencia
de versiones en miniatura del sistema solar
alrededor de Júpiter y Saturno (ambos tienen
varias lunas), se considera probable que la
mayoría de las estrellas tengan planetas,
algunos de ellos inevitablemente parecidos a la
Tierra. Nuestra galaxia, la Vía Láctea, contiene
alrededor de cien mil millones de estrellas
agrupadas formando una gigantesca espiral, que
es una forma característica de las miles de
millones de galaxias repartidas por el universo.
Esto significa que la Tierra no tiene nada de
especial, por lo que probablemente la vida
tampoco sea un fenómeno extraordinario. Si
bien no tenemos pruebas que lo demuestren,
sería sorprendente que la vida no estuviera muy
extendida por el universo, aunque fuese en
forma bastante dispersa. El número de estrellas
es tan grande que aun cuando la vida sea algo
muy improbable, seguiría siendo probable que
se hubiera producido en algún otro sitio. Si
existen otros universos en los que no puede
formarse vida, se deberá a que las condiciones
globales no son las adecuadas y a que la
estructura a gran escala de esos universos es
muy distinta de la del nuestro. El requisito de la
Tierra y del Sol constituyen una cuestión
demasiado provinciana para que tenga
importancia en el contexto del principio antrópico.
Dado que lo que nos importa es la estructura
a gran escala del universo —la disciplina
denominada cosmología—, no es menester que
nos detengamos demasiado en los otros
mundos del superespacio que se ramifican a
partir del nuestro en este precios momento, pues
éstos se parecerán estrechamente al nuestro en
sus grandes rasgos. La razón de lo dicho es que
la leve recolocación o cambio de movimiento de
unos átomos concretos podría ser responsable,
como ya hemos dicho, de alterar la composición
genética de un futuro dirigente político, con lo
que podría dar lugar o evitar una guerra mundial,
pero no podría alterar la forma de toda la
galaxia.
Si queremos examinar las ramas que
conducen a mundos sustancialmente distintos,
hemos de rastrearlos en el tronco común.
Cuanto mayor sea la diferencia, más deberemos
retroceder. La situación es similar a los cambios
evolutivos aleatorios de los seres vivos. La vida
comenzó en la Tierra hace tres o cuatro mil
millones de años por medio de unos organismos
simples y, a partir de esos precursores comunes,
han ido gradualmente evolucionando tipos
nuevos. Al aumentar la complejidad, aumentó
también la variedad de formas, hasta que ahora
encontramos seres vivos tan distintos como
elefantes, hormigas, bacterias y árboles.
Cada generación presencia nuevos tipos de
ramificaciones que se alejan de las especies
centrales, pero los pasos son pequeños y el
proceso es muy lento, de manera que hay muy
poca diferencia en un número pequeño de
generaciones. En consecuencia, para rastrear,
pongamos, a los monos y los hombres, o a las
ovejas y las cabras, hasta un origen común, sólo
necesitamos retroceder unos cuantos millones
de años. Para encontrar el tronco común de
donde sale la rama del hombre y la del ratón,
debemos retroceder doscientos millones de
años. El doble de tiempo se necesita para
encontrar un antepasado común del hombre y la
rana, y hay que examinar épocas aún más
primigenias antes de que converjan animales y
plantas.
Rastreando las ramificaciones del
superespacio hasta un origen común es probable
que encontremos el origen de la vida en la
Tierra.
Como explicamos en los capítulos 2 y 5, los
cosmólogos modernos creen que también el
universo tuvo un origen, hace alrededor de
quince mil millones de años. Anteriormente se
mencionó que el origen podría ser una llamada
singularidad del espacio-tiempo que era
indicadora del extremo final del pasado del
universo físico. Si esto es cierto, la singularidad
no tiene ningún pasado que podamos conocer.
En los momentos posteriores a la
singularidad ocurrió el famoso Big Bang, una
fase originaria en la que la expansión del
universo se produjo a velocidad de explosión.
Para estudiar el sino de las otras ramas del
superespacio debemos retroceder a este Big
Bang y ver cómo emergen los mundos
alternativos a partir del remolino cósmico.
Exactamente igual como los cambios de los
organismos terrestres hace tres mil millones de
años han dado lugar a grandes diferencias en las
ramas actuales de la evolución, los cambios
aleatorios del universo primigenio pudieron crear
mundos en una dirección que conduce a
condiciones actuales totalmente irreconocibles
para nosotros. El efecto acumulado de
incontables pequeños cambios impulsa a los
mundos del superespacio a trayectorias aún más
divergentes.
El cambio que en realidad nos interesa es el
de la geometría del espacio. En el capítulo 5 se
introdujo la idea del superespacio como un
espacio de espacios. Podemos imaginar que
cada minuto tiene una geometría distinta, en
unos en forma de pequeñísima distorsión, en
otros con diferencias tan grandes que incluso
cambia la topología.
Dentro de los incontables mundos del
superespacio, en alguna parte deben existir
universos con todas las formas concebibles. Lo
que nos importa es si el universo que
observamos tiene una forma que de alguna
manera sea especial o notable y, si es así, qué
importancia tendría ese hecho para la existencia
de vida en nuestro universo.
La noción de forma del espacio es un poco
vaga y hay que encontrar el modo de formular el
problema en lenguaje matemático exacto. Los
matemáticos han inventado magnitudes que
miden las variaciones del espacio con respecto al
plano, lo que quiere decir que calibran las
distorsiones —abolladuras, retorcimientos,
combas— de cada lugar.
Dos tipos de distorsiones se reconocen con
facilidad. La primera se denomina anisotropía y
es una medida de cómo la forma o geometría
del espacio varía en las distintas direcciones. Por
ejemplo, si a lo largo de una determinada línea
de visión el universo estuviera muy estirado y se
expandiera deprisa, mientras que a lo largo de
una dirección perpendicular estuviera encogido y
se expandiera despacio (o incluso se contrajera),
deberíamos decir que el universo es muy
anisótropo. El otro tipo de distorsión se
denomina heterogeneidad y es una medida de
cómo la geometría varía de un lugar a otro. Si el
espacio contiene muchas irregularidades y
abolladuras, y si se expande a muy distintas
velocidades en regiones diversas, se dice que es
muy heterogéneo.
Es evidente, echando una ojead al cielo, que
el universo no es exactamente isótropo ni
exactamente homogéneo. La presencia del Sol,
por ejemplo, da lugar a una abolladura del
espacio que representa una falta de
homogeneidad local.
La Vía Láctea determina una dirección
especial del firmamento, lo que representa cierta
anisotropía, esta vez de origen no tan local.
No obstante, cuando los telescopios
verdaderamente grandes se orientan hacia el
espacio extragaláctico se descubren cosas
notables. A una escala muy grande —es decir, a
distancias superiores al tamaño de grupo
galáctico— el espacio aparece muy uniforme, al
mismo tiempo isótropo y homogéneo. En
cualquier dirección que mire el astrónomo, ve
aproximadamente el mismo número de galaxias
a cualquier distancia dada y, lo que es más,
estas galaxias, a cualquier distancia concreta,
parecen retroceder con respecto a la Tierra a
aproximadamente la misma velocidad.
Las pruebas de la homogeneidad son
inferiores, pero hay una conexión geométrica
entre homogeneidad e isotropía, que es ésta. A
menos que la Tierra estuviera localizada
exactamente en el centro del universo, lo que le
otorgaría un papel privilegiado impensable a
estas alturas, si el cosmos parece ser isótropo a
nuestro alrededor, también debe ser isótropo en
todas partes. Pero un universo que es en todas
partes isótropo puede demostrarse que también
es homogéneo. De donde se deduce que o bien
estamos en el centro del universo o bien el
universo es homogéneo al tiempo que isótropo,
al menos en las grandes escalas a que nos
referimos.
Si el universo es realmente homogéneo en
todas partes (y no sólo hasta donde pueden
sondearlo nuestros instrumentos), eso supone
que no puede haber centro ni borde, puesto que
tales lugares tendrían un carácter especial, lo
que contradeciría el supuesto de homogeneidad.
Lo cual no significa necesariamente, como se
explicó en el capítulo 5, que el universo tenga
una extensión infinita, pues el espacio podría
curvarse y unirse consigo mismo en una especie
de hiperesfera. Esta cuestión es de topología
más bien que de geometría y, probablemente,
no tiene especial importancia para el principio
antrópico y las condiciones necesarias para la
vida, aunque sea de gran interés para
cosmólogos y filósofos por otras razones.
A la vista de la ilimitada variedad de formas
complejas que puede asumir el universo, en
realidad es sorprendente que el universo que
observamos resulte tener una estructura tan
simétrica.
Tan llamativa es esta uniformidad que la
mayoría de los cosmólogos se niega a aceptar el
hecho sin entender cómo se ha producido.
Sabemos que la velocidad de la luz juega un
papel central en esta teoría, en la medida en que
ninguna influencia física puede propagarse con
mayor rapidez que la luz.
Cuando el espacio se expande, el
comportamiento de la luz puede ser bastante
extraño. Al igual que un corredor situado en una
pista móvil tiene dificultades para mantener su
avance, cuando la luz se extiende por un
universo en expansión es atraída por las galaxias
que retroceden. Las galaxias se alejan unas de
otras porque el espacio intermedio se dilata
regularmente en todas direcciones, de modo que
el espacio por que ha de desplazarse la luz se
alarga constantemente en la misma dirección en
que se desplaza el rayo de luz, lo que aumenta
su longitud de onda, dando lugar a un
enrojecimiento. Éste es el origen del famoso
desplazamiento hacia el rojo que detectó Hubble
por primera vez en la década de 1920 y que se
utiliza para deducir que el universo se está
expandiendo.
Conforme el rayo de luz avanza, su longitud
de onda se alarga cada ez más, y se plantea el
problema de si, en último término, podría
alargarse de manera ilimitada, es decir, a una
longitud de onda infinita. En este caso, sería
incapaz de transmitir ninguna clase de
información. Un análisis matemático revela las
circunstancias en que esto puede ocurrir. Resulta
depender de la forma exacta en que se expanda
el universo a partir de la singularidad. Si se
expande a una velocidad uniforme, es decir,
doblando siempre el tamaño a cada intervalo
idéntico de tiempo, entonces la luz puede
alcanzar siempre cualquier punto remoto sin que
el desplazamiento hacia el rojo acabe
aniquilándola. Por otra parte, si la velocidad de
expansión no es constante, pueden aparecer
longitudes de onda infinitas. En concreto, si la
velocidad de expansión disminuye con el tiempo,
alrededor de cada punto del universo existe una
especie de burbuja invisible que representa la
región del espacio visible para el observador. La
región exterior a la burbuja no se podría ver, por
potentes que fuesen los instrumentos
disponibles, porque ninguna luz de esa región
llegaría al observador como consecuencia del
infinito desplazamiento de la longitud de onda.
La superficie de la burbuja, pues, desempeñaría
el papel de una especie de horizonte, más allá
del cual la visión sería imposible. La burbuja
estaría centrada alrededor de cada observador
concreto: los observadores próximos tendrían
burbujas superpuestas, pero un observador
situado, pongamos, en la galaxia Andrómeda
(una galaxia vecina de la Vía Láctea) vería en el
borde del universo visible cosas que nos son
inaccesibles a nosotros, y viceversa. Cuando los
observadores estuviesen muy alejados, sus
burbujas no se superpondrían y se encontrarían,
en todos los sentidos, en universos físicamente
distintos.
Para comprobar si hay un horizonte en el
universo real, podemos recurrir a las
matemáticas. La teoría general de la relatividad
de Einstein proporciona una ecuación que
relaciona el movimiento del espacio con el
contenido material del espacio, es decir, con la
materia gravitatoria. Resolviendo esta ecuación
para el caso simplificado de un universo
uniforme se llega al resultado de que, en la
medida en que la energía y la presión de la
materia permanezcan positivas (no se conocen
ejemplos de lo contrario), la expansión debe
desacelerarse. La expansión en forma de
explosión del Big Bang ha disminuido de
velocidad de manera progresiva. En la actualidad
es casi un millón de billones de veces más lenta
que cuando el universo tenía un segundo. La
conclusión es que de hecho existe un horizonte
en nuestro universo.
La burbuja no permanece estática —su
superficie se expande a la velocidad de la luz—,
lo que significa que, conforme pasa el tiempo, se
hacen visibles más regiones del universo. Dicho
sin ambages, el horizonte crece a la velocidad de
la luz. De ahí se sigue que la distancia al
horizonte debe ser la distancia que ha recorrido
la luz desde el centro de la burbuja durante el
tiempo que tiene nuestro universo. En este
momento, pues, la lejanía de nuestro horizonte
es de alrededor de quince mil millones de años
luz. Si pudiéramos ver bien el borde,
presenciaríamos el nacimiento del universo. Por
desgracia, hasta unos 100 000 años después del
Big Bang el universo era opaco a la luz, de modo
que sólo es posible retroceder hasta esa época.
La información sobre los tiempos anteriores
procede de fuentes indirectas.
La importancia del horizonte para la
naturaleza de la expansión cosmológica puede
entenderse examinando progresivamente
momentos anteriores, retrocediendo hasta la
singularidad y el origen del universo. Un segundo
después del Big Bang, el horizonte sólo tenía un
diámetro de un segundo luz, que es unos
300 000 kilómetros. A un nanosegundo,
escasamente medía más de un pie y en el
tiempo más breve que podemos medir, es decir,
en el primer jiffy, el horizonte abarcaba un
volumen de espacio tan pequeño que el número
de burbujas que cabrían en un dedal es de uno
seguido de cien ceros. Ahora las burbujas
representan regiones del espacio que pueden no
tener ninguna clase de comunicación con las
demás regiones del espacio exterior: la superficie
de la burbuja es la mayor distancia de que puede
tener noticia el centro de la burbuja. Lo que está
más allá de este límite no puede afectar
físicamente a lo que sucede dentro de la
burbuja.
Retrasando el reloj hasta el primer jiffy, nos
encontramos en el momento en que las
fluctuaciones cuánticas perturbaron en tal
medida el espacio-tiempo que dejó de existir
como un continuo para empezar a comportarse
como una espuma. Dentro del jiffy, ni siquiera la
ramificación de Everett tiene mucho sentido, de
modo que podemos considerar el jiffy como el
punto de partida del gran drama cósmico. ¿Qué
formas espaciales emergieron de Jiffylandia,
donde existían todos los tipos de geometría
superpuestos a modo de ondas?
Puesto que el horizonte era tan estrecho en
aquel momento, cada agujero, cada puente,
cada galería dentro de la espuma de Jiffylandia
es comparable en tamaño al horizonte, por lo
que la forma de expansión inicial refleja el caos
local particular de la era cuántica. No obstante,
en una escala mayor, la forma del espacio pudo
ser absolutamente cualquiera.
Puesto que las distintas burbujas no pueden
saber nada de las otras, no parece haber
ninguna razón para que todas se expandan a la
misma velocidad. Llegamos ahora a uno de los
grandes misterios de la cosmología.
Como hemos dicho, las observaciones
demuestran que el universo es muy simétrico y
uniforme, tanto en cuanto ala forma en que se
distribuyen las galaxias por el espacio como en
cuanto a la forma del movimiento expansivo. Si
el universo que hizo erupción en Jiffylandia
constaba de miríadas de regiones de origen
independiente, ¿por qué debían colaborar todas
ellas en conformar un movimiento ordenado y
uniforme? Si el universo comenzó por azar,
debería haber arrancado expandiéndose de
forma muy turbulenta y caótica, y cada burbuja,
encerrada en su propio mundo particular por su
horizonte, debería explotar de manera distinta.
Ninguna influencia física relacionaba las burbujas
entre sí, de modo que no tenían ninguna razón
para cooperar. Si la energía se distribuyó al azar
entre todos los posibles modos de expansión, la
mayor parte de la energía debió desembocar en
movimientos caóticos y sólo una fracción
infinitésima debió disponer del movimiento
regular, uniforme e isótropo que en realidad
observamos. De entre los mcuhos movimientos
caóticos irrelevantes con que el universo pudo
haber emergido del Big Bang, ¿por qué ha
elegido esta forma de expansión disciplinada?
Un buen sistema de esclarecer la curiosa
naturaleza de la expansión cosmológica es
pensar en términos del planteamiento hecho
anteriormente sobre las condiciones iniciales. Si
imaginamos que trazamos un diagrama en el
que cada punto representa una determinada
forma de expansión inicial del universo,
solamente uno de los puntos representará una
expansión exactamente homogénea e isótropa.
Puesto que nosotros sólo podemos detectar,
por razones puramente tecnológicas, los
alejamientos de la uniformidad a partir de un
cierto valor mínimo de variación, todo lo que
podemos decir es que el universo es muy
aproximadamente homogéneo e isótropo, con
una cierta exactitud (de alrededor del 0,1 por
ciento en el caso de la isotropía), de manera que
nuestro diagrama tendrá una pequeña gota que
representará todas las condiciones iniciales
compatibles con el alto grado de uniformidad que
de hecho observamos. Fuera de esta gota están
los estados caóticos.
Si el universo ha sido realmente elegido al
azar entre estas posibilidades, eso equivale a
clavar un alfiler en nuestro diagrama y es
evidente que la posibilidad de pinchar la pequeña
gota es muy pequeña. Desde luego, la idea es
bastante vaga, porque no sabemos cómo medir
superficies en el diagrama, de modo que el
tamaño de la gota no está bien determinado,
pero cualitativamente la idea es bastante sólida:
la probabilidad de que el orden actual surgiera
por azar parece despreciable.
Hay una útil analogía con la expansión del
universo que puede aclarar la cuestión.
Imagínese un gran grupo de personas en
apretado tumulto. Cada persona representa una
región del espacio encerrada en su propio
horizonte —una burbuja espacial—, de manera
que para representar el hecho de que no hay
comunicación entre las burbujas ponemos a todo
el mundo con los ojos vendados. Así pues, cada
cual desconoce el comportamiento de los otros.
El grupo compacto representa la singularidad
inicial y, a un toque de silbato, todos echan a
correr en línea recta alejándose del centro del
tumulto: el universo se expande. El grupo se
extiende formando una especie de anillo.
Los corredores tienen orden de mantener el
paso de tal modo que el anillo se mantenga tan
circular como sea posible mientras se expande,
pero ninguno de los corredores sabe a qué
velocidad corren sus vecinos, de forma que cada
cual escoge una velocidad al azar. El resultado
es, con casi total seguridad, una línea rasgada y
distorsionada, muy distinta del círculo.
Existe, por supuesto, una pequeña
probabilidad de que, puramente por accidente,
todos los corredores mantengan el paso, pero es
a todas luces muy improbable. Lo que hoy
observamos en el universo corresponde a un
anillo de corredores tan aproximadamente
circular que no existe distorsión detectable en su
forma. ¿Cómo ha ocurrido esto: es un milagro?
Hace unos diez años, se presentó una ingeniosa
propuesta para verificar y explicar esta curiosa
simetría. En la metáfora de los corredores
equivalía a lo siguiente. Cuando el grupo explota
hacia el exterior, inevitablemente habrá
corredores más rápidos que sus vecinos. No
obstante, tras un cierto tiempo, serán presa de la
fatiga y desacelerarán. Por otra parte, sus
colegas, que no habrán gastado tan deprisa las
fuerzas, tendrán el bastante vigor para
alcanzarlos. El resultado final sería, transcurrido
un largo periodo de tiempo, un anillo
aproximadamente circular compuesto de
corredores bastante agotados, que se afanarían
tenazmente en continuar alejándose a una
velocidad considerablemente menor.
Traducido a lenguaje cosmológico, la idea es
ésta. En el universo primigenio, ciertas regiones
del espacio se expandieron con mayor energía
(es decir, a mayor velocidad) que otras, y
algunas direcciones se alargaron mucho
mientras que otras lo hicieron de manera más
perezosa. Los efectos de la disipación
comenzaron a socavar la energía de los
movimientos más vigorosos y a hacerlos más
lentos, permitiendo que los movimientos más
perezosos los atraparan. Al final, la situación
turbulenta y caótica se va estancando y se
reduce a un movimiento bastante lento y
tranquilo, con un alto grado de uniformidad, que
es precisamente lo que observamos.
Para que esta explicación funcione lo
primero que es necesario encontrar es un
mecanismo de disipación comparable a la fatiga
de los corredores que erosione el vigor del
universo en expansión. Este mecanismo debe
actuar de tal modo que los movimientos
enérgicos sean afectados en mayor medida que
los movimientos perezosos. Hay varios
candidatos a ser este mecanismo. Una
posibilidad es la viscosidad ordinaria: el efecto
que da lugar al frenado de un avión o de un
barco. Otro, que se ha investigado mucho en los
últimos años, es la producción espontánea de
nuevas partículas subatómicas a partir del
espacio vacío. Esto puede ocurrir debido a que
la energía del movimiento del espacio puede
transformarse en materia de acuerdo con las
ideas de la teoría cuántica y de la relatividad
esbozadas en el capítulo 4. Los cálculos
demuestran que mediante este mecanismo se
producen partículas de todos tipos: electrones,
neutrinos, protones, neutrones, fotones,
mesones e incluso gravitones. La reacción que
provoca en el espacio la aparición de toda esta
nueva materia consiste en reducir su fuerza
expansiva y ayudar a emparejar su movimiento
con el de las regiones vecinas. Un rasgo crucial
de este mecanismo es que su eficacia es mayor
en los primeros momentos, cuando la velocidad
de expansión es mucho mayor. Por tanto, no es
de esperar que la turbulencia primigenia
sobreviviera mucho tiempo; por el contrario,
debió transformarse en partículas.
Cualesquiera que sean los mecanismos que
consideremos, el resultado de la disipación de la
energía es en último término el calor. De
acuerdo con la segunda ley universal de la
termodinámica, que regula la organización de
toda la energía, cualquier tendencia a la
disipación inevitablemente genera calor. En la
Tierra, la desmandada disipación de energía de
nuestras fábricas y hogares produce tanto calor
que los científicos prevén que algún día llegará a
amenazar la existencia de los casquetes polares
de hielo. En el universo primigenio, la generación
de calor debida a la creación de partículas y
demás procesos de disipación fue colosal, y el
Big Bang adoptó las características de un horno,
con temperaturas que excedieron inmensamente
todas las conocidas en el universo actual,
incluidos los núcleos de las estrellas. Uno de los
descubrimientos científicos más estimulantes de
todos los tiempos ocurrió en 1965, cuando dos
ingenieros norteamericanos descubrieron
accidentalmente los restos del calor primigenio
mientras trabajaban en las comunicaciones por
satélite para la Bell Telephone Company.
Dado que el universo está ahora
enormemente distendido en comparación con la
época primigenia, este calor se ha enfriado hasta
ser casi nulo y el único residuo del ígneo
nacimiento del cosmos se mantiene a una
temperatura de tres grados por encima del cero
absoluto. Esta radiación cósmica de fondo, que
llega desde todas las direcciones del espacio,
aparentemente baña todo el universo y es una
buena prueba de que la teoría del Big Bang
tórrido es sustancialmente correcta. También
aporta el mejor medio disponible para comprobar
la isotropía del universo temprano, pues la
radiación calórica transporta información de la
época en que el universo pasó de ser opaco a
ser transparente alrededor de 100 000 años
después del origen. En aquella época la
temperatura había descendido a unos cuantos
cientos de grados y los gases primigenios ya no
absorbían la radiación. En la medida de nuestros
conocimientos, el universo de 100 000 años de
edad era isótropo con una exactitud del 0,1 por
ciento.
El calor primigenio tiene también una
importancia crucial para nuestra comprensión de
momentos muy anteriores a los 100 000 años.
Muy poco se sabe sobre la física especial
que rigió el material cósmico durante la fase
primigenia, entre el primer jiffy y el primer
segundo después del principio: sólo unos pocos
principios básicos y algunos análisis matemáticos
pueden servir de ayuda. Por ejemplo, podemos
tratar de calcular cuánto calor exactamente se
crea por la disipación de una cierta cantidad de
turbulencia y comparar la respuesta con los tres
grados observados, lo que pone de manifiesto
hasta qué punto fue caótico el universo
primigenio. El resultado es que la cantidad de
calor producido por por una cantidad dada de
turbulencia depende del preciso momento en
que se transforma. La razón de esto es que la
disipación ocurre mientras el universo se está
expandiendo y el movimiento de expansión tiene
el efecto de reducir tanto la energía calorífica
(que es por lo que ahora es tan fría la radiación
primigenia) como la energía de la turbulencia. La
investigación matemática demuestra que la
energía de la turbulencia desciende mucho más
deprisa que la energía calorífica como
consecuencia de la expansión, lo que significa
que cuanto antes se produce la transformación
de la primera en la segunda, mayor energía
calorífica tendremos a fin de cuentas.
Esta sencilla información plantea una gran
paradoja, puesto que todos los mecanismos de
disipación, como es la creación de partículas,
son más eficaces cuanto más tempranos.
Pasándolo a números, encontramos que
casi cualquier clase de anistropía habría
generado más calor del que actualmente
constatamos. De hecho, al parecer tenemos en
el universo la mínima cantidad posible de calor
primigenio.
No es posible que el universo no produzca
nada de calor, pues debe presentar alguna
turbulencia en la fase primigenia. Esto se debe a
que, al final del primer jiffy, aparecen las
fluctuaciones cuánticas del espacio y éstas, de
por sí, dan lugar a irregularidades. Un cálculo
aproximado revela cuánto calor producirían estas
fluctuaciones básicas del espacio cuántico y la
cifra resulta ser muy próxima al valor observado.
Sin duda, ha habido poca disipación adicional a
la de la turbulencia cuántica.
Incluso si estamos equivocados en cuanto al
mecanismo de disipación, hay otra razón para
que una excesiva turbulencia primigenia parezca
poco probable. Se puede calcular la aportación
de la turbulencia energética al contenido total en
masa-energía del universo, así como su efecto
sobre la velocidad de la expansión global. El
resultado es que cuando predomina la energía
de la turbulencia, la velocidad global de la
expansión disminuye de modo apreciable. Es
como si el universo, al agitarse al azar, se
olvidara de mantener la expansión general. Este
retraso tiene un importante efecto secundario:
que las radiaciones caloríficas que
inevitablemente generan las fluctuaciones del
espacio cuántico después del primer jiffy —el
calor cuántico— no se enfrían tan rápidamente
como lo hubieran hecho en un universo que se
expandiera con mayor fuerza, en un universo
más uniforme. El resultado es que acabamos,
una vez más, con demasiado calor. En cualquier
caso, tanto si la turbulencia se disipa
directamente en calor, como si frena la
expansión cosmológica evitando que el calor
cuántico se enfríe, el resultado final es aportar
una cantidad de calor mayor de la que
actualmente detectamos.
Por tanto, parece que la radiación cósmica
de fondo es un testimonio del hecho de que el
universo nació en una quietud disciplinada, al
menos a partir de la primera diezmillonésima de
billonésima de billonésima de billonésima de
segundo, ¡lo que no está mal como resultado!
Si el anterior razonamiento no es correcto,
respecto a lo cual algunos cosmólogos se
muestran escépticos, nos devuelve a la paradoja
de por qué el universo comenzó siendo tan
uniforme. Aquí es donde puede ayudarnos el
principio antrópico. Aunque la radiación del calor
primigenio es tan poco conspicua —en realidad,
se necesita un instrumento muy especial para
llegar tan sólo a percibirla—, una centuplicación
de su temperatura tendría drásticas
consecuencias para la vida. Si la temperatura
excediera los 100°C, entonces no habría agua
líquida en ninguna parte del universo. La vida
sobre la Tierra sería completamente imposible y
en principio es dudoso que se pudiera formar
ninguna clase de vida. Un aumento del orden del
millar de veces amenazaría la misma existencia
de las estrellas, al emular las temperaturas de su
superficie y dar lugar a un aumento del calor
interior. Además, es discutible que las estrellas y
las galaxias se hubieran siquiera formado, en
presencia de una radiación tan perturbadora.
Por lo que sabemos de la disipación de la
anisotropía primigenia, parece ser que incluso un
mínimo aumento incrementaría el calor
primigenio en miles de millones de veces. Por
tanto, la temperatura es muy sensible a
cualquier turbulencia primigenia.
Tampoco ayuda demasiado el que la
temperatura descienda conforme el universo se
expande. En la actualidad se necesitan miles de
millones de años para que la temperatura se
reduzca a la mitad y todas las estrellas se
habrán consumido para cuando disminuya a una
centésima su actual valor. Si la formación de la
vida hubiera de aguardar todo ese tiempo,
perdería la vital luz estelar de cuya energía
depende.
A menos que la conexión entre la turbulencia
primigenia y las radiaciones cósmicas de calor
sea totalmente errónea, no puede suponer
ninguna sorpresa que el universo se esté
expandiendo con la uniformidad que lo hace. De
no ser así, no estaríamos aquí
preguntándonoslo. Podemos considerar que
nuestra existencia es un accidente de una
improbabilidad casi increíble: entre todos los
mundos posibles, nuestro universo eligió
precisamente esta estructuración muy ordenada
de la materia y la energía que mantiene el
cosmos lo bastante frío para que pueda haber
vida. O bien, podemos adoptar la interpretación
del superespacio con muchos mundos y decir
que, entre los innumerables mundos turbulentos
y demasiado calurosos del superespacio, existe
una pequeña fracción de ellos que son lo
bastante fríos y en ellos es donde es más
probable que se forme vida abundante. No es
ninguna coincidencia, pues, que nos
encontremos viviendo en un mundo con un
contenido de calor primigenio próximo al mínimo.
La mayor parte de los demás mundos están
deshabitados.
De todo el inmenso haz de universos que
existe, sólo en una diminuta fracción similar al
nuestro existen criaturas inteligentes que se
plantean preguntas profundas sobre la
cosmología y la existencia. El resto recorre sus
historias entre tormentas rugientes y calores
tórridos que nadie percibe: son estériles,
violentos y, en apariencia, sin sentido.
Capítulo IX

¿Es el universo un accidente?

En el capítulo anterior hemos hablado de que el


observador debe encontrar determinadas
características en su mundo, ya que en el caso
contrario no podría existir. Si creemos en un
único universo, entonces la configuración
uniforme de la materia cósmica y la consiguiente
frialdad del espacio son casi milagrosas,
conclusión ésta que se parece mucho a la
tradicional noción religiosa de un mundo
conscientemente creado por Dios para que más
adelante fuese habitado por la especie humana.
Por otra parte, si aceptamos la idea de un
conjunto de muchos universos, tal como
propone la interpretación de Everett de la teoría
cuántica, la estructura del universo no es un
accidente increíblemente afortunado, sino el
efecto de la selección biológica: nosotros, en
cuanto observadores, sólo hemos evolucionado
en aquellos universos donde la estructura tiene
esta notable uniformidad. En la teoría de los
muchos universos, todo el superespacio es real,
pero sólo una porción infinitesimal está habitada.
La disyuntiva puede parecer más filosófica que
física y reducirse a una mera forma de hablar.
Cuando un ganador en la ruleta da gracias a
Dios mientras otro proclama su buena suerte,
¿acaso están diciendo algo realmente diferente?
En los últimos años, el principio antrópico se
ha aplicado a otros rasgos de nuestro universo
de los que la vida parece depender de forma
sensible. Además de ser muy isótropo, a gran
escala el universo parece homogéneo:
uniformemente poblado de materia. No
obstante, si fuese demasiado homogéneo, no
habría galaxias ni presumiblemente vida. El
universo debe, pues, mantener el adecuado
nivel de conglomeración: si hay demasiada
poca, la materia cósmica permanece en forma
de gas desorganizado. Por otra parte, si el
material estuviera más concentrado, existiría la
amenaza de que desapareciera por completo por
acción de la gravedad.
Al ser una fuerza universal, la gravedad
atrae a toda la materia hacia toda la materia. El
efecto de la gravedad sobre una gran bola de
gas consiste en hacerla contraerse
progresivamente; y mientras se contrae se libera
fuerza gravitatoria que se convierte en calor,
sobre todo en las proximidades del centro. En
último término, conforme la temperatura interior
aumenta y crece la presión del gas, el gas llega
a ser capaz de sostener el peso de las capas
exteriores: entonces se detiene la contracción.
Ésta es la situación del Sol y de otras
estrellas, que se mantienen básicamente en
equilibrio estable con un radio constante. Por
supuesto, el calor no puede retenerse
indefinidamente dentro de la bola, pues tiende a
fluir hacia la superficie e irradiarse en el espacio
exterior. Si el calor perdido no se puede sustituir,
la gravedad prevalecerá una vez más y
continuará la contracción. No obstante, en las
estrellas, la progresiva contracción queda
pospuesta en unos cuantos miles de millones de
años por una fuente completamente distinta de
calor: la combustión nuclear.
La mayor parte de la materia del universo
está compuesta de hidrógeno, el más ligero de
los elementos que existen. Los átomos de
hidrógeno constan de dos partículas
subatómicas, un electrón y un protón, de
manera que el núcleo de hidrógeno no es una
masa compuesta en la que participen otros
elementos. El hidrógeno no es el material más
estable por lo que a la estructura nuclear se
refiere. En el capítulo 8 se explicó que los
núcleos compuestos que contienen muchos
protones y neutrones se mantienen unidos por la
fuerza fuerte aglutinante del núcleo, que se
impone a la repulsión eléctrica entre los
protones. En los núcleos ligeros, como el del
helio, el del oxígeno, el del carbono o el del
hidrógeno, que no contienen muchos protones,
existe un premio por juntar los diversos
componentes en una unidad: el núcleo así
constituido es más estable que las partículas
sueltas. Por tanto, liberan energía al formarse.
Consiguientemente, se necesita una gran
cantidad de energía para superar las fuerzas de
atracción del núcleo y dividir estos núcleos en
protones y neutrones separados. Por el
contrario, los núcleos pesados, como los del
plomo, del radio, del uranio y del plutonio,
contienen muchos protones y en realidad se
produce una pérdida de energía cuando se
agregan nuevas partículas al núcleo. Esto se
debe a que la repulsión eléctrica conjunta de
todos los protones es mayor que la atracción de
la fuerza nuclear, con la consecuencia de que la
desintegración de los núcleos pesados libera
energía.
Estos hechos se explotan en las centrales
nucleares. La fisión de núcleos pesados para
liberar energía es el principio de las centrales
nucleares y de las bombas atómicas, mientras
que la fusión controlada de los núcleos ligeros
para liberar una cantidad aún mayor de energía
sigue en estado experimental. Una fusión
descontrolada se produce en la bomba de
hidrógeno, y también en el Sol y las demás
estrellas. En el interior del Sol, los núcleos de
hidrógeno se fusionan entre sí formando el
siguiente elemento químico más ligero: el helio.
El núcleo de helio contiene dos protones y
también dos neutrones, de manera que durante
la combustión nuclear han de ganarse dos
neutrones para cada nuevo núcleo de helio.
Como se ha explicado en el capítulo 8, el
neutrón libre se desintegra en un protón al cabo
de unos quince minutos. Lo que ocurre en el Sol
es el proceso inverso: los protones se
transforman en neutrones para colaborar a la
síntesis del helio. Las reacciones nucleares que
llevan a cabo esta operación son complicadas,
pero el resultado neto consiste en traspasar la
carga eléctrica perdida por el protón a un positrón
(la imagen antimatérica del electrón), que
rápidamente se aniquila con un electrón cercano
dando lugar a rayos gamma. Otro subproducto
del proceso es el llamado neutrino, que deja
inmediatamente la escena de la acción y pasa al
espacio. Un neutrón se combina con otro
neutrón y dos protones para formar el núcleo del
átomo de helio, liberando en el proceso nuevos
rayos gamma.
Después de estar estallando dentro de la
estrella durante eones, los rayos gamma se
convierten en energía calorífica que colabora a
sostener la estrella contra las fuerzas
gravitatorias que tienden a contraerla.
La combustión nuclear cesará finalmente en
todas las estrellas cuando el combustible se
agote y vuelvan a contraerse. Para descubrir lo
que ocurrirá después debemos recurrir a la teoría
general de la relatividad de Einstein. El análisis
matemático demuestra que, mientras la estrella
tenga menos material que unos tres soles, las
otras fuentes de presión aumentarán y se podrá
contener la contracción.
Por ejemplo, en las estrellas conocidas como
púlsares, el material va saliendo
progresivamente aplastado hasta que incluso los
mismos átomos se colapsan en neutrones.
Estas estrellas de neutrones son bolas
compuestas casi exclusivamente de neutrones y
de una increíble densidad, que sólo miden unos
kilómetros de diámetro.
En el caso de las estrellas con una masa
superior a tres soles, su sino es aún más
extravagante. De acuerdo con la relatividad
general, la contracción no puede impedirse y
explotan de manera catastrófica en más o
menos un microsegundo. El aumento de la
gravedad en sus proximidades distorsiona en tal
medida el espacio-tiempo que el tiempo se
detiene literalmente. Ni la luz ni la materia ni
ninguna información puede escapar de su
superficie, de modo que ésta aparece negra: un
agujero negro. La estrella, una vez retraída en el
agujero negro, desaparece efectivamente del
universo. Es posible que dentro del agujero
encuentre una singularidad, con lo que
abandonaría el espacio-tiempo por completo,
pero, en cualquier caso, por lo que se refiere al
mundo exterior, la materia de que está
compuesta la estrella se ha ido para siempre:
nada puede regresar del interior de un agujero
negro.
Se cree que los agujeros negros
desempeñarán un importante papel en las
etapas finales de nuestro universo, cuando
probablemente la mayoría de las estrellas acabe
sus días dentro de ellos. No obstante, también
pudieron ser importantes en las etapas
primigenias. La densidad crítica de la materia
que se necesita para formar un agujero negro
depende de la masa total.
Para una galaxia, basta la densidad del
agua, pero en el caso del Sol sería necesaria
una densidad de miles de millones de kilogramos
por centímetro cúbico. Para formar un agujero
negro menor que la masa del Sol se precisarían
densidades que excedieran incluso esta colosal
cifra. La única vez en que se han producido en el
universo esas enormes densidades fue durante
el Big Bang, cuando todo el cosmos explotó a
partir de una situación ilimitadamente compacta.
Algunos cosmólogos han investigado la
formación de los agujeros negros en el universo
primigenio, pero sus resultados son bastante
poco concluyentes, puesto que dependen
sensiblemente de las características del material
cósmico sujeto a las enormes densidades que se
dieron entonces, todo lo cual está muy lejos de
nuestros actuales conocimientos. No obstante,
es evidente, por razones generales, que es más
probable que se produjeran agujeros negros si el
material estaba muy apelmazado que en el caso
de estar la materia regular y uniformemente
distribuida. Parece seguro suponer que un
universo que se iniciara en condiciones muy
poco homogéneas no emergería del Big Bang
poblado de estrellas sino de agujeros negros.
¿Puede formarse vida en un universo de
agujeros negros? El agujero negro ofrece pocas
perspectivas a los sistemas que sostienen la
vida. La vida sobre la Tierra se basa
crucialmente en el calor y la luz solares, y los
agujeros negros, por su misma naturaleza, no
irradian ninguna clase de energía (aunque, como
explicaremos muy brevemente, esto puede no
ser cierto en el caso de los agujeros negros
microscópicos). Además, en lugar de orbitar
serenamente alrededor de una estrella, la masa
planetaria, al encontrarse demasiado cerca de un
agujero negro, trazaría una inexorable espiral
hacia su interior y rápidamente se sumergiría en
el olvido dentro del agujero.
¿Cuántos agujero negros primigenios
existen? De momento nadie ha identificado
taxativamente un agujero negro, aunque hay
algunos candidatos muy firmes. El problema es
que, al ser negros, son difíciles de localizar, y la
única técnica práctica consiste en buscar
perturbaciones gravitatorias de cuerpos más
conspicuos motivadas por su proximidad al
agujero. Los agujeros negros de una galaxia
pueden ponerse de relieve por el efecto que
causan en el movimiento de las estrellas,
mientras que los cuerpos supermasivos
intergalácticos podrían perturbar el
comportamiento de galaxias enteras. Es posible
medir la masa total de los agujeros negros del
universo calculando la gravedad total del
universo. Lo cual puede hacerse observando la
velocidad a que se desacelera el movimiento
expansivo debido a todos los objetos
gravitatorios del cosmos. Las mediciones
señalan que la materia luminosa (estrellas,
gases, etc.) deben constituir una fracción
apreciable de la masa total del universo, de
manera que es evidente que no habitamos un
universo donde predominen abrumadoramente
los agujeros negros.
A pesar de la falta de conocimientos
detallados sobre los agujeros negros primigenios,
es posible utilizar un razonamiento muy general
para calcular en términos aproximados la
probabilidad de que el universo emergiera del Big
Bang sin una sobrecogedora cantidad de ellos.
La posibilidad de realizar este cálculo se basa en
ciertos resultados matemáticos nuevos y
notables sobre los agujeros negros cuánticos, es
decir, sobre la teoría del campo cuántico
aplicada a los agujeros negros, obtenidos sobre
todo por Stephen Hawking de la Universidad de
Cambridge. En 1975, Hawking demostró que los
agujeros negros no son en absoluto
verdaderamente negros, sino que emiten
radiaciones caloríficas a una temperatura
característica que depende de su masa. Esta
extraordinaria conclusión permite tratar a los
agujeros negros de forma bastante parecida a
las máquinas térmicas y, en concreto, hace
posible estudiar sus propiedades aplicando las
leyes universales de la termodinámica.
Durante la última década del siglo XIX, uno
de los grandes triunfos de la física teórica fue el
descubrimiento de la relación entre el
comportamiento termodinámico de un sistema y
la probabilidad de una determinada ordenación
atómica de sus componentes. Para presentar un
ejemplo sencillo, imaginemos un recipiente
conteniendo un gas: las moléculas corren por
todas partes al azar chocando entre sí y con las
paredes del recipiente. La presión del gas está
causada por los impactos de las moléculas
mientras que la temperatura es una medida de
la velocidad de las moléculas. La energía
térmica es sencillamente la energía de su
movimiento. Las magnitudes termodinámicas
tales como la temperatura, la presión y el calor
son medibles en el laboratorio, pero poco
podemos saber sobre los detalles de las
moléculas individuales, pues son demasiado
pequeñas y demasiado numerosas para
percibirlas. Sólo cabe observar las propiedades
medias en masas de millones de billones de
ellas, de tal modo que es imposible constatar su
constante revolverse y reordenarse conforme
chocan entre sí y se mueven en todas
direcciones. Cualquier estado macroscópico
concreto del gas (es decir, la temperatura, la
presión, etc.) debe estar producido por un
enorme número de distintas combinaciones
internas de las moléculas. Por ejemplo, el
cambio de posición de unas cuantas moléculas
quizá no tenga ningún efecto observable sobre la
temperatura.
Pero no todas las ordenaciones moleculares
conducen al mismo estado macroscópico. Por
ejemplo, en el insólito caso de que todas las
moléculas se dirigieran al unísono hacia la
izquierda, el gas se apilaría en el lado izquierdo
del recipiente. Si todas las moléculas se
movieran al azar, ¿por qué no podría darse en
alguna ocasión este comportamiento? La
respuesta la proporcionan el cálculo de
probabilidades y la estadística elemental. La
probabilidad de que ocurra tal cooperación entre
un inmenso número de moléculas distintas es
increíblemente pequeña, aunque no
necesariamente igual a cero. Una forma mucho
más probable de movimiento es el caótico, en el
que las moléculas se dispersan por todas partes
con mayor o menor regularidad, lo mismo que
es mucho más probable que las cartas barajadas
presenten un orden confuso y no un orden por
palos. Los choques entre las moléculas actúan
como un mecanismo aleatorio de revolverlas y
las probabilidades de que miles de millones de
partículas se muevan de forma ordenada son
despreciables.
Esto ilustra el principio muy general de que
es más fácil producir el caos en el orden y, por
tanto, que aquél es mucho más probable; éste
es el razonamiento que se aplicó en el capítulo
anterior para defender que una expansión
primigenia ordenada del universo es mucho
menos probable que un estado caótico y
turbulento. Pero, ¿por qué es así?
La razón de que el desorden sea más
probable que el orden se encuentra en las
estadísticas de la ordenación molecular. Como
antes hemos mencionado, las pequeñas
reorganizaciones de grupos de moléculas no
afectan a las propiedades totales del gas. No
obstante, determinados estados son más
propicios que otros a las estructuraciones. Por
ejemplo, en un estado en que todas las
moléculas se precipitan en la misma dirección,
no hay la misma libertad para mezclarlas otra
vez que en un estado menos ordenado, porque
es probable que basten pequeñas alteraciones
para romper un comportamiento tan
exactamente coordinado.
Un análisis matemático demuestra que la
diferencia en capacidad de reordenación de
estados ordenados y de estados desordenados
puede ser abrumadora. Determinados estados
—los muy desordenados— admiten muchísimas
más variaciones que los estados más
ordenados. De modo que si la organización
molecular se revuelve constantemente al azar,
no se precisará mucho tiempo para que una
forma ordenada se rompa en un estado de
desorden, una vez conseguido lo cual el estado
de desorden es muy estable porque las
siguientes modificaciones es más probable que
reproduzcan otro estado de desorden que un
estado de orden. El principio es la sencillez
misma: hay muchas más maneras de dar lugar
al desorden que al orden, de modo que es
muchísimo más probable que un estado elegido
al azar sea muy desordenado.
Equipados con la relación entre el grado de
desorden de un sistema y la probabilidad de que
su estado se produzca por algún proceso
aleatorio, intentaremos determinar cómo encajan
los agujeros negros en este esquema
termodinámico y valorar la posibilidad de que
aparezcan como consecuencia de procesos
puramente aleatorios ocurridos en el universo
primigenio. A primera vista, el concepto de grado
de desorden parece tener una relación algo
oscura con los agujeros negros. A diferencia de
los gases, que como sabemos están
compuestos por miles de millones de diminutas
moléculas, los agujeros negros no están en
realidad compuestos de nada, sino que son un
mero vestigio de materia desvanecida: una zona
enormemente distorsionada del espacio vacío.
Un examen más detallado, sin embargo,
revela una profunda similitud entre ambos
sistemas. En ambos casos carecemos de
información sobre su estructura interna. Las
moléculas del gas son demasiado pequeñas
para percibirlas y el interior del agujero negro no
puede transmitir ninguna información al exterior.
Lo único que puede medirse en estos sistemas
son las características globales, como la masa
total, el volumen, la carga eléctrica, el grado de
rotación, etc. Los valores concretos de estas
características globales pueden ser el resultado
de muy distintos procesos: las moléculas
gaseosas pueden reordenarse y el mismo tipo
de agujero negro puede proceder de estrellas
colapsadas con muy distintas estructuras
internas.
La verdadera y sorprendente similitud entre
los gases y los agujeros negros surge del
sometimiento de estos últimos a una nueva ley
que parece ser una analogía directa de la ley
central de la termodinámica: la llamada segunda
ley de la termodinámica. Esta segunda ley
establece que el desorden total siempre
aumenta con el tiempo. El agujero negro
obedece a una ley que dice que siempre
aumenta el tamaño con el tiempo, de tal modo
que cabe sospechar que el tamaño del agujero
es una medida de su grado de desorden. Esta
sospecha se vio confirmada al estudiar la
relación entre la temperatura de los agujeros
negros, tal como la calculó Hawking, y su masa:
los agujeros negros resultan cumplir la misma
relación entre desorden y temperatura que los
gases, si se utiliza la extensión del agujero como
medida del desorden. A su vez, la extensión
está relacionada con la masa del agujero, de
manera que disponemos de los medios para
comparar el grado de desorden de una masa
dada de material con el desorden equivalente
que se produciría si ese material cayera en un
agujero negro. En el caso de una masa de
materia como la del Sol, el desorden del agujero
negro llegaría a ser varios miles de billones de
veces superior que el del Sol real, resultado éste
que conlleva una consecuencia fatídica: de ser
todo lo demás igual, es inmensamente más
probable que la materia del Sol esté dentro de
un agujero negro que no en una estrella. Lo
esencial del enunciado es «de ser todo lo demás
igual». Evidentemente, todo lo demás no es
igual en nuestro universo, o bien no habría Sol ni
las demás estrellas. De revolverse la materia
primigenia al azar, hubiera sido enormemente
más probable que produjera agujeros negros a
que produjera estrellas, puesto que los agujeros,
al ser mucho más desordenados, pueden
producirse por mucho mayor número de
procedimientos. Por cada estrella que se ha
formado, debieron acompañarla incontables
miles de millones de agujeros negros más fáciles
de producir.
La verdadera fuerza de estos argumentos se
pone de relieve cuando se examina la relación
matemática exacta entre desorden y
probabilidad. Se trata de hecho de la llamada
relación exponencial, equivalente al modo en que
crece una población ideal que duplica su tamaño
a cada intervalo fijo de tiempo, por muy grande
que sea su tamaño. Por tanto, cada vez que el
grado de desorden aumenta en una cantidad
determinada, se duplica la probabilidad de que
se presente tal estado. La relación es tal que
cuando las cifras se hacen grandes, una
pequeña cantidad de desorden adicional
representa una probabilidad muchísimo mayor.
En el caso del Sol, cuyo desorden es tan sólo de
una centésima de millonésima de billonésima del
agujero negro equivalente, la probabilidad en
contra de que surgiera el Sol en lugar de un
agujero negro como consecuencia de un proceso
puramente aleatoria sería, aproximadamente, de
uno seguido del mismo número de ceros. Es
decir, ¡de un uno seguido de cin millones de
billones de ceros!, lo que es una probabilidad
bastante pequeña cualquiera que sea el rasero.
Si se aplica el mismo razonamiento a todo el
universo, la probabilidad en contra de un cosmos
estrellado resulta exorbitante: un uno seguido de
cien mil millones de billones de billones de ceros,
como mínimo. Aun cuando los razonamientos
sobre la probabilidad del desorden sólo tengan
una validez aproximada, la conclusión a sacar
debe ser que vivimos en un mundo de una
improbabilidad astronómica.
Una vez más, cabe invocar el principio
antrópico para sostener que entre el abrumador
haz de universos dominados por los agujeros
negros hay fracciones casi inconcebiblemente
pequeñas en las que, contra todas las
probabilidades, la materia primigenia eludió la
aniquilación y se organizó en forma de estrellas
capaces de sustentar la vida.
Estas consideraciones conjuran el
extravagante espectáculo del superespacio:
mundo sobre mundo en movimiento caótico,
poblado de inmensos agujeros negros que van
errantes y chocan en erupciones titánicas del
espacio-tiempo, bañados todos en el tórrido calor
generado por el ruido cuántico y amplificado por
la disipación primigenia. ¿Quién imagina que, en
medio de este infinito número de universos de
pesadilla, existen unos pocos insignificantes que
milagrosamente han maniobrado alejándose del
infierno dominado por los agujeros negros y ha
procreado la vida? Nosotros podemos
imaginarlo, porque nosotros somos esa vida.
Como hemos observado al iniciar este
capítulo, parece que el universo deba comenzar
con grumos y abolladuras para que puedan
formarse las galaxias y las estrellas.
Aunque las nubes de gases tienen tendencia
natural a contraerse bajo la acción de la
gravedad, han de luchar contra la expansión del
universo que actúa en sentido contrario, es decir,
que tiende a dispersarlas. Hubo un cierto
momento en que los astrónomos confiaban en
explicar la existencia de las galaxias según el
supuesto de que el material que había explotado
en el Big Bang era inicialmente muy uniforme,
pero que posteriormente ocurrieron fluctuaciones
aleatorias que dieron lugar a acumulaciones
desperdigadas de materia. Estas acumulaciones
operaron como núcleos alrededor de los cuales
se asentaron otros materiales debido al aumento
de la gravedad local, de tal forma que,
gradualmente, el material gaseoso fue
fragmentándose en distintas protogalaxias que, a
su vez, se fragmentaron en estrellas. Por
desgracia, parece haber pasado demasiado poco
tiempo desde el principio del universo para que
las galaxias hayan crecido de manera natural por
este procedimiento. La única posibilidad es que
existieran algunas regiones densas desde el
principio, que posteriormente se convirtieron en
las galaxias que ahora vemos.
De momento, en lo dicho sobre el principio
antrópico nos hemos limitado a los problemas de
la ordenación de la materia y la energía en el
universo. Es posible ir más lejos y tener en
cuenta circunstancias en que las propiedades
físicas fundamentales de la materia pueden
variar de un mundo a otro. Como vimos en el
capítulo 8, es imposible saber cuáles de nuestras
leyes de la naturaleza son meramente casos
especiales de leyes más generales, de manera
que muchos de los rasgos de la física que
damos por supuestos podrían ser bastante
distintos en otras regiones del superespacio.
Para tomar un primer ejemplo, nuestra actual
teoría de la gravedad (teoría de la relatividad
general de Einstein) incluye la restricción de que
la fuerza de la gravedad entre dos masas
normales a una distancia dada es la misma
cualquiera que sea el lugar en que se sitúen y
cualquiera que sea el momento en que ejerzan
su fuerza. En el caso de la Tierra, ésta atraerá a
una manzana con la misma fuerza tanto si la
Tierra se halla en la Vía Láctea como si está en
la nebulosa de Andrómeda.
Del mismo modo, atraerá la manzana con la
misma fuerza hoy que lo hacía hace mil millones
de años. La ley de la constancia de la gravedad
parece estar bastante bien comprobada por la
experiencia, aunque aún queda lugar para la
duda, y algunos físicos han propuesto teorías
contrarias a la de Einstein, en las que la fuerza
de la gravedad puede variar de un lugar a otro y
de un momento a otro. Si la fuerza de la
gravedad no está fijada de una vez por todas por
los principios fundamentales de la física, cabe
suponer que variará de un mundo a otro del
superespacio. Nos enfrentamos, pues, al reto de
explicar por qué entonces en nuestro universo
tiene la fuerza que tiene; en particular, ¿por qué
es mucho más débil que todas las demás
fuerzas de la naturaleza?
Todo el que esté familiarizado con la física
elemental sabrá que las leyes matemáticas que
describen los sistemas físicos fundamentales
con frecuencia sacan a relucir números como
4^p y ,2. Muchas veces estos números tienen
un origen geométrico o bien están relacionados
con las dimensiones del espacio. Hace unos
cincuenta años, a raíz de la aparición de la teoría
general de la relatividad, muchos físicos trataron
de construir una teoría unificada donde la
gravedad de Einstein se combinara con la
anterior teoría del electromagnetismo de
Maxwell. La esperanza era, y sigue siendo, que
de alguna manera los fenómenos gravitatorios y
los electromagnéticos fueran ambos
manifestaciones de un campo básico unificado.
Nadie ha logrado crear tal teoría, aunque la
investigación prosigue. Una de las
desalentadoras dificultades a que se enfrentan
los teóricos del campo unificado es la inmensa
diferencia que existe en términos de fuerza entre
las fuerzas electromagnéticas y las gravitatorias.
La gravedad que actúa entre los elementos del
átomo vine a ser menos fuerte que la atracción
eléctrica en diez elevado a cuarenta (1040)
veces. ¿Qué teoría física podría ser capaz de
manejar una cifra tan enorme?
Una curiosa complicación de este misterio la
señalaron por primera vez el astrónomo
Eddington y el físico Paul Dirac. Cuando
medimos intervalos de tiempo, los calibramos
con algún periodo natural de vibración o rotación:
la rotación de la Tierra, las oscilaciones de un
cristal de cuarzo o las vibraciones de la onda
luminosa. Si preguntamos cuál es la unidad
temporal más pequeña que tiene significación
fundamental para la estructura de la materia,
nos vemos llevados a examinar las vibraciones
de los átomos y de sus núcleos. Las partículas
subatómicas situadas en el interior de los
núcleos de los átomos oscilan a una escala
temporal increíblemente corta para los
estándares de la vida cotidiana: alrededor de una
billonésima de billonésima de segundo o bien el
tiempo que tarda la luz en atravesar un núcleo.
Este pequeño intervalo de tiempo constituye una
unidad fundamental y natural con la que
comparar otros intervalos, aunque cuesta
bastante pensar que incluso esta duración fugaz
es diez elevado a veinte veces mayor que la
unidad natural de gravedad cuántica —el jiffy—.
Preguntándonos ahora cuál es la mayor unidad
natural de tiempo disponible, nos vemos
llevados a la edad del universo, que se ha
calculado por distintos procedimientos en
alrededor de quince mil millones de años. En
nuestras unidades subatómicas fundamentales
esta duración resulta ser de alrededor de 1040 o
bien uno seguido de cuarenta ceros: la misma
enorme cifra en que la gravedad es más débil
que el electromagnetismo.
El misterio consiste en: ¿por qué ocurre que
vivimos precisamente en la época en que la
edad del universo es igual al mágico número
1040? Dirac sostuvo que este número está tan
por encima de los que habitualmente se
encuentran en la teoría física, como 4^p y ,2,
que lo más probable es que las dos proporciones
anteriores sean iguales por coincidencia.
Mantuvo que estos números están vinculados
por una teoría física que exige que la igualdad se
mantenga cierta en todas las épocas, rasgo que
puede lograrse imponiendo que la gravedad se
debilite con el tiempo. En el pasado remoto,
cuando el universo era menor de edad, la
gravedad era más fuerte que ahora.
Por desgracia, hay pocas pruebas
experimentales de la debilitación de la gravedad
y una explicación distinta de la coincidencia la
proporciona el principio antrópico. El argumento
que utilizamos aquí es una adaptación del
originalmente sugerido por el astrofísico
norteamericano Robert Dicke y el físico-
matemático británico Brandon Carter.
Siempre ese ha observado que la existencia
de elementos pesados, como el carbono, se
considera esencial para la vida tal como la
conocemos. El carbono no estaba presente en
los inicios del universo (véase más adelante)
pero fue sintetizado por estrellas que murieron
mucho antes de que se formara el Sol. Encontró
la forma de llegar a la Tierra porque algunas de
esas estrellas explotaron y lanzaron el carbono al
espacio interestelar. Parece probable que la vida
no pudiera florecer en el universo hasta que por
lo menos cumpliera su ciclo una generación de
estrellas. Por otra parte, una vez que una estrella
ha muerto, quizá para convertirse en un agujero
negro o en un objeto compacto y frío, es muy
improbable que la vida se forme en sus
proximidades.
Como lo probable es que sólo haya un corto
número de generaciones de estrellas antes de
que la mayor parte de la materia de las galaxias
se haya consumido, de ahí se deduce que la
vida sólo puede surgir en el universo en el
periodo comprendido entre la vida de una y de
unas pocas estrellas típicas.
Ahora bien, la vida de una estrella puede
calcularse a partir de la teoría de la estructura
estelar.
Depende tanto de la fuerza de la gravedad,
que mantiene unida la estrella, como de las
fuerzas electromagnéticas, que controlan que la
energía circule eficientemente por el interior de la
estrella y sea irradiada al espacio.
Los detalles son complicados, pero cuando
se resuelven dan como resultado que la vida de
una estrella típica, en unidades subatómicas
naturales, corresponde exactamente a la razón
entre las intensidades de las dos fuerzas: 1040,
factor diez más o menos. La conclusión es que
cualquiera que fuera el valor de esta razón, las
criaturas inteligentes sólo estarían ahí para
preguntarse por esa cifra cuando el universo
hubiera existido durante aproximadamente este
mismo número de unidades temporales
subatómicas.
Podemos ir más allá y estudiar por qué este
número es tan grande: es decir, por qué la
gravedad es tan pequeña en comparación con
las fuerzas electromagnéticas. Nuestra
existencia sobre la Tierra dependió de que el Sol
permaneciera estable durante los varios miles de
millones de años que ha tardado la evolución
biológica en crear criaturas inteligentes. De ahí
que la vida de una estrella típica, como es el Sol,
deba tener al menos tal duración, lo que prohíbe
que la gravedad sea apreciablemente mayor de
lo que es. De lo contrario, el Sol se habría
consumido antes de que hubieran podido
desarrollarse los seres humanos.
La fuerza de la gravedad también está
íntimamente relacionada con otro rasgo
fundamental de nuestro universo: su tamaño. La
mayor parte de la gente se da cuenta de que el
universo es grande.
En primer lugar, las distancias son enormes.
La estrella más próxima al Sol está a casi
cuarenta y cinco billones de kilómetros de
distancia (más de cuatro años luz) y la Vía
Láctea tiene un diámetro de cien mil años luz.
Nuestros telescopios son capaces de detectar
galaxias situadas a varios miles de millones de
años luz de distancia.
En segundo lugar, el número total de
estrellas es mareante. Nuestra galaxia, que es
una galaxia normal, tiene alrededor de cien mil
millones de estrellas y hoy sabemos que existen
muchos miles de millones de galaxias.
No obstante, hay un cierto sentido en que el
universo tiene un tamaño limitado. Por así
decirlo, hay un borde situado a unos quince mil
millones de años luz. No se trata de un
verdadero borde físico, sino que es el horizonte
mencionado más allá del cual la curvatura del
espacio-tiempo no nos permite seguir viendo. En
este sentido, el universo tiene un tamaño natural
y cabe preguntarse por la medida de este
tamaño en la mínima unidad de medida
disponible: el tamaño del núcleo atómico. La
respuesta vuelve a ser de alrededor de 1040,
pero esta vez no es sorprendente. En realidad
estamos calculando la misma cantidad que la
edad del universo en unidades naturales de
tiempo, sólo que utilizando las distancias (años
luz) en lugar de los tiempos (años). Por tanto, el
universo es así de extenso porque es así de
viejo y es así de viejo debido al tiempo que ha
necesitado la vida para evolucionar.
Volviendo al contenido del universo,
podemos determinar el total de materia
utilizando la mínima unidad de materia
disponible: el átomo. El número de átomos del
universo (comprendido en nuestro horizonte)
resulta ser de alrededor de 1080, o sea un uno
seguido de ochenta ceros, que es precisamente
el cuadrado del otro gran número (1040) de que
ya nos hemos ocupado. Es posible confrontar
esta nueva coincidencia utilizando asimismo el
principio antrópico, puesto que ocurre que la
suma total de materia del universo está
relacionada con su edad. La razón es que el
universo se está expandiendo y que la densidad
de la materia controla el movimiento expansivo.
Si el total de materia fuese mucho mayor, la
gravedad detendría la expansión y haría que el
universo se colapsara antes de poder
desarrollarse la vida inteligente. Por otra parte,
sería improbable que las galaxias y las estrellas
hubieran surgido nunca en abundancia. Como ya
hemos mencionado, las galaxias y las estrellas
se forman por concentraciones de gases y polvo
cuya gravedad local atrae a los materiales que
las rodean con mayor fuerza que los dispersa la
expansión del universo. Si la densidad de la
materia del universo fuera muy inferior, la
gravedad local sería menor y, por lo tanto,
impotente para impedir que la materia se
alejase. Además, la velocidad de expansión
sería mayor, lo que haría que el enfrentamiento
de las dos tendencias fuese aún menos
favorable a la formación de regiones densas. Por
lo que parece, no podríamos existir en un
universo con una densidad muy distinta de la
que tiene el que realmente habitamos.
Para que exista la vida, la densidad del
universo debe ser lo bastante grande para que la
materia quede localmente atrapada en las
estrellas, pero no tan grande que todo el cosmos
se desplome. Podemos utilizar la teoría general
de la relatividad de Einstein para calcular la
densidad óptima que sella el compromiso entre
las dos alternativas y utilizar esta densidad,
conjuntamente con el tamaño del universo, para
calcular el correspondiente número total de
átomos. Este resultado es numéricamente muy
similar al que resulta de multiplicar las dos
proporciones mencionadas: la edad del universo
multiplicada por la razón entre la atracción
eléctrica y la gravedad del átomo es de 1040 ×
1040, es decir, 10 80. Tal es precisamente el
número de átomos observados. Por tanto, esta
nuev a asombrosa coincidencia ya no resulta
sorprendente después de todo, dado que
estamos vivos para comentarla.
Argumentos similares al de la gravedad se
han propuesto en relación con la fuerza nuclear.
Vimos en el capítulo 8 que la estabilidad de los
núcleos dependía del equilibrio entre la atracción
nuclear y la repulsión eléctrica, de tal modo que
los cambios de intensidad de cualquiera de ellas
amenaza la estructura de los núcleos
compuestos que son la base de la vida. Por
ejemplo, basta que la carga eléctrica que
transportan los protones se multiplique por diez
para desintegrar los núcleos de carbono; una
similar disminución de la fuerza nuclear produce
el mismo efecto. Fred Hoyle ha señalado que la
existencia de carbono puede depender de un
modo aún más delicado de las fuerzas
nucleares, puesto que, según la teoría del Big
Bang, la estructura actual del universo no podría
resistir las enormes temperaturas de la fase
primigenia. Incluso los átomos y los núcleos
serían aplastados por la energía calorífica y, por
lo tanto, tal como antes se ha señalado, faltaría
el átomo de carbono. Antes de que
transcurrieran los primeros minutos, las
temperaturas, superiores a los miles de millones
de grados, aseguraban que sólo podían existir
protones, neutrones y otras partículas
independientes; ningún núcleo compuesto podía
formarse en medio de tan intenso calor.
Conforme el universo se enfrió, comenzaron a
formarse los núcleos compuestos, sobre todo
mediante la fusión de neutrones y protones en
helio. Los cálculos demuestran que alrededor de
una cuarta parte del material acabó en forma de
helio, pero casi no se creó ningún elemento más
pesado.
Las razones de que la síntesis nuclear fuese
incompleta se deben a que, al cabo de pocos
minutos, la temperatura había descendido
demasiado para que prosiguiera la combustión
nuclear. El universo sólo tuvo unos cuantos
minutos, entre el calor abrasador y las
temperaturas del plasma enfriándose en picado,
durante los cuales pudo fraguar núcleos
compuestos. No bastaron para que hubiera una
gran producción, lo que explica que el universo
esté compuesto casi exclusivamente de
hidrógeno y helio.
El carbono, el elemento vital, se sintetizó
mucho después, cuando se restablecieron
temperaturas del tipo primigenio en el centro de
las estrellas. El carbono únicamente se forma
después de que una buena parte de la estrella
se haya convertido en helio. El núcleo de
carbono consta de seis protones y dos
neutrones, de manera que el carbono se forma
cuando chocan simultáneamente tres núcleos de
helio. En el tórrido interior de las estrellas se
producen abundantes choques, puesto que las
partículas se disparan hacia todas partes de
forma caótica, pero un encuentro triple, como es
natural, es mucho más raro que el choque de
dos núcleos. La fusión de tres núcleos de helio
en un núcleo de carbono es, en consecuencia,
algo que ocurre pocas veces y que seguramente
habría carecido de importancia a no ser por un
hecho aparentemente fortuito. Los tres núcleos
de helio se funden en dos etapas: primero se
unen provisionalmente dos de ellos,
constituyendo un núcleo de berilio.
Esta unión tiene una breve duración y el que
se logre la síntesis del carbono depende de que
se logre capturar de forma eficiente un nuevo
núcleo de helio. La eficiencia de la captura
nuclear varía enormemente en concordancia con
la energía, aumentando si el cuerpo compuesto
se queda con una energía que se aproxima a
uno de sus niveles cuánticos de energía interna
natural. Hoyle señaló que el berilio más el helio
poseen de hecho un nivel energético muy
próximo a la energía media que se encuentra en
el centro de las estrellas calientes, y esta
aparente coincidencia es la causa de la
abundante producción de carbono, que
posteriormente se dispersa por el espacio
cuando las estrellas explotan.
Además, es importante que una vez
formado el carbono no se destruya de inmediato
por nuevas síntesis y capturas de helio. No
obstante, por suerte, en los sistemas
compuestos de helio-carbono (que en realidad es
oxígeno) no existe ningún nivel energético, de
manera que el posterior agotamiento del carbono
para generar elementos aún más pesados es
bastante lento. Las energías en que se producen
estos niveles vitales dependen de la intensidad
de las fuerzas nucleares, de forma que un ligero
cambio podría ser desastroso para la vida
basada en el carbono. Si las fuerzas nucleares
adoptan toda clase de valores en los demás
mundos del superespacio, es evidente que sólo
aquellos universos, como el nuestro, donde
toman valores muy concretos pueden sustentar
una floreciente vida basada en el carbono.
Otra sutil forma en que la vida depende de
las fuerzas nucleares es la mencionada por
Freeman Dyson.
Dentro del hidrógeno ordinario hay una
pequeña fracción que se conoce como hidrógeno
pesado o deuterio.
Químicamente es idéntico al hidrógeno
ordinario, pero el núcleo no contiene sólo un
protón, sino un protón y un neutrón combinados.
La teoría indica que hay una fuerte oposición
entre el punto de energía cuántica cero, que
tiende a evitar que los neutrones estén
atrapados, y la fuerza de atracción nuclear. En el
caso del deuterio, la atracción gana por poco y,
como confirma la experimentación, el núcleo del
deuterio está poco ligado. Si dos protones se
encuentran, la historia es distinta. Los protones
tienen que enfrentarse a la repulsión eléctrica y
también a los efectos del principio de exclusión
de Pauli (véase capítulo 4), que impide que dos
protones se sitúen demasiado cerca. En el caso
del diprotón, la repulsión triunfa y no se consigue
constituir una unión estable. No obstante, de ser
la fuerza nuclear algo más fuerte (aunque tan
sólo fuera en un pequeño porcentaje), el diprotón
se convertiría en realidad. No seguiría siendo un
diprotón durante mucho tiempo, porque existe
una bonificación energética en el caso de que
uno de los protones se convierta en neutrón
mediante el proceso de desintegración beta,
gracias al cual el diprotón se transmuta en un
núcleo de deuterio.
Dyson estudia el efecto de estas
posibilidades sobre los procesos nucleares
ocurridos en el universo primigenio y señala que
toda la materia que actualmente se halla en
forma de hidrógeno habría formado diprotones y
luego deuterio inmediatamente después del Big
Bang. Con deuterio en lugar de hidrógeno como
materia prima, el horno primigenio hubiera
procesado el combustible nuclear a una
velocidad enormemente mayor, engullendo todo
el deuterio en núcleos de helio, y dando lugar a
un universo virtualmente compuesto en un cien
por cien de helio. Las estrellas como el Sol, que
permanecen durante miles de millones de años
apaciblemente quemando hidrógeno en una
situación estable, no existirían. Tampoco habría
agua (que es el dióxido de hidrógeno),
imprescindible para la vida tal como nosotros la
conocemos. Al parecer, la vida depende
decisivamente del semifracaso del diprotón.
La otra fuerza nuclear —la llamada
interacción débil, que es la causa de las
radiaciones beta— también es vital para la vida
del universo, en dos sentidos. El primero se
refiere a los constituyentes de la materia
primigenia, a partir de los cuales se sintetizó el
helio en los primeros minutos.
El helio está compuesto de dos protones y
dos neutrones, de manera que la cantidad de
helio depende de la proporción de neutrones que
hubiera en las primeras etapas. En realidad, casi
todos los neutrones disponibles de la materia
primigenia se incorporaron a los núcleos de helio,
de modo que el hidrógeno de que está
compuesta la mayor parte del universo es, de
hecho, el residuo de los protones que no se
emparejaron con neutrones debido a la escasez
de estos últimos. La energía calorífica del horno
primigenio la compartieron todas las especies de
partículas subatómicas, y en los periodos muy
primerizos se estableció un equilibrio entre la
cantidad de energía utilizada para formar
protones y la cantidad utilizada para formar
neutrones. Este equilibrio se mantiene gracias a
la fuerza débil: si existe una superabundancia de
neutrones, una parte de ellos se utilizará en la
radiación beta para convertirlos en protones, y
viceversa, haciendo que su proporción se
mantenga en equilibrio. Se trata de un
servomecanismo que actúa con eficacia
mientras las perturbaciones exteriores no lo
entorpezcan, pero debe tenerse en cuenta el
hecho de que la materia primigenia está
incrustada en un universo que se expande en
forma de explosión. Al principio, el movimiento
explosivo no puede romper el equilibrio, porque
los neutrones y protones están muy calientes y
compactamente apretados. Alrededor de
transcurrido el primer segundo, sin embargo, la
densidad y la temperatura han descendido lo
suficiente —a tan sólo diez mil millones de
grados— para que el equilibrio sea insostenible y
la proporción entre neutrones y protones
permanezca congelada en el valor que tiene en
este momento.
Los cálculos demuestran que la proporción
debió ser de un quince por ciento, lo que da lugar
a un treinta por ciento de helio y un setenta por
ciento de hidrógeno, que son exactamente las
cifras que observamos en la actualidad.
La importancia de la intensidad de la fuerza
débil se debe a que también controla el
momento en que el equilibrio comienza a fallar.
De ser esta fuerza menor, no hubiera podido
mantener tanto tiempo el equilibrio frente a la
rápida expansión. Esto es vital porque en los
momentos anteriores al primer segundo hubo
una mayor desproporción de neutrones, debido a
las siguientes razones. Los neutrones son un 0,1
por ciento, más o menos, más pesados que los
protones, de manera que gastan más energía
para constituirse. Si la energía disponible
escasea, esta diferencia de masa favorece a los
protones en comparación con los neutrones, que
es la razón de que en el primer segundo haya un
ochenta y cinco por ciento de protones y un
quince por ciento de neutrones. No obstante, en
los momentos anteriores, la temperatura es
superior, de modo que disponen de mayor
cantidad de energía para repartirse entre ellos.
La competencia de las masas no es entonces,
pues, tan brutal y reciben cantidades similares, lo
que da lugar, aproximadamente, a una
proporción del cincuenta por ciento, mitad
neutrones y mitad protones. Si fuera ésta la
proporción cuando falla el equilibrio, daría lugar a
una producción del cien por cien de helio, puesto
que cada protón se emparejaría con un neutrón
y no dejarían residuo de protones libres para
formar hidrógeno. Como ya hemos dicho, un
universo falto de hidrógeno no contendría agua
ni estrellas estables de larga duración, lo que
presenta muy oscuras perspectivas para la vida.
En segundo lugar, la fuerza débil es vital
para la vida a la hora de la muerte de las
grandes estrellas. Determinadas estrellas, una
vez que han sintetizado en su interior elementos
tales como el carbono y el oxígeno, comienzan a
sufrir una falta de combustible.
Esta crisis es lenta pero progresiva, hasta
que el núcleo de la estrella no puede ya generar
el calor necesario para impedir su colapso o
desmoronamiento por obra de la gravedad. El
resultado es una creciente contracción seguida
de una explosión súbita y violenta que libera
fuerzas titánicas. En concreto, inmensas
cantidades de neutrinos, que son partículas
subatómicas tan tenues que atraviesan con
facilidad la Tierra sin que las percibamos, se
liberan y brotan en cascada desde el centro de
las estrellas grandes. Tal es la densidad del
centro de las estrellas —alrededor de mil billones
de veces mayor que la del agua— que incluso
estas efímeras partículas no encuentran modo
de salir al exterior. El exacto valor de esta
resistencia al flujo de neutrinos depende de la
intensidad de la fuerza débil, que controla la
interacción de los neutrinos con el resto de la
materia. De ser mayor, estos neutrinos no
escaparían en absoluto del centro.
Cuando llegan a las capas exteriores, los
neutrinos las vuelan en una terrible explosión que
ilumina la galaxia entera, arrojando al espacio
una cantidad de energía miles de millones de
veces mayor que la que lanzan las estrellas
normales. Este sobrecogedor acontecimiento se
denomina una supernova, y entre los residuos
desmenuzados de las estrellas se encuentran
elementos como el carbono y el oxígeno. Estos
elementos son absorbidos por otros sistemas
estelares y, en último término, se convierten en
la materia prima con la que se formarán los
planetas y la vida. De no ser así se produciría un
mundo carente de materias primas y,
presumiblemente, de vida.
Probablemente el mundo tiene muchos más
rasgos indispensables para la existencia de la
vida y que contribuyen a la sensación general de
inverosimilitud que da el mundo que
observamos. No tenemos ni idea, por ejemplo,
de por qué hay tres dimensiones en el espacio y
una del tiempo. Los físico-matemáticos suelen
estudiar cómo diferirían las leyes de la física si
las dimensiones fuesen distintas, y no cabe duda
de que el mundo sería un lugar muy extraño de
sólo haber dos dimensiones espaciales, por
ejemplo. No sabemos si en ese caso la vida
sería imposible.
No comprendemos por qué las partículas
subatómicas tienen la masa que tienen en lugar
de tener cualquier otra. Desde luego, sabemos
que si la masa del electrón, por poner un
ejemplo, fuera cien veces inferior, entonces las
órbitas atómicas empezarían a colisionar con los
núcleos y la química se vería drásticamente
alterada, pero la razón de que no pueda ser
ligeramente distinta es un misterio. Tal vez los
valores sean aleatorios y no tengan ninguna
significación o tal vez salgan algún día a la luz a
resultas de una teoría fundamental, y de este
modo se vean obligados a ser los valores que
son.
La perspectiva que la especie humana tiene
sobre su lugar en el universo está
necesariamente influida por la respuesta a la
pregunta: ¿hasta qué punto es especial el
universo? En los siglos anteriores, cuando la
religión aportaba los fundamentos de la
concepción humana de la naturaleza, se daba
por sentado que era en verdad muy especial.
Como hemos señalado en el capítulo 1, las
primeras culturas conocieron pocas leyes reales;
casi todos los fenómenos se atribuían a dioses y
espíritus con motivaciones especiales, de modo
que incluso el desenvolvimiento rutinario del
mundo giraba alrededor de la especie humana.
Con la revolución newtoniana, ganó ascendencia
la posición contraria: el mundo era una
maquinaria que latía regladamente eón tras eón,
totalmente predeterminada por las condiciones
iniciales del pasado infinito y por completo al
margen de las aspiraciones y preocupaciones de
los hombres. La cosmología moderna, sin
embargo, postula una creación en un
determinado momento del pasado y resurge la
cuestión de si este acontecimiento es en un
cierto sentido un accidente aleatorio o si es un
espectáculo bien organizado.
A todo lo largo de la historia las personas
han caído en la trampa de atribuir una
organización especial al mundo allí donde no
existía. Los dioses de nuestros antepasados
manipulaban el mundo y mantenían su
actividad. La ciencia moderna suprime a los
dioses y los sustituye por las leyes naturales.
Darwin incluso suprimió la influencia divina
del reino de la biología. En el siglo XX, la mayoría
de lo que antiguamente se consideraba
milagroso se ve como inevitable consecuencia
de las leyes naturales. La existencia de la Tierra
ha dejado de considerarse algo extraordinario,
pues entendemos, al menos en líneas
generales, el mecanismo que dio lugar a la
aparición de la Tierra; también sabemos cuándo
ocurrió. Ni siquiera es milagrosa la existencia del
Sol, pues podemos observar las estrellas que
nacen actualmente dirigiendo los telescopios
hacia las nebulosas lejanas. El hombre, que en
un tiempo se tuvo por el mayor de todos los
milagros, se considera un punto en el camino de
la evolución iniciada hace tres mil quinientos
millones de años y que, de seguir todo bien,
continuará durante otros cuantos miles de
millones de años. Los astrónomos prevén
planetas repartidos por todo el universo donde
habrán surgido formas de vida extraterrestres
como consecuencia natural de las leyes de la
física y de la química; probablemente hay
muchas formas vivas mucho más inteligentes
que nosotros, con conocimientos tecnológicos
incomparablemente más adelantados que los de
la Tierra.
En resumen, la ciencia ha contestado
algunas preguntas fundamentales sobre cómo el
mundo ha llegado a ser como es, de tal manera
que, al menos en líneas generales, podemos
escribir la historia de los primeros quince mil
millones de años del universo, a partir del primer
jiffy. La conclusión principal es que nada ha
habido en todo eso de milagroso ni de notable, a
no ser el hecho impenetrablemente singular de
que exista algo. Nosotros no comprendemos por
qué las leyes de la física on como son, aunque
podemos admirar su pavorosa belleza y su
simplicidad matemática. Pero, dadas estas
leyes, el mundo que percibimos parece
deducirse automática y naturalmente del Big
Bang.
Las consideraciones de los dos últimos
capítulos introducen un elemento de discordia en
este esquema bien ordenado, puesto que, si
bien no hay nada de particular en nuestra región
local del universo —la vida terrestre, el sistema
solar e incluso nuestra galaxia—, cuando se trata
de los rasgos globales encontramos en realidad
algunas particularidades muy sorprendentes. La
organización gravitatoria de la materia en el Big
Bang se estructuró al parecer con una precisión
tal que sobrepasa lo creíble. Mientras que las
generaciones anteriores se maravillaban de la
delicada organización de nuestro planeta, esta
generación da el planeta por sentado y, en su
lugar, se maravilla de la cosmología. Por qué se
produce esta organización durante el Big Bang,
de eso no tenemos ni idea.
Personas distintas interpretarían los
resultados de maneras distintas. Para quienes
todavía sigue contando la explicación religiosa de
la naturaleza, el orden cósmico primigenio sería
una manifestación del propósito divino,
conformando el universo como un habitáculo
muy especial, de manera parecida a cómo lo
interpretaban los autores bíblicos en su escala
más provinciana. Ciertos científicos verán
confirmada su creencia de que éste no es el
único universo, sino uno de los incontables miles
de millones en muchos de los cuales ocurren
cosas menos llamativas. Esos otros mundos no
necesitan estar en ninguna otra parte del
superespacio. Pueden existir, por ejemplo, en
regiones espaciales tan remotas que no sea
posible verlos o bien en el pasado lejano o en el
futuro, cuando el actual orden de cosas haya
terminado.
John Wheeler, que fue el inventor del
superespacio, vislumbra un universo que
prosigue la expansión hasta un determinado
momento final, tras el que se produce la
contracción, arrastrando a todas las galaxias
unas contra otras, hasta que desaparecen en un
gigantesco cataclismo cósmico similar a un Big
Bang al revés. En el extravagante mundo de
Jiffylandia, al que retornaría el cosmos, toda
nuestra física tendría que reelaborarse, de
manera que si el universo eludiese de algún
modo la singularidad y emergiera otra vez, lo
haría con un nuevo conjunto de números, un
grado distinto de turbulencia primigenia, quizá
nuevos valores en la intensidad de la gravedad y
de las demás fuerzas, e incluso con nuevas
leyes físicas.
De este modo continuaría ciclo tras ciclo —
expansión y contracción— surgiendo una especie
de universo de «nueva planta» cada vez.
Muchos de estos universos serían, sin embargo,
muy oco propicios para la vida, dado que el
universo contiene características desapacibles
según las leyes probabilísticas. Por último, sin
embargo, contra toda probabilidad, los números
volverían a salir bien por pura casualidad, y ese
ciclo concreto volvería a estar habitado,
procrearía criaturas inteligente y cosmólogos. Si
creemos que existen otros innumerables
universos, sean en el espacio o en el tiempo, o
bien en el superespacio, ya no resulta
asombroso el inmenso grado de organización
cósmica que constatamos. Lo hemos
seleccionado con nuestra misma existencia. El
mundo es un puro accidente que tenía que
ocurrir tarde o temprano.
Finalmente, habrá quienes no conciban la
idea de que realmente existen otros universos.
Concederán que el mundo tiene una estructura
formidablemente afortunada por lo que a
nosotros se refiere, pero aceptarán que se trata
de un hecho natural de manera muy parecida a
cómo se acepta que el cielo es azul, o bien
cuestionarán toda esta filosofía y tratarán de
demostrar que, después de todo, nada tiene de
especial la organización del universo primigenio.
Para establecer esta contrapropuesta será
necesario demostrar que el alto grado de
uniformidad con que están ordenados la materia
y el movimiento cosmológicos ha surgido
automáticamente de determinados procesos
físicos por un procedimiento que elude la
generación de inmensas cantidades de calor. Lo
que esto supone es la afirmación de que «todas
las cosas no son iguales».
Si entra en juego una nueva física para
evitar que se ensayen los estados más
favorables a los agujeros negros y para dirigir la
actividad del universo hacia la creación de
estrellas, ya no resultará sorprendente que el
universo no esté dominado por los agujeros
negros. De modo similar, si determinado
mecanismo físico todavía desconocido evita que
los movimientos turbulentos desbaraten y
disgreguen toda la energía explosiva y la ordena
según el movimiento uniforme y regular que
nosotros observamos, entonces no
comparecerán las inmensas cantidades de calor
que en otro caso hubieran acompañado a la
turbulencia.
En la actualidad no es posible dar una
respuesta definitiva a estas cuestiones, porque
se sabe muy poco de la física del universo
primitivo; las condiciones extremas que allí se
daban están fuera del alcance de los
experimentos actuales y de la mayor parte de
los cálculos matemáticos. Pero si bien no es
posible afirmar inequívocamente que el universo
está conformado y no impulsado
automáticamente por la nueva física, al menos
podemos llamar la atención sobre los problemas
pendientes. Durante siglos la humanidad ha
abordado las preguntas sobre la existencia:
sobre su propia existencia y sobre la relación
entre sí misma y la existencia del universo. Con
nuestros conocimientos científicos podemos
plantear este problema bajo una nueva luz. El
hombre no es un mero espectador del drama
cósmico, sino un elemento intrínseco. No
importa si los nuevos conocimientos del cosmos
primigenio modifican nuestras conclusiones
sobre cómo comenzó todo; sabemos, por lo
menos, que estamos representando nuestro
papel.
Capítulo X

El supertiempo

Y al partir deja tras nosotros huellas


en la arena del tiempo.
H. W. Longfellow, 1807-1882

En un capítulo anterior hemos dedicado bastante


espacio al papel del hombre como observador
del universo. En concreto, la naturaleza de la
realidad y quizá la misma estructura del universo
están íntimamente relacionadas con nuestra
existencia de individuos conscientes que
percibimos el mundo que nos rodea. La
aceptación de este papel central del hombre en
la naturaleza va a contracorriente de todos los
anteriores progresos científicos que lo
destituyeron del pináculo de la creación para
convertirlo en una forma biológica normal y
corriente. Sin embargo sigue habiendo grandes
misterios sobre el mecanismo de percepción y la
naturaleza de la conciencia en cuanto tal. ¿La
percepción del medio ambiente y de la propia
existencia es un rasgo exclusivo de la vida
humana? ¿Se reduce a los primates? ¿Lo tienen
los animales, la vida toda?
Tratar sobre cuestiones de conciencia y
percepción es algo ajeno a toda tradición de la
ciencia física, que en general pretende hacer
abstracción del observador individual y
únicamente ocuparse de la realidad objetiva. Los
experimentos repetibles, las mediciones dirigidas
y anotadas por máquinas, el análisis matemático
de los resultados y otras técnicas han sido
creados para excluir al experimentador de la
ciencia. No obstante, en los capítulos previos
hemos visto que la realidad objetiva es una
ilusión y que los tan importantes laboratorios y
máquinas deben su misma existencia al
experimentador humano cuya existencia, a su
vez, debe estar entretejida con los rasgos
fundamentales de la naturaleza y de la
organización del cosmos. Tarde o temprano, los
observadores —nosotros— entramos en escena.
Si abordamos en serio la conciencia, nos
enfrentamos al rompecabezas de que nadie ha
conseguido registrar su existencia en un
experimento. Lo que quiere decir que el cerebro
humano ha sido muy investigado y se ha
comprendido buena parte de su funcionamiento,
pero hasta el momento no se ha podido
demostrar experimentalmente que la conciencia
sea necesaria en cuanto elemento adicional de la
actividad del cerebro. Algunos científicos creen
que la conciencia es la actividad del cerebro y
que eso es cuanto hace falta decir. Para otros,
esta idea resulta manifiestamente absurda.
Vimos en el capítulo 7 que al menos un
científico invoca realmente la conciencia como
un sistema físico concreto, superior al cerebro,
que es el mecanismo para reducir el estado
cuántico a realidad.
Tanto si existe como si no el entendimiento
como algo distinto de los procesos cerebrales,
hay misterios sobre la misma naturaleza de
nuestras percepciones elementales.
Nunca es esto más cierto que en nuestra
percepción del tiempo. La teoría de la relatividad
fue esbozada en el capítulo 2, donde explicamos
que los físicos conciben el mundo con cuatro
dimensiones: tres en el espacio y una en el
tiempo. Las líneas que atraviesan este continuo
del espacio-tiempo representan las historias de
los cuerpos conforme desarrollan sus procesos.
Las líneas no son independiente, sino que
interaccionan por medio de distintas fuerzas.
Vemos una gigantesca red de influencias y
respuestas que llena el universo y se extiende
desde el pasado al futuro. Eso es el universo.
Ésta no es la imagen del tiempo tal como
nosotros lo percibimos. Volviendo la vista hacia
el mundo que nos rodea, vemos que el drama
se representa conforme se despliega un
acontecimiento tras otro. Nuestra visión del
mundo es como una película: pasan cosas,
ocurren cambios, los acontecimientos futuros
toman cuerpo y de nuevo pasan.
En suma, a nosotros nos parece que el
tiempo pasa. ¿Cómo puede reconciliarse esta
imagen cinética del mundo que realmente
percibimos con el cuadro estático de un espacio-
tiempo que se limita a estar ahí?
Analicemos más detalladamente la
naturaleza del tiempo tal como lo percibimos. En
la conversación ordinaria manejamos dos
imágenes bastante distintas y quizás
incompatibles del tiempo que, sin embargo,
coexisten en nuestro entendimiento sin causar a
mucha gente ninguna dificultad. En primer lugar,
etiquetamos los acontecimientos con fechas: la
batalla de Hasting (1066), la elección del
presidente Carter (1976), el eclipse total de sol
en Gran Bretaña (1999), la hora de mi reloj (3 de
la tarde del 12 de noviembre de 1980). El tiempo
es una especie de línea que se extiende por la
oscuridad del pasado y por el futuro remoto,
donde cada punto de la línea lleva una fecha
que consiste en una etiqueta que señala la
duración transcurrida en, pongamos, años desde
algún acontecimiento arbitrario, como el
nacimiento de Cristo, al que se le otorga una
especial significación en la comunidad. La
renovación de las fechas, como por ejemplo el
adoptar el calendario judío o el chino, no altera
los conocimientos ni sus mutuas relaciones, y es
tan inofensivo como utilizar metros en vez de
pies para medir las distancias.
Asociar los acontecimientos con fechas
equivale exactamente a asociar los lugares con
las referencias de un mapa. En este sentido, la
perspectiva del tiempo como etiquetas de fechas
es la adoptada por los físicos, en la que el
tiempo se limita a estar ahí, estirado como una
línea, lleno de acontecimientos interesantes
desde el instante del Big Bang hasta el infinito
futuro (o hasta el Big Crunch, el Gran Crujido, si
lo hay). Hay, con toda seguridad, una sutileza de
que los físicos son conscientes y que se ignora
en la vida diaria, y es el hecho de que el tiempo
está en relación con el estado emocional del
observador.
En el capítulo 2 descubrimos cómo la noción
de simultaneidad —dos acontecimientos con
exactamente la misma fecha— carece de
sentido a menos que se localicen en el mismo
lugar. Los observadores que se desplazan de
distinta manera discrepan sobre si dos
acontecimientos son simultáneos o bien
sucesivos, de modo que les asignarán fechas
distintas. Esta complicación no es un problema
fundamental mientras conozcamos la regla que
conecta el conjunto de datos de un observador
con el del otro, de manera que podamos
intertraducir sus observaciones. La regla se
conoce de hecho y la aportan las fórmulas
matemáticas de la teoría de la relatividad de
Einstein. Además, la regla funciona
espectacularmente bien, como han demostrado
tantos experimentos de laboratorio sobre el
tiempo.
Absolutamente al margen de nuestros
acontecimientos etiquetados, utilizamos en
modo completamente distinto de lenguaje y de
sistema mental sobre el tiempo que se basa en
una imagen cinética: el sistema de los tiempos
verbales.
Decimos (y pensamos) que la batalla de
Hasting ocurrió en 1066, que el eclipse de sol
sucederá en 1999 y que mi reloj marca la hora
actual. El pasado, el presente y el futuro son tan
fundamentales para nuestra percepción del
tiempo que normalmente los aceptamos sin
dudarlo. Gracias a esta perspectiva, el tiempo
adquiere una estructura mucho más rica de la
que le dan las meras etiquetas cronológicas. En
primer lugar, se divide en tres conjuntos. El
futuro, que es incognoscible y quizás en parte
dócil a nuestra voluntad: contiene
acontecimientos que todavía no existen y que
quizá ni siquiera se pueden definir debido a la
incertidumbre cuántica, pero que en último
término existirán. El pasado, que se puede
conocer y en parte recordar, contiene
acontecimientos que han ocurrido y que nos es
imposible modificar, por mucho que lo
deseemos. Los acontecimientos existieron en su
momento, pero han pasado más allá de la
existencia a una especie de inaccesibilidad
fosilizada. Por último, donde el pasado y el
futuro se unen tenemos el presente —el
ahora—, que es algo misterioso y fugaz, sin
duración perceptible, que otorga a los
acontecimientos que le son simultáneos una
especie de realidad concreta que no poseen las
imágenes fantasmales e inmateriales de los
acontecimientos pasados y futuros. El presente
es el momento en que accedemos al mundo, el
momento en que podemos ejercer nuestro libre
albedrío y alterar el futuro.
Esta categoría especial que se concede al
presente resuena en las palabras de Longfellow:
«¡Actúa, actúa en el presente vivo!». Nuestra
visión de la realidad, pues, está firmemente
enraizada en la estructura temporal del tiempo.
La división del tiempo en pasado, presente y
futuro es una organización de ideas mucho más
elaborada que las simples relaciones entre
fechas, cual es la afirmación de que Carter fue
elegido después de la batalla de Hasting o bien
que mi reloj marca la hora antes del eclipse de
sol. Estos últimos emparejamientos indican
relaciones de antes-después absolutamente
independientes del momento temporal en que
las examinamos. Que Carter es posterior a
Hasting siempre fue cierto, es cierto ahora y será
siempre cierto en el futuro.
De momento, puede parecer que nada hay
especialmente incompatible en la coexistencia de
las fechas y los tiempos verbales. Las paradojas
se cuelan, no obstante, cuando se aprecia que el
sistema de los tiempos verbales no es estático,
sino que se mueve. El presente, que por regla
general identificamos con el momento de
nuestra percepción consciente, avanza
invariablemente hacia el futuro, encontrando
nuevos acontecimientos y consignando los
anteriores a la memoria y la historia.
Alternativamente, podemos ver el ahora de
nuestra percepción inmóvil y el tiempo fluyendo
más allá de nuestra conciencia como un río,
borrando el pasado y empujando al futuro hacia
nosotros. En ambos casos, la sensación de un
tiempo que fluye, que se mueve, que pasa,
imbuye el mundo de nuestra experiencia con
cambio y actividad.
¿Qué es el paso del tiempo? En literatura,
arte y religión se ha expresado de muchas
maneras. La más frecuente es la analogía del
río; San Agustín (354-430) la presentaba así: «El
tiempo es como un río de fuerte corriente
formado por las cosas que ocurren; tan pronto
surge algo, es arrastrado por las aguas». Para
H. D. Thoreau (1817-1862) el «tiempo no es sino
un arroyo donde voy de pesca». A veces la
imagen del vuelo parece la más próxima. Para
Virgilio, «el tiempo vuela, vuela para nunca más
volver», mientras que Andrew Marvell (1621-
1678) ve el tiempo como un «carro alado».
Robert Herrick (1591-1674) nos aconseja:
«Recoged […] capullos de rosas mientras
podáis, el tiempo vuela sin cesar». William
Shakespeare vuelve repetidas veces sobre el
tema del paso del tiempo. En Noche de Reyes
es un «torbellino» que «reclama venganza» y
este elemento destructivo o vengativo es muy
apreciado. Byron habla de «el tiempo
vengador». Ovidio describe «el tiempo devorador
de las cosas» y Tennyson advierte que «el
tiempo empuja deprisa hacia adelante… Todas
las cosas nos son arrebatadas y se convierten
en porciones y parcelas del horroroso pasado».
Herbert Spencer (1820-1903) define el tiempo
cínicamente como «lo que el hombre trata en
todo momento de matar, pero que acaba
matándolo a él».
Todas estas imágenes elaboran nuestra
profunda impresión del tiempo como movimiento
irreversible que da lugar al cambio. Cuando
llegamos a la ciencia, las imágenes no son tan
gráficas.
Los científicos, como todo el mundo, utilizan
los tiempos verbales tanto en la vida diaria como
para hablar de experimentos y observaciones
sobre el mundo, pero en sus análisis teóricos de
la naturaleza los tiempos verbales no tienen
ninguna función: sólo hay fechas. Nada aparece
en las ecuaciones de Newton que corresponda al
presente ni tampoco ninguna magnitud que
articule el movimiento del tiempo. Por supuesto,
el tiempo está ahí y las ecuaciones predicen qué
acontecimientos (por ejemplo, cuándo la
manzana que cae llegará al suelo) ocurrirán en
qué momento, pero ni las ecuaciones de
Newton ni ningunas otras de la ciencia pueden
decirnos qué es el tiempo.
En los experimentos lo mismo que en la
teoría, el laboratorio es incapaz de revelar el flujo
del tiempo, puesto que no existe ningún
instrumento capaz de descubrir su paso. Como
se observó en el capítulo 2, es erróneo suponer
que el reloj es ese instrumento. El reloj no es
más que un método de asignar fechas a los
acontecimientos; aunque nosotros percibimos el
funcionamiento del reloj como un movimiento,
es movimiento en el espacio y no en el tiempo
(es decir, alrededor de la esfera del reloj). Es
nuestra sensación psicológica de un tiempo que
se mueve la que, dad la estrecha asociación del
reloj con el tiempo, otorga falsamente al reloj la
apariencia de medir el paso del tiempo.
La nebulosidad del concepto de un tiempo
que se mueve queda bien de manifiesto al
preguntarse a qué velocidad fluye el tiempo.
¿Qué mecanismos poseemos para medir la
velocidad del tiempo? Si existiera tal máquina,
se la podría consultar cada día para descubrir si
el tiempo ha ido más lento ese día o bien si el
ritmo de los acontecimientos se ha acelerado. La
percepción del tiempo de la mayor parte de la
gente tiene un carácter variable. Es una
experiencia habitual que diez minutos en el sillón
del dentista parezcan media hora de un
pasatiempo más agradable o que un día repleto
de actividad pase más deprisa que otro dedicado
a la inactividad o al aburrimiento. Todo esto, por
supuesto, son impresiones psicológicas
vinculadas al estado mental del sujeto. La
velocidad a que pasa el tiempo siempre será de
un día por día, una hora por hora, un segundo
por segundo. Incluso los días aburridos sólo
tardan un día en pasar. Carece de sentido decir
«hoy parece que sólo haya tenido doce horas».
Si se insiste en mantener la noción de un
tiempo que se mueve, entonces surge una
flagrante incompatibilidad entre los tiempos
verbales y las fechas. Las fechas de los
acontecimientos se fijan de una vez por todas,
mientras que las etiquetas de los tiempos
verbales cambian en cada momento. Así, la
elección de Carter era un acontecimiento futuro
en 1975 y hoy es un acontecimiento pasado.
¿Cómo es posible que el mismo acontecimiento,
cuya fecha es fija, sea pasado, presente y
futuro? Sn duda, pasado, presente y futuro no
son cualidades intrínsecas de ningún
acontecimiento, ni tampoco se pueden precisar
en exceso, pues si preguntamos cuándo un
acontecimiento es del pasado y se contesta
«cuando ocurrió», eso es pura tautología.
¿Cómo sabemos que ha ocurrido? Porque está
en el pasado. El análisis se hace circular.
El presente es igualmente intangible, pues,
¿qué es el presente?
Estamos sin duda de acuerdo en que el
presente es un momento único (o al menos de
una duración tan breve que no podemos percibir
su estructura interna), pero, ¿qué momento?
La respuesta es, por supuesto, cada
momento. Todos los momentos son el
momento presente cuando suceden. Pero,
¿cuándo suceden? ¡En su momento! La cosa no
va a ninguna parte. Incluso después de una
profunda introspección se concluye que no se
está diciendo nada que tenga la menor
sustancia, que las cualidades del pasado, del
presente y del futuro son tan manifiestamente
obvias, tan fundamentales para nuestra
experiencia, que no podemos aproximarnos a
ellas por medio de la palabra. San Agustín
formuló este dilema cuando dijo que sabía lo que
era el tiempo siempre que nadie le pidiera que se
lo explicase. En ese caso no lo sabía.
Charles Lamb (1775-1834) expuso así la
sensación: «Nada me produce tanta perplejidad
como el tiempo y el espacio; y sin embargo,
nada me preocupa menos, puesto que nunca
pienso en ellos». La sensación de que el tiempo
realmente pasa y de que existe presente,
pasado y futuro no contribuye en absoluto a
nuestra comprensión del mundo objetivo, pero
estos conceptos son indispensables para
organizar nuestros asuntos personales y
desenvolvernos en la vida cotidiana. ¿Son
absolutas ilusiones o bien nuestra percepción
penetra una estructura del tiempo —o del
supertiempo— que todavía no se ha revelado en
el laboratorio? ¿Depende la verdadera realidad
de la existencia del momento presente?
Estas preguntas plantean uno de los
mayores desafíos a la ciencia y la filosofía
contemporáneas, y no existe el menor acuerdo
ni siquiera sobre cómo formular los conceptos
relevantes. Sin embargo, como han mostrado
los anteriores capítulos de este libro, los
recientes avances de la teoría cuántica y de la
cosmología comienzan a tocar estos asuntos y
nos vamos acercando al momento en que
deberán encararse frontalmente.
Examinemos sucesivamente dos puntos de
vista contrarios, comenzando por la postura
objetivista que quizá sea la adoptada por la
mayoría de los científicos y filósofos. Según este
punto de vista, el tiempo no pasa y el pasado, el
presente y el futuro son meros
convencionalismos lingüísticos sin ningún
contenido físico. A pesar de sus asombrosas
implicaciones, esta posición es fácil de defender.
El principal argumento es que hay fechas y
acontecimientos vinculados a esas fechas. Los
acontecimientos tienen relaciones de pasado-
futuro, pero no ocurren. En palabras del físico
Hermann Weyl: «El mundo no sucede sino que
simplemente es». En este cuadro las cosas no
cambian: el futuro no nace y el pasado no se
pierde, pues tanto el pasado como el futuro
existen con la misma categoría. Brevemente
examinaremos cómo la teoría cuántica
concuerda con este cuadro en apariencia
determinista, pero de momento cabe señalar
que de suscribir la interpretación de la teoría
cuántica de los múltiples mundos, entonces no
hay un futuro, sino trillones de ellos, a saber,
todas las ramificaciones posteriores a este
momento. A pesar de esta complicación, el
razonamiento fundamental no resulta afectado.
Lo sorprendente es que la imagen anterior
parezca tan extraña y escandalosa, dado que es
tan manifiestamente exacta en sus distintas
aseveraciones. El escéptico replicaría, por
supuesto, que las cosas ocurren, que hay
cambio. «Hoy he roto una tetera: este suceso
ocurrió a las cuatro en punto y es un cambio
para peor. Ahora tengo la tetera rota». Pero
analicemos lo que en realidad dice el escéptico.
Antes de las cuatro en punto la tetera estaba
intacta, después de la cuatro está rota; y las
cuatro es un estado de la transición. Esta forma
de lenguaje —el lenguaje de los físicos que
etiqueta los momentos— transmite exactamente
la misma información, pero en un tono menos
personalizado. No hay ninguna necesidad que
nos imponga describir los hechos como que la
tetera intacta se transmutó en tetera rota a las
cuatro en punto ni tampoco que el
acontecimiento sucedió a las cuatro. Se trata de
cronologías y de estados de la tetera. No es
necesario decir nada más.
«¡Ah!» rechaza el escéptico, «quizá yo no
necesite usar el lenguaje del tiempo en
movimiento, pero ésa es la forma en que
percibo el mundo, ésa es mi sensación
psicológica del tiempo: lo siento pasar». Lo cual
es un comentario legítimo y a todas luces
correcto, porque todos compartimos la sensación
básica de que las cosas ocurren a nuestro
alrededor y de que el tiempo pasa. Sin embargo,
es peligroso basar demasiado nuestra ciencia en
las sensaciones psicológicas, pues conocemos
muchos ejemplos en que nos extravían.
Todos tenemos la sensación de que la Luna
es mayor en las cercanías del horizonte que
cuando está alta en el firmamento, pero no es
así; todos tenemos la sensación de que un
declive vertical de cien pies es mayor que la
misma distancia horizontal; todos tenemos la
sensación de que la Tierra está quieta, pero en
realidad se mueve; y así sucesivamente.
¿Podemos tener mayor confianza en nuestras
sensaciones sobre el tiempo de la que tenemos
en nuestras sensaciones sobre cuestiones
espaciales y de movimiento?
Las sensaciones internas de flujo y
movimiento son fáciles de crear. Girando el oído
interno, que ayuda al cerebro a mantener el
sentido de la orientación y el equilibrio. Al parar,
la sensación de rotación prosigue con fuerza: nos
da vueltas la cabeza. Se puede mirar fijamente
un punto de la pared y convencerse a uno
mismo, racionalmente, de que el mundo no está
rotando. Sin embargo, por mucha que sea la
convicción con que se vea que la pared se
mantiene inmóvil, el movimiento se siente entre
las propias percepciones. Uno se puede
preguntar por qué el movimiento va, pongamos,
en sentido contrario de las agujas del reloj y no
en el sentido de las agujas del reloj, trazando una
analogía directa con el problema de por qué
siempre el tiempo fluye del pasado hacia el
futuro. No parece haber firmes razones para
suponer que el flujo del tiempo sea algo más que
una ilusión producida por procesos cerebrales
similares a la percepción de estar girando cuando
nos da vueltas la cabeza.
Aceptar que el paso del tiempo es una
ilusión no lo hace menos importante. Nuestras
ilusiones, como nuestros sueños, constituyen
una gran parte de la vida. Pueden no tener
realidad objetiva, pero ya hemos llegado a ver
que semejante cosa es, como mínimo, una
noción bastante vaga. Según la imagen estática
del tiempo que se hace el físico, no debemos
arrepentirnos del pasado ni preocuparnos por el
futuro. La muerte, por ejemplo, no merece
mayor temor que el estado anterior al
nacimiento. Si no hay ningún cambio, la gente
no muere en el estricto sentido de la palabra.
Sólo hay fechas en que un individuo está vivo y
consciente y otras fechas (antes de nacer,
después de morir) en que no, y nadie puede ser
consciente de la inconsciencia, pues sería una
contradicción de términos. Puede objetarse que
sólo somos conscientes de un momento
concreto y que ese momento avanza de manera
inexorable, de modo que cuando se alcanza la
muerte, todo se pierde y cesa la experiencia. No
obstante, no es cierto que sólo seamos
conscientes de un momento, ¡pues
evidentemente somos conscientes de todos los
momentos de que somos conscientes!
Replicar que sólo somos conscientes de un
momento cada vez es una observación vacía,
puesto que sin duda cada momento es distinto
de todos los demás momentos. Nuestra
experiencia no puede avanzar a lo largo de
nuestra vida, puesto que cada momento de
nuestra vida es experimentado. Cada momento
de nuestra vida es considerado un ahora por el
estado mental con que lo asociamos. No puede
haber ningún ahora único ni ningún presente
diferenciado, pues todos los momentos vividos
s o n ahoras y todas las experiencias tienen
carácter de presente.
A pesar de la manifiesta verdad de todas
estas observaciones, uno sigue quedándose con
la profunda sensación insatisfactoria de que algo
se le escapa. En realidad, el deseo de encontrar
ingredientes adicionales, algo sobre lo que
construir el flujo del tiempo y la existencia del
ahora, ha constituido una epidemia de los físicos
durante años. Unos han buscado la respuesta en
la cosmología, otros en la teoría cuántica. En
principio, la indeterminación de la teoría cuántica
parece ofrecer una posibilidad, pues si el futuro
sigue estando en el equilibrio del azar, quizá en
algún sentido sea menos real que el presente y
el pasado. Hay físicos que han comparado la
sensación del futuro naciente con la reducción de
la superposición cuántica a la realidad.
Desde un punto de vista superficial, parece
prometedor, puesto que se sabe que el proceso
de reducción es fundamentalmente asimétrico
en el tiempo (es decir, es irreversible), de
manera que comparte algunos rasgos con la
memoria. Según esta opción, el presente es un
fenómeno real y representa el momento en que
el mundo cambia de lo potencial a lo real, es
decir, en que se descubre que el gato de
Schrödinger está vivo o muerto, el momento
decisivo en que se define una especie de
presente. Estas ideas se han utilizado para
defender la existencia del libre albedrío, una
cuestión estrechamente vinculada con nuestra
imagen de la realidad y de la naturaleza del
tiempo. Si el futuro no está determinado, quizá
nuestra mente pueda actuar sobre el mundo en
el nivel cuántico e inclinar la balanza del azar en
la dirección que elijamos.
El razonamiento viene a ser el siguiente: el
cerebro opera mediante la ordenación de
impulsos eléctricos y las corrientes eléctricas
consisten en electrones que se mueven
obedeciendo las leyes de la teoría cuántica, lo
que significa que no se comportarán del todo
bien, sino que estarán sometidos a fluctuaciones
aleatorias y a la indeterminación. Supongamos
que exista, además del cerebro, una mente
capaz de actuar en el nivel cuántico para decidir
cuál de las muchas trayectorias posibles
acabarán por seguir determinados electrones de
crucial importancia.
Las leyes de la teoría cuántica no se
transgreden, pues son posibles muchas
trayectorias; la mente sencillamente asegura que
se realiza aquella que elige. De este modo, la
mente organizaría los estados cerebrales de total
acuerdo con las leyes de la física. Los estados
cerebrales, por su parte, operan sobre el cuerpo,
el cual manipula el medio ambiente, lo que
permite que la mente obtenga el control del
mundo material. Algunos investigadores han
llegado a afirmar que han medido el efecto del
pensamiento sobre los procesos cuánticos
haciendo que un sujeto desee determinadas
desintegraciones radiactivas en experimentos de
percepción extrasensorial (ESP).
Estas ideas no soportan un examen
auténtico. El hecho de que el futuro esté
indeterminado no significa que necesariamente
no exista, sino tan sólo que no se deduce
servilmente del presente.
Además, el hecho de que consideremos el
futuro indeterminado y el pasado concreto está
estrechamente conectado al modo en que
realmente llevamos a cabo los experimentos y
ordenamos los resultados. Los experimentos de
laboratorio conllevan preparación y análisis,
además de la propia experimentación, y esta
estructura impone de por sí a la interpretación de
los resultados una asimetría entre el pasado y el
futuro. En realidad, es posible llevar a cabo un
conjunto de experimentos —y hablando sin rigor
— invertidos, en los que, en lugar de preparar un
estado cuántico de partida y medir el resultado,
se haga lo contrario: se reúne un cierto número
de resultados y se deduce el estado inicial.
Reflejando en el tiempo toda la estructura del
experimento, haciendo preguntas distintas y
analizando resultados diferentes, puede hacerse
que lo indeterminado sea el pasado en lugar del
futuro. (En este esquema, las ramas de Everett
se despliegan en el pasado en lugar de hacerlo
en el futuro, de tal modo que los mundos se
funden en vez de dividirse). De ahí se deduce
que los diferentes papeles del pasado y del
futuro en la indeterminación cuántica no son
intrínsecos, sino que reflejan nuestras actitudes
sobre lo que es relevante y la superestructura
intelectual en que se encajan los resultados
experimentales, la cual, a su vez, es función de
la naturaleza fuertemente asimétrica del mundo,
consecuencia de los procesos termodinámicos
que ocurren a nuestro alrededor. De manera
que, una vez más, la impresión de que el futuro
nace parece ser una ilusión únicamente basada
en el desequilibrio temporal del mundo y no en
ningún efecto real debido al movimiento del
tiempo ni al movimiento en el tiempo.
Aunque la indeterminación cuántica no
parece ofrecer fundamento a ninguna explicación
del flujo objetivo del tiempo, ni de la división del
tiempo en pasado, presente y futuro, es
concebible que aporte una explicación de la
experiencia subjetiva del tiempo, caso de
sostenerse la interpretación de Wigner de la
teoría cuántica. Se recordará del capítulo 7 que
Wigner proponía recurrir a la mente como el
agente que reduce la superposición cuántica en
forma de onda a realidad concreta. Se puede
entonces razonar que la impresión mental del
paso del tiempo se debe a la constante
reducción cuántica que ocurre en la mente.
En cuanto a si la mente actúa a su vez
sobre el cerebro cuántico para decantar la
balanza del azar, no hay ninguna prueba (al
margen de los experimentos de ESP) que lo
demuestre y sería necesario demostrar que los
diminutos efectos cuánticos implicados se
amplifican lo suficiente para producir señales en
el nivel eléctrico utilizable por el cerebro. Aun
cuando sea así, no está claro que eso suponga
un libre albedrío ni siquiera que el libre albedrío
tenga sentido, pues si se estima que la mente
no es cuántica sino determinista y que decide
manipular el cerebro para poner en marcha una
determinada actividad, entonces hay que
encontrar una justificación de por qué la mente
se embarca en ese curso de acción. Puesto que
el estado mental que inicia la acción está
absolutamente determinado por los estados
pasados de la mente y por las influencias
procedentes del cerebro, la mente se reduciría a
un mero autómata newtoniano, sin el menor
control sobre sus propias acciones, siendo su
actividad por completo consecuencia de los
acontecimientos pasados y presentes.
Por otra parte, si la mente es indeterminada,
a la manera de los sistemas cuánticos, entonces
estará sometida a fluctuaciones aleatorias
(caprichos descontrolados) y la arbitrariedad se
inmiscuirá en sus decisiones. Ninguna alternativa
parece estar próxima a la noción tradicional de
libre albedrío. El único albedrío de verdad libre
consistiría en que la mente pudiera alterar sus
propios estados pasados, con lo que cambiaría
el presente al mismo tiempo que el futuro. Sería
en ese caso libre para construir el universo que
quisiera, incluida ella misma, para luego
demolerlo y reconstruirlo otra vez, ad infinitum.
Por supuesto, en la teoría de los múltiples
universos de Everett, esto ocurre en un cierto
sentido, pero la libertad de la voluntad es
absolutamente ilusoria, puesto que todos los
mundos posibles ocurren realmente y el
entendimiento se divide repetidas veces para
poblar un enorme número de ellos,
imaginándose cada una de las mentes que
gobierna su propio destino, cuando en realidad
todos los destinos se realizan paralelamente.
Aunque no existe ninguna prueba sólida de
que la mente ni la voluntad del observador
influyan en el universo material cargando los
dados en el juego cuántico del azar, hay un
cierto sentido en que el experimentador, al elegir
entre cierto número de magnitudes observables
e incompatibles cuál de ellas medir, cambia las
alternativas cuánticas que se ofrecen, si bien no
puede imponer una opción. El ejemplo que
examinamos con cierto detalle era el caso del
polarizador y del fotón, que permite al
experimentador crear un mundo en el que el
fotón tenga una determinada polarización
correcta, haciéndolo pasar por un polarizador.
Otro ejemplo se refiere a la posición y el impulso
de una partícula subatómica. Al elegir qué
magnitud mide, el experimentador crea un
mundo donde la posición o el impulso de la
partícula tiene un valor bien determinado, aun
cuando ese valor quede fuera de su control y
sea una cuestión de azar. Se parece bastante a
la suerte de poder escoger entre dos premios
sorpresa, el primero en una bolsa de chocolates
y el segundo en otra con caramelos. Hay algo
de azar y algo de elección. Es importante darse
cuenta de que la facultad del experimentador
cuántico de decidir el futuro, aunque limitada,
supone una gran mejora con respecto a su
contrapartida precuántica, que era la de un puro
autómata arrastrado por la rueda del tiempo lo
mismo que los engranajes de una máquina. No
obstante, a pesar de esta capacidad, no hay
ninguna razón para suponer que el futuro no
exista ya, aún cuando todavía no esté
determinado y aún cuando el observador tenga
cierta mano en estructurarlo.
La última puntilla que remata la idea de que
el futuro espera nacer la proporciona la teoría de
la relatividad. Como ya hemos explicado, la
simultaneidad de los acontecimientos alejados
en el espacio es un concepto relativo, de manera
que a todas luces carece de sentido pretender
que sólo el presente es real, pues, ¿al presente
de quién nos referimos? La creencia de que el
mundo exterior sólo existe ahora y que en el
siguiente momento ha cambiado a una nueva
condición y una nueva realidad, está
absolutamente equivocada, pues no sólo no hay
ningún mundo real exterior, como demuestran
los análisis de los procesos de medición
cuántica, sino que dos observadores que se
muevan el uno respecto al otro asignarán fechas
completamente distintas a los mismos
acontecimientos. Por ejemplos, dos personas
que se cruzan paseando por la Tierra estarán en
drástico desacuerdo sobre qué acontecimiento
del lejano quásar 3c273 ocurre simultáneamente
con su encuentro. La discrepancia asciende a
miles de años. Cada uno de ellos puede afirmar
la realidad, en ese momento, de su
acontecimiento en el quásar, pero es evidente
que esta afirmación es absurda, pudiéndose
ajustar el presente a voluntad: basta
simplemente con levantarse del asiento y darse
un paseo para pasar miles de años de realidad
del quásar 3c273. Un acontecimiento presente
puede proyectarse de repente al futuro o al
pasado, y luego recuperarse por el sencillo
procedimiento de andar un poco. De forma
similar, los extraterrestres sedentarios estarán en
desacuerdo con sus colegas ambulantes sobre si
en la Tierra es realmente el año 1980 o si es el
año 5780. Cada cual pensará que el
acontecimiento de su elección ocurre ahora y,
por tanto, es real, mientras que el otro está
equivocado. Ninguno tiene razón, pues no hay
presente universal ni realidad universal.
Sería estimulante identificar los procesos
cerebrales concretos responsables de la
sensación del flujo temporal: parece probable
que estén íntimamente relacionados con los
procesos de la memoria, que también es muy
asimétrica en el tiempo. Recordamos el pasado
y no el futuro, de manera que el tiempo está
dotado de una especie de desequilibrio mental, y
si no tuviéramos memoria la conciencia
desaparecería junto con el flujo de tiempo. No
me refiero ahora al estado de amnesia, que sólo
afecta a la memoria a largo plazo, sino a un
estado en el que no se recuerde nada en
absoluto, por reciente que sea. En tal condición
puede haber una absoluta imposibilidad de dar
ningún sentido al entorno, pues la información
sensorial se reduciría a una masa de
impresiones momentáneas, sin significación ni
coherencia, y toda actividad planeada se haría
imposible, pues uno sería incapaz de recordar de
un minuto al siguiente lo que estaba haciendo ni
cómo era el mundo circundante. La memoria, al
menos a corto plazo, es una parte indispensable
del proceso perceptivo, puesto que la percepción
consiste en organizar las impresiones sensoriales
según conocimientos y expectativas anteriores,
de tal modo que los acontecimientos se pongan
en mutua relación y nuestra propia existencia se
vincule al mundo que nos rodea.
Podría objetarse que explicar el flujo del
tiempo en función de la memoria sólo sustituye
un misterio por otro, pues debemos tener en
cuenta el hecho de que sólo se recuerda el
pasado y no el futuro.
¿Cuál es el origen de la asimetría entre
pasado y futuro? Por suerte, aquí nos
encontramos en terreno más firme, porque las
relaciones entre pasado y futuro no son verbales
y, por tanto, es posible examinarlas dentro del
entramado de las leyes conocidas de la física. A
todo nuestro alrededor hay procesos que
presentan una fuerte asimetría entre pasado y
futuro. Uno de ellos ya lo hemos mencionado, a
saber, la inexorable desintegración del orden. La
segunda ley de la termodinámica afirma que el
caos global del universo va en aumento, de
manera que la acumulación de orden en un lugar
debe pagarse con una mayor cantidad de
desorden compensatorio en algún otro. Así, la
acumulación de información de nuestra memoria
se logra al coste de una gran cantidad de
metabolismo corporal: el funcionamiento de los
órganos sensoriales, la transferencia, la
transferencia y procesamiento de los datos
recibidos, la localización de los adecuados
servicios de almacenaje cerebrales para registrar
los datos recién adquiridos. Todas estas
operaciones deben ser impulsadas por el cuerpo
mediante la utilización de la energía extraída de
los alimentos, lo que constituye una irreversible
disipación de la energía organizada en calor
corporal. En conclusión, la memoria no es un
fenómeno especialmente misterioso y la poseen
sistemas distintos del humano, por ejemplo, las
arañas y las computadoras. Las bibliotecas y
otros archivos inanimados del pasado, como los
fósiles, son ejemplos de memoria en sentido
amplio. Todo obedece a la segunda ley de la
termodinámica, fundamentalmente asimétrica
en el tiempo, de manera que todo otorga al
mundo un desequilibrio entre pasado y futuro
que en nuestra mente parece estar movido por
una estructura más elaborada del tiempo que
fluye desde el pasado hacia el futuro.
Por supuesto, nos rodean otros muchos
fenómenos al parecer irreversibles que
contribuyen al desequilibrio del mundo o
asimetría del tiempo. Por poner unos cuantos
ejemplos tomados al azar: las personas
envejecen, los edificios se derrumban, las
montañas se erosionan, las estrellas se
consumen, el universo se expande, los huevos
se rompen, las ondas de agua se extienden a
partir del centro de la perturbación, las ondas de
radio llegan después de ser enviadas, el perfume
se evapora de los frascos abiertos, los relojes se
paran. En todos estos casos nunca encontramos
los acontecimientos en orden inverso, nunca los
relojes se dan cuerda solos ni los mensajes de
radio llegan antes de ser enviados.
Es importante subrayar que estos
fenómenos no determina el pasado ni el futuro,
que yo he sostenido que carecen significación,
sino que señalan cuáles acontecimientos son
anteriores o posteriores a otros acontecimientos.
Así, por ejemplo, si tomamos una película
cinematográfica de un huevo que cae al suelo y
se rompe, no tenemos ninguna duda de qué
extremo de la película representa el
acontecimiento primero, pues en el mundo real
los huevos no se reconstituyen
espontáneamente: la rotura del huevo es
irreversible.
Un estudio meticuloso revela que la mayor
parte de los procesos irreversibles que nos
rodean pueden describirse mediante la ley
general del aumento del desorden, es decir,
mediante la llamada segunda ley de la
termodinámica, a que nos hemos referido en
repetidas ocasiones.
En ciertos casos, como en el del huevo que
se rompe, el perfume que se evapora, la
montaña que se erosiona o las casas que se
derrumban, el crecimiento del desorden es
evidente. En otros casos es más sutil. El reloj
que se para colabora al desorden general del
mundo puesto que su actividad organizada —las
vueltas coordinadas de ruedas y manecillas— se
desintegra en una actividad desorganizada,
como la energía almacenada en el mecanismo
impulsor se disipa gradualmente en calor por la
materia del reloj. La energía originalmente
almacenada en la cuerda acaba en movimientos
atómicos aleatorios y no en el movimiento
coordinado de las ruedas.
Durante mucho tiempo ha sido un misterio el
porqué nuestro mundo es asimétrico en el
tiempo. ¿Por qué el orden siempre cede el paso
al desorden? Quizá nos ayude a comprender
esta tendencia tan general volver al ejemplo de
la baraja de cartas. Si inicialmente se colocan las
cartas en orden y se baraja al azar, lo
abrumadoramente probable es que, tras ser
barajadas, acaben en un estado de gran
desorden. Las probabilidades de que quien
baraja reconstituya exactamente el orden
correcto al final no son cero, pero sí
increíblemente pequeñas.
En muchos procesos naturales tiene lugar
una especie de barajado como consecuencia de
las colisiones moleculares internas, tal como
hemos explicado en el capítulo anterior. Una
buena analogía con la baraja de cartas es el
ejemplo de la botella de perfume destapada.
Al principio el perfume, como las cartas, está
en una condición muy ordenada, es decir,
encerrado en la botella. Debido al choque de los
impactos de las moléculas de aire que lo rodean,
el perfume se evapora gradualmente, como si
sus propias moléculas fueran lanzadas de la
superficie del líquido y se desperdigan por todas
partes, impulsadas por el incesante bombardeo
de las moléculas de aire. Al final, el revoltijo es
total y el perfume se extiende de forma
irrecuperable por la atmósfera, con sus
moléculas caóticamente mezcladas con las del
aire. El efecto barajador, pues, ha consistido en
convertir lo que en principio era el estado
ordenado del perfume en una situación muy
desordenada, al parecer irreversible.
La tendencia del orden a transformarse
irreversiblemente en desorden presenta una
paradoja: puesto que sabemos que las colisiones
entre las moléculas son todas reversibles, no se
transgredía ninguna ley fundamental de la física
si el perfume regresara espontáneamente al
interior del frasco; sin embargo tal suceso lo
consideraríamos un milagro. Si cuando dos
moléculas chocan y rebotan mutuamente
pudiéramos, mediante algún artilugio,
interceptarlas y hacerlas regresar exactamente
por las mismas trayectorias, volverían a rebotar
a su posición original, como en una película
pasada al revés, hasta que el perfume se
depositara en la botella. La posibilidad de este
milagroso giro de los acontecimientos también
es evidente en el caso de las cartas barajadas,
pues si continuáramos barajando sin cesar tarde
o temprano lograríamos poner la baraja en el
orden original. El tiempo necesario sería
inmenso, pero, basándonos exclusivamente en
las leyes probabilísticas, barajar al azar debe en
último término producir todos los órdenes
posibles, incluido el orden original.
Del mismo modo, los choques entre las
moléculas producirán finalmente un estado
ordenado otra vez, claro está, con que la
habitación sea estancia para evitar que el
perfume escape.
La paradoja es: ¿por qué, si la transición del
orden al desorden y la inversa son igualmente
posibles, siempre encontramos que el perfume
se evapora en la habitación, los montes se
erosionan, el hielo se deshace al calentarlo, las
estrellas se consumen, los castillos de arena son
arrastrados por la marea, etc., etc.? Para
resolver la paradoja debemos preguntarnos en
cada uno de los casos cómo se ha logrado en un
principio el estado de orden, es decir, ¿cómo se
colocó originalmente el perfume dentro del
frasco? No, cabe suponer, por el procedimiento
de alguien abrió la botella en una habitación llena
de perfume y esperó la inmensidad de tiempo
necesario para que se reuniera en el receptáculo
por azar; ésa sería una estrategia tan insuficiente
como la del pescador que abre un cesto junto al
río y espera a que un pez salte dentro.
En el mundo real, los estados ordenados se
seleccionan, de entrada, de nuestro medio
ambiente, no se constituyen por azar. El mundo
que nos rodea abunda en estructuras ordenadas,
muchas de las cuales se deben, en el caso de la
Tierra, a la proximidad al Sol, que impulsa buena
parte de la actividad organizada que hay en la
superficie terrestre. El Sol, y las estrellas en
genral, son los ejemplos supremos de materia y
energía organizadas en el universo. Conforme
pasa el tiempo, la energía ordenada que se
encuentra encerrada en su interior se va
disipando en el exterior mientras las estrellas
consumen su combustible y desperdigan la
energía por todo el cosmos en forma de luz y
calor. Las estrellas se consumen y el universo,
como un gigantesco reloj, va lentamente
parándose. Incluso a escala cósmica, el orden se
descompone inexorablemente en el desorden
por miles de millones de procedimientos
distintos.
La simetría entre el pasado y el futuro,
enraizada como está en la tendencia unilateral
del orden a desintegrarse en el caos, tiene pues
un origen cosmológico. Para explicar de dónde
procede el orden último del cosmos, y a partir de
ahí explicar la distinción entre pasado y futuro,
es necesario examinar la creación del universo:
el Big Bang. La estructura cósmica que surgió
del horno primigenio estaba muy ordenada y
toda la actividad posterior del universo ha
consistido en asumir este orden y disiparlo.
Todavía queda mucho, pero no puede durar
siempre. El orden que impulsa al Sol y a las
estrellas, tan vitales para la vida del universo,
puede rastrearse en los procesos nucleares que
aseguraron que el cosmos naciente estuviese
compuesto fundamentalmente de elementos
ligeros, como el hidrógeno y el helio,
característica ésta causada por la rapidez de la
expansión primigenia que no dio materialmente
tiempo al cosmos para cocer elementos más
pesados en las primeras etapa. También
depende de la relativa uniformidad de la materia
cósmica, que permitió evitar la proliferación de
agujeros negros inmediatamente después del
Big Bang. De manera que, una vez más,
descubrimos cuán delicadamente depende la
vida del universo, y nuestra existencia en tanto
que espectadores, de la adecuada estructura
cósmica, a saber, una estructura que permite
una tajante distinción entre el pasado y el futuro
basada en el orden primigenio: un orden que
alcanza su pináculo de complejidad en la materia
viva.
La íntima conexión existente entre nuestra
propia existencia, la asimetría temporal del
mundo que nos rodea y el orden cósmico inicial
debe contemplarse en el contexto del
superespacio. Ya hemos visto que el cosmos
ordenado sólo es una pequeñísima fracción de
todos los muchos mundos posibles.
Entre los demás universos, los hay en que
reina el desorden en todas partes y también los
hay que partieron de un estado de desorden y
luego progresan hacia el orden. En tales
mundos, el tiempo corre hacia atrás en relación
con nuestro propio mundo, pero si están
habitados por observadores, cabe suponer que
los cerebros de éstos también estarán sometidos
a un funcionamiento inverso, de tal modo que su
percepción de sus universos se diferenciará poco
de nuestra percepción del nuestro (aunque lo
verán contrayéndose en lugar de
expandiéndose).
Cuando se examinan las ecuaciones del
desarrollo cuántico del superespacio, se
encuentra que son reversibles: no distinguen el
pasado del futuro. En el superespacio no hay
diferencia entre pasado y futuro. Sin duda
algunos mundos tienen muy marcada la
dualidad pasado-futuro y ésos son precisamente
los que pueden albergar vida.
Otros tienen la asimetría pasado-futuro
invertida y, es de suponer, también están
habitados. No obstante, en la inmensa mayoría
no hay ninguna diferencia especial entre el
pasado y el futuro, de modo que son
absolutamente inadecuados para la vida y pasan
sin que nadie los perciba. En la teoría de
Everett, todos esos otros mundos, incluyendo
los de tiempo invertido, existen realmente junto
al nuestro.
En la teoría más convencional son mundos
posibles que, por una increíble buena fortuna, no
alcanzan la existencia, aunque pueden existir en
el futuro remoto y en otra parte del universo.
Pudiera ser que nuestro propio mundo,
agradable y muy ordenado, sea simplemente
una burbuja local de uniformidad en medio de un
cosmos predominantemente caótico, y que sólo
nosotros vemos, porque nuestra misma
existencia depende de las benignas condiciones
que aquí se dan.
En este capítulo, el modelo físico del tiempo
se ha contrapuesto al de nuestra experiencia
personal, que está repleta de imágenes
psicológicas fantásticas y paradójicas. La zona
oscura entre la mente y la materia, entre la
filosofía y la ciencia, entre la psicología y el
mundo objetivo, sólo es el umbral de la
exploración, pero ninguna descripción definitiva
de la realidad puede omitirla.
Pudiera ser que las imágenes del tiempo
que nos son tan caras —la existencia del
momento presente, el paso del tiempo, el libre
albedrío y la inexistencia del futuro, el uso de los
tiempos verbales en el lenguaje— hubiera que
llegar a verlas como tan sólo primitivas
supersticiones nacidas de una incorrecta
comprensión del mundo físico. Quizá nuestros
descendientes no hagan ningún uso de
semejantes conceptos, en cuyo caso cabe
imaginarse que organizarán su vida de forma
muy distinta a la nuestra.
Es posible que las comunidades avanzadas
de otras partes del universo hayan abandonado
hace mucho tiempo las nociones de que el
tiempo pasa o bien de que las cosas cambian, o
de que hay un único presente que avanza hacia
un futuro incierto. Sólo podemos conjeturar sobre
el impacto que tal abandono tendría en su
comportamiento y en su pensamiento, pues sin
expectativas, sin remordimientos, sin miedo, sin
previsiones, sin alivio, sin impaciencia y sin todas
las demás emociones vinculadas al tiempo que
sentimos, su concepción del mundo bien podría
resultarnos incomprensible. Es probable que,
caso de encontrar tales seres, no supiéramos
comunicar casi nada con sentido para ambas
partes. O bien pudiera ser que, por una vez,
nuestra mente fuese más digna de confianza
que nuestros instrumentos de laboratorio y que
el tiempo tuviera en realidad esa estructura más
rica que percibimos. En cuyo caso, la naturaleza
de la realidad, del tiempo, del espacio, de la
mente y de la materia sufriría una revolución de
una profundidad sin precedentes. Ambas
perspectivas son pavorosas.

También podría gustarte