El Universo en Una Caja - Andrew Pontzen
El Universo en Una Caja - Andrew Pontzen
El Universo en Una Caja - Andrew Pontzen
ePub r1.0
Titivillus 22-11-2024
Título original: The Universe in a Box
Andrew Pontzen, 2023
Traducción: Álvaro Marcos
EL LABORATORIO CÓSMICO
LEYES NATURALES
Aunque las condiciones iniciales son vitales, no nos dicen tanto, y Abbe
descubrió pronto que el problema tenía mucha más enjundia. Astrónomo de
formación, su sed de conocimiento era insaciable. Un amigo suyo contaba
que todas las mañanas se levantaba muy temprano para leer la
Encyclopaedia Britannica (que tenía más de veinte volúmenes[22]). No
sabemos si llegó a terminársela, pero sí sabemos que, aunque le gustaba
debatir sobre filosofía, arte y literatura, la meteorología comenzó a
interesarle cada vez más, hasta el punto de hacer de ella su profesión.
En 1901, había logrado reunir aquellos elementos que, a su juicio,
debían sustanciar cualquier previsión meteorológica verdaderamente
rigurosa[23]. Observó que sus propias predicciones hasta ese momento
«apenas representan las enseñanzas directas de la propia experiencia. Se
trata de generalizaciones basadas en observaciones, pero en las que las
teorías físicas hasta ahora sólo han sido aplicadas, si acaso, de una manera
superficial. Son, por lo tanto, de naturaleza muy elemental si las
comparamos con las predicciones que realizan los astrónomos».
La propuesta de Abbe para afinar las predicciones consistió en sustituir
las útiles pero imperfectas asunciones populares de cómo se desplazan las
tormentas por el estudio de los efectos de unos pocos principios físicos.
Aunque aún quedaba casi medio siglo para la aparición de los primeros
ordenadores digitales, Abbe desarrolló un método muy cercano en enfoque
al de las simulaciones. En el centro de su esquema había tres ecuaciones de
dinámica de fluidos. Éstas no eran nuevas (son las ecuaciones de
Navier-Stokes, llamadas así en honor a los dos científicos del siglo XIX que
las desarrollaron), pero sí era la primera vez que a alguien se le ocurría
aplicarlas de manera sistemática a la predicción meteorológica.
Cabe reseñar que aunque la palabra «fluido» puede evocar en nuestra
mente un líquido (como el aceite, el petróleo o el agua), para un físico,
prácticamente todo es un fluido: el aire, los glaciares, el plasma solar o el
gas de las galaxias. Por lo tanto, las tres ecuaciones de Navier-Stokes
describen el comportamiento de materiales que, a primera vista, parecen
tener poco en común. Se conocen también, de hecho, como «leyes de la
mecánica de fluidos» y, si bien no afectan a las partículas más
fundamentales de la naturaleza, merecen tal estatus por lo universal de sus
implicaciones. La primera ley establece que los fluidos no pueden aparecer
ni desaparecer. Cuando hablamos del tiempo meteorológico, el fluido es el
aire. Éste es invisible a nuestros ojos, pero está ahí (hay unos veinticinco
billones de billones de moléculas en un metro cúbico de aire). La mayoría
de las partículas que te rodean ahora mismo permanecerán por tiempo
indefinido en algún lugar de la atmósfera[24].
Esta idea de conservación captura un principio esencial: el tiempo
meteorológico consiste principalmente en empujar materiales de un lugar a
otro del planeta. Esta noción es la que informaba las primeras predicciones
meteorológicas que rastreaban las tormentas a través de los continentes,
pero constituye también una revelación poderosamente universal: a escala
cósmica, los vientos pueden soplar durante miles de millones de años y
apilar materiales hasta generar un gigantesco ventisquero. Allí donde los
vientos convergen, se forma una galaxia; allí donde divergen, permanece un
colosal y yermo espacio vacío, lo que llamamos un «vacío cósmico».
Explicaré más al respecto más adelante, pero, por ahora, bastará con señalar
que existen grandes agujeros en nuestro universo. Sabemos, por la ley de
conservación de la materia, que su existencia constituye un contrapeso
necesario para los miles de millones de galaxias abigarradas que permiten a
su vez la existencia de la luz y de la vida.
Como sucede a menudo con las grandes ideas, la ley de conservación es
sencilla pero poderosa. Eso no quiere decir, claro está, que nos baste con
ella para predecir el tiempo meteorológico o cualquier otro tipo de
simulación. La segunda ecuación de Navier-Stokes describe cómo se
empujan entre sí las diferentes partes de un material; en otras palabras, trata
sobre fuerzas. Los presentadores del tiempo suelen hablar de la presión, que
es sólo otro término para hacer referencia a las colisiones que se producen a
nivel microscópico. A gran escala, en los sistemas meteorológicos, las altas
presiones expulsan la materia hacia fuera, mientras que las bajas tratan de
absorberla. Para realizar una predicción fiable, una simulación debe tener
en cuenta también otras fuerzas, como la gravedad, la fuerza centrífuga y el
efecto Coriolis, asociados a la rotación de la Tierra. Los efectos combinados
que producen en la meteorología distan mucho de ser simples.
Para apreciar el extraño comportamiento que pueden tener las fuerzas
en los fluidos, coge una hoja de papel y ponla sobre la mesa. A
continuación, levántala por las dos esquinas más cercanas, manteniéndola
plana y paralela a la mesa. Deja que caiga hacia abajo el borde más alejado,
como hará de manera natural. Luego acércate a los labios el borde más
próximo y sopla con fuerza. Verás cómo la hoja se despliega hacia arriba,
estirándose. Es extraordinario, ¿no? Parecería razonable que la hoja se
estirara si soplamos debajo del papel, pero ¿soplando sobre él?
Cuando el aire fluye sobre un área curvada como una hoja de papel, el
ala de un avión o la superficie de la Tierra genera fuerzas que empujan en
direcciones sorprendentes. Lo mismo ocurre al revés: a menudo, el viento
no fluye en la dirección en que uno esperaría que lo hiciera y el aire no se
desplaza directamente de las zonas de alta presión a las de baja, sino que,
por influjo de la rotación de la Tierra, forma flujos circulares él también, de
modo que, cuando en un mapa meteorológico vemos señalada una zona de
baja presión sabemos que en ese punto el viento girará en torno al núcleo.
Eso hace que las tormentas sean mucho más destructivas y duraderas de lo
que lo serían de otro modo. Si el planeta no rotara, el aire fluiría
directamente hacia las zonas de baja presión y las tormentas se desharían
casi con la misma velocidad con que se forman.
Aun así, podemos considerarnos afortunados de que los huracanes no
sean aún peores. En Júpiter existe la llamada Gran Mancha Roja, una sola
tormenta del tamaño de la Tierra que existe desde hace al menos doscientos
años. En una escala todavía más grande, los planetas del sistema solar
llevan orbitando alrededor del Sol miles de millones de años. La fuerza
gravitatoria los atrae continuamente, como si quisiera arrastrarlos al ojo de
una tormenta, pero sólo logra curvar su trayectoria, de modo que esta
describe círculos. Las fuerzas crean movimientos curvos que deben ser
cuidadosamente considerados para construir simulaciones certeras tanto del
tiempo meteorológico como del universo o cualquier otro fenómeno.
Todo ese movimiento requiere energía, y ahí es donde entra en juego la
tercera consideración sobre los fluidos. Ya se trate de Júpiter o de la Tierra,
la mayor parte de la energía en nuestro sistema solar procede de la luz del
Sol y sin ella no habría tormentas ni huracanes. Por otra parte, el astro rey
también es esencial para nuestra supervivencia. Si se extinguiera mañana, la
Tierra se enfriaría rápidamente y dejaría de ser habitable en apenas una o
dos semanas, el tiempo que las temperaturas tardarían en desplomarse hasta
unos -240 °C[25].
La energía puede suponer tanto una ayuda como un obstáculo para el
desarrollo del cosmos, así como para el de la vida en el sistema solar. Los
débiles destellos de luz que llegan desde las estrellas hasta los rincones más
remotos del universo bastan para calentar el tenue gas exterior. Al mismo
tiempo, y de manera mucho más destructiva, las explosiones de supernovas
abren agujeros negros de años luz de diámetro. Pero incluso estos forman
parte del gran equilibrio de energía cósmica que determina la vida de las
galaxias. Por lo tanto, las tres leyes que conocía Abbe (las que atañen a la
conservación de la materia, al cálculo de fuerzas y al seguimiento de los
efectos constructivos y destructivos de la energía) tienen tanta importancia
en los rincones más remotos del espacio como en la Tierra.
RESOLVER ECUACIONES
Aun así, una cosa era que Abbe comprendiera que las tres ecuaciones de
Navier-Stokes debían ser parte esencial de la predicción meteorológica, y
otra muy diferente era ponerlas en práctica. Por sí mismas, dichas
ecuaciones son sucintas y elegantes: los principios relativos a la
conservación, la fuerza y la energía pueden formularse usando un número
bello y cerrado de símbolos. Todavía conservo el cuaderno de apuntes de la
universidad en el que las copié de la pizarra por primera vez. Ocupan tan
sólo tres líneas ordinarias, pero resolverlas es otra historia.
En algún momento de nuestra vida, a todos nos han enseñado a resolver
ecuaciones con una sola incógnita, x. En las clases más avanzadas, se
añadía más de una variable desconocida, ecuaciones simultáneas en las que
las letras x e y representaban las cifras que debían averiguarse. Las
ecuaciones de Navier-Stokes, sin embargo, no tienen dos o tres incógnitas;
se trata de ecuaciones diferenciales y pueden tener infinitas variables
desconocidas.
Para comprender por qué, imagina las olas del mar rompiendo en la
orilla de una playa. He ahí un escenario que puede describirse usando estas
ecuaciones. Uno de los símbolos representa la velocidad del movimiento,
pero no se corresponde con un solo valor, ya que el agua no se mueve
uniformemente. Cada gota puede hincharse, deshacerse o salpicar de
manera diferente a las demás. Aunque sigamos hablando de «resolver»
ecuaciones diferenciales, no es como con una ecuación estándar, ya que los
símbolos no sustituyen cada uno a un solo número.
Las soluciones consisten aquí en describir patrones de movimiento que
se desarrollan a partir de un determinado escenario inicial (la ola
acercándose a la orilla, o el viento que hace ese día) y extrapolan esa
información para predecir qué ocurrirá a continuación. En la mayoría de los
escenarios, una buena solución conllevaría una lista infinita de cifras (una
para cada elemento implicado en ese complejísimo movimiento), por lo que
resolver estas ecuaciones de manera satisfactoria en la práctica está fuera
del alcance de los matemáticos más dotados[26].
Visto así, podría parecer que las ecuaciones diferenciales resultan
bastante impracticables, pero es posible encontrar soluciones, siempre y
cuando los escenarios se simplifiquen lo suficiente, depurando el tremendo
exceso de detalles. Las ecuaciones de Navier-Stokes me mantuvieron
ocupado durante todo un semestre de la carrera, durante el que tuvimos que
aplicarlas a múltiples objetos de estudio: olas marinas ideales, estrellas,
discos galácticos, atmósferas de exóticos planetas remotos, etc. Nuestro
afable profesor se reunía con nosotros por parejas para evaluar y comentar
nuestro trabajo, y yo tuve la mala suerte de que me emparejaran con el
genio de la clase. Como era de esperar, el profesor se dirigía primero a mi
compañero: «Lo has hecho muy bien», le decía, antes de girarse hacia mí.
Empezaba: «Tú… —y hacía una pausa para buscar las palabras
adecuadas—, tú, no».
No es que las ecuaciones fueran ininteligibles. Al contrario, son
perfectamente lógicas y su pertinencia suele estar clara. Conectar sus
principios con el movimiento de una ola que rompe tiene sentido. En primer
lugar, la conservación: el hecho de que el agua no pueda desaparecer es lo
que produce su característica forma ondulada (si la superficie del agua es
presionada ligeramente hacia abajo en un punto, debe alzarse en otro punto
cercano). En segundo lugar, las fuerzas: son ellas las que determinan la
forma y el tamaño de las olas, encrespadas por el viento y, al mismo tiempo,
suavizadas por la fuerza de la gravedad, que las atrae hacia abajo.
Finalmente, la energía: ésta es transportada desde las profundidades marinas
hasta las aguas superficiales, provocando que las olas rompan en la orilla.
Lo complicado está en generar modelos ideales que sirvan para aislar,
uno a uno, los aspectos simplificados de esos problemas: de qué modo un
viento constante genera la formación de ondulaciones regulares, cómo se
combina éste con la gravedad para esculpir la forma de las olas, o por qué la
energía se transporta de manera diferente en aguas profundas y en aguas
superficiales. Esta clase de cuestiones simplificadas pueden resolverse en
una o dos horas, ya que los movimientos generales del conjunto pueden
sintetizarse en un puñado de cifras.
Pero a mí me faltaba paciencia y no estaba seguro de que mereciera la
pena persistir. Los resultados tienen que interpretarse como un esquema
general de cómo puede comportarse la naturaleza, por lo que cuando se
hacen aproximaciones tan vastas, son sólo indicativos en el mejor de los
casos. Sólo podemos capturar una sombra de la majestuosa complejidad del
cosmos, y antes de la llegada de los ordenadores, ésa era la frontera de la
capacidad humana para convertir las abstractas leyes de la mecánica de
fluidos en algo concreto. En retrospectiva, hoy me doy cuenta de que
tendría que haberme esforzado más, pues no se trataba sólo del clásico y
desesperante ejercicio para estudiantes de grado; los científicos
profesionales también tienen que usar este método para reducir a su esencia
los problemas a los que se enfrentan. Y el proceso puede ser muy revelador,
aunque no arroje resultados particularmente precisos.
Con todo, Abbe no iba en busca del conocimiento abstracto, sino de la
capacidad práctica de predecir el tiempo a partir de las ecuaciones de
fluidos. Pronto se dio cuenta de que no bastaba con reducir el problema a
escenarios más simples e idealizados, pero, aun así, seguía convencido de
que merecía la pena intentar desarrollar un método científico de predicción
meteorológica (poseía un insobornable optimismo que era al mismo tiempo
su mayor fortaleza y su mayor debilidad). «Rara vez se detenía a considerar
obstáculos tan determinantes como la falta de tiempo o de oportunidades»,
decía el autor de uno de sus obituarios, y lo cierto es que muchos de sus
proyectos eran irrealizables por ambiciosos[27].
En el caso específico de la predicción meteorológica, sin embargo, su
optimismo demostró estar bien fundado, y los principales meteorólogos del
mundo entero empezaron a adoptar su enfoque. Menos de veinte años
después de que Abbe publicara su artículo de 1901, el físico escocés Lewis
Fry Richardson y su esposa, Dorothy, llevarían a cabo el primer intento de
usar con conocimiento las ecuaciones de Navier-Stokes para predecir el
tiempo.
SIMULACIONES SIN ORDENADOR
ORDENADORES Y CÓDIGO
RESOLUCIÓN Y REVOLUCIÓN
LA TIERRA Y EL COSMOS
INVENTAR LA NATURALEZA
KICKS Y DRIFTS
SIMULAR LO DESCONOCIDO
Desde mediados del siglo XX sabemos que el universo tiene unos catorce
mil millones de años de antigüedad, que se expande y que en su origen tenía
tan sólo una pequeña fracción de su tamaño actual. Pero la expansión no
desperdiga las galaxias de una manera azarosa. Durante los años ochenta,
las observaciones realizadas por potentes telescopios mostraron que las
galaxias están ligadas entre sí por una vasta «malla cósmica» plagada de
zonas casi desiertas entre medias, algo así como una enorme telaraña[97].
Los filamentos unen decenas o incluso cientos de galaxias, cada una de
las cuales es unas diez mil veces más pequeña que el propio filamento, por
lo que, a la escala de una simulación, aparecen tan sólo como un pequeño
punto brillante. Sin embargo, ese punto contiene cientos de miles de
millones de estrellas, cada una de las cuales puede tener múltiples planetas.
De modo que la estructura de la que estoy hablando se traza con motas de
luz que brillan como el rocío en una telaraña de proporciones
descomunales.
Uno de los primeros proyectos que revelaron esta curiosa estructura
cósmica reticular fue dirigido por el astrónomo Marc Davis. Ducho en
tecnología (se pagó sus estudios universitarios trabajando en una empresa
de software), construyó un sistema digitalizado y automatizado para mapear
todas las galaxias. De manera no muy diferente a lo que Holmberg había
hecho décadas antes, se dio cuenta de que los catálogos de galaxias
existentes habían sido reunidos de forma algo anárquica, y decidió
automatizar el proceso de rastreo del cielo con la ayuda de ordenadores.
Dentro de la cúpula del telescopio «había cables por todos lados […], no
hice el trabajo más fino de la historia, pero funcionaba», explicaría más
tarde[98].
Con todo, los resultados parecían un gran puzle: ¿cómo y por qué
habían sido las galaxias dispuestas de esa forma? Davis concentró sus
esfuerzos en encontrar una explicación a estas cuestiones. Para ello, sumó a
su equipo a tres jóvenes investigadores y los puso a trabajar en el problema
usando simulaciones. Entre ellos estaban una joven promesa de la
astronomía, Simon White, y uno de sus doctorandos, Carlos Frenk, quien
acababa de escribir una tesina defendiendo la existencia de la materia
oscura en nuestra propia galaxia. Hoy, a punto ya de retirarse, Frenk sigue
haciendo gala de un entusiasmo irreprimible y casi juvenil por la
cosmología: «Me cuesta creerlo, pero acabé encontrando el mejor trabajo
del universo», contó en una conferencia en 2022[99].
El equipo lo completaba George Efstathiou, quien por entonces estaba
acabando su tesina en la Universidad de Durham y era el creador del único
código en el mundo capaz de ejecutar simulaciones de la escala y la
sofisticación necesarias para aquella empresa. Efstathiou dirigía el Instituto
Astronómico de Cambridge cuando yo aterricé allí, en 2005, para empezar a
trabajar en mi tesina y para mí fue una figura de autoridad algo intimidante.
Pero en los años ochenta había sido un motero que vestía cazadoras de
cuero, y él y sus tres jóvenes colegas eran conocidos en el mundillo como la
«banda de los cuatro», en referencia al legendario cuarteto de radicales del
Partido Comunista Chino[100].
Para apreciar mejor las ventajas del código de Efstathiou sobre sus
predecesores, hay que considerar que el universo, hasta donde sabemos, no
parece tener bordes. Cuando los cosmólogos hablamos de que éste se
expande no queremos decir que haya una especie de burbuja de materia
dilatándose por el abismo. De hecho, la totalidad del espacio que podemos
contemplar con nuestros telescopios ya está lleno de redes de galaxias y,
aun así, éstas se separan gradualmente unas de otras. Es muy difícil hacerse
una imagen mental de ello y constituye un verdadero galimatías práctico
para las simulaciones, pues ¿cómo podemos representar un universo
ilimitado con un ordenador de capacidad finita?
La solución consiste en usar trucos matemáticos para hacer que un
pequeño universo simulado parezca infinito. La analogía más próxima nos
la puede proporcionar el clásico videojuego recreativo Asteroids, en el que
el jugador pilota una nave espacial en 2D y navega por un universo del
tamaño de la pantalla, disparando a las rocas espaciales para destruirlas y no
colisionar con ellas. Si una de ellas, o la nave, se desplaza hasta el borde
derecho de la pantalla, desaparece, pero reaparece al poco por la izquierda,
y viceversa. Igualmente, si vuelas hasta el límite superior de la pantalla,
acabas reapareciendo por abajo, como si te teletransportaras. Con una
simplicidad no carente de belleza, esa configuración permite crear un
universo de juego sin bordes, pero limitado en su extensión a la pantalla y,
por lo tanto, manejable en términos informáticos. El código de Efstathiou
implementaba esta idea a la hora de simular el espacio, sorteando las
enormes exigencias técnicas al reproducirlo en el interior de una caja
milagrosa, sin paredes.
La banda de los cuatro combinó este universo en una caja con el método
de cálculo estándar para progresar en el tiempo en las simulaciones
(mediante kicks y drifts) y logró demostrar cómo la materia oscura y su
gigantesca influencia gravitatoria iban construyendo gradualmente, a lo
largo de miles de millones de años, una gran telaraña de materia cósmica.
Allí donde hay una cantidad adicional de materia oscura, aumenta la
atracción gravitatoria, mientras que, por el contrario, allí donde hay menos,
la gravedad es más débil y los cuerpos se separan más fácilmente. Esto
produce un efecto dominó: un pequeño paquete de materia densa es capaz
de absorber con rapidez todo lo que lo rodea y, con el tiempo, acaba
formando estructuras gigantes, como son las galaxias. Y, a medida que estas
comienzan a atraerse entre sí, algunas chocan y se fusionan, tal y como
Holmberg había mostrado. A su vez, las que no están lo bastante cerca para
fusionarse se alinean conformando una malla galáctica sorprendentemente
parecida a los mapas que Davis había trazado del universo.
Como los científicos del clima, los cosmólogos podemos jugar con las
conjeturas de las simulaciones para descubrir cómo responden estas
diferentes estructuras y si los resultados se corresponden con la realidad. En
los años ochenta, el interés giraba en torno a los neutrinos: ¿bastaban estas
misteriosas partículas para explicar toda la masa oculta que el universo
parece albergar? A primera vista, los neutrinos resultaban perfectos: eran
completamente invisibles, abundaban en todo el cosmos y, a diferencia de
cualquier otro candidato a materia oscura, su existencia había sido
confirmada mediante experimentos realizados aquí, en la Tierra.
Estos experimentos también habían probado que los neutrinos tenían
que ser excepcionalmente ligeros; su masa debía rondar, como mucho, la
cienmillonésima parte de un átomo de hidrógeno[101]. Por sí mismo, ese
dato no sería obstáculo para que los neutrinos actúen como materia oscura,
ya que en teoría hay tantísimos en el universo que su efecto gravitatorio
total podría seguir siendo enorme. Fue el cosmólogo ganador del Premio
Nobel Jim Peebles quien advirtió, sin embargo, de que unas partículas tan
sumamente ligeras se moverían demasiado deprisa. Al igual que resulta más
fácil lanzar con fuerza una pelota de críquet que una bola de cañón, en el
origen del cosmos los ligeros neutrinos tuvieron que salir disparados en una
danza frenética[102]. Una vez reajustadas para incluir estos rápidos
movimientos, las simulaciones del equipo confirmaron que era imposible
formar a partir de estas partículas la clase de malla densa e imbricada que
había sido observada en la realidad[103]. Los neutrinos se movían a tal
velocidad que se dispersaban por todo el universo en lugar de concentrarse
para crear las estructuras requeridas.
Este descubrimiento fue decisivo, ya que confirmaba que ninguna
partícula conocida por la física podía identificarse con la materia oscura:
hacía falta hallar algo completamente nuevo, algo a lo que empezó a
llamarse, de manera algo críptica, «materia oscura fría». El término deriva
de la idea de que las partículas que se mueven a gran velocidad, como los
neutrinos, son «calientes», ya que lo que experimentamos como calor
obedece en realidad a movimientos rápidos, si bien por lo general suceden a
escala microscópica. Por el contrario, la materia oscura fría se identifica con
partículas invisibles, pesadas y lentas, las cuales forman estructuras mucho
más parecidas a las que observamos en la realidad. Para ilustrar este
fenómeno, resulta útil pensar en una fondue: si el universo estuviera hecho
de un material demasiado caliente, se tornaría fino y disipativo, pero si está
hecho de materia oscura fría, esta tiende a aglutinarse, formando los pegotes
estructurales en forma de red avistados por los telescopios.
Los resultados de las simulaciones encierran una segunda conclusión:
los neutrinos tienen que ser aún más ligeros de lo que se pensaba a
principios de los ochenta. Esto es así porque no basta con tener materia
oscura fría en el universo simulado, sino que ésta debe ser la fuente
dominante de gravedad. Si los neutrinos tienen demasiado peso gravitatorio
en el modelo, comienzan a deformar la red de materia oscura fría y las
simulaciones dejan de coincidir con la realidad. Dado que prescindir de los
neutrinos tampoco es una opción, ya que sin duda abundan en el espacio, la
única conclusión factible es que cada uno de ellos sea tan excepcionalmente
ligero que sus efectos gravitatorios sean mínimos. Los experimentos
actuales confirman que la masa de los neutrinos es al menos treinta veces
menor de lo que los físicos creían a principios de la década de 1980. Así
pues, las conclusiones de las simulaciones son correctas[104].
Estos dos resultados catapultaron las simulaciones al centro del debate
en el ámbito de la cosmología y la física de partículas. Simon White,
miembro de la banda de los cuatro, recibió una rara invitación para viajar a
Moscú, al otro lado del telón de acero, para reunirse con Yakov Zeldovich,
un formidable e influyente físico ruso. Éste llevaba años defendiendo la
idea de que los neutrinos y la materia oscura eran una y la misma cosa[105],
pero, una vez vio los resultados de las simulaciones con White, mientras
desayunaban en su apartamento, asintió con sequedad y cambió de tema de
conversación[106]. Aquélla era su forma, al parecer, de admitir su error.
LA ENERGÍA OSCURA
LA OSCURIDAD VISIBLE
Si alzas la vista hacia el cielo nocturno en una ciudad, sólo verás un puñado
de estrellas. Si te aventuras en la oscuridad de la montaña, sin embargo, una
vez tus ojos se acostumbren, distinguirás cientos de ellas y, poco a poco,
hasta unos miles. A medida que tu visión se adapte, discernirás también una
suave banda de luz que divide el cielo en dos, he ahí la Vía Láctea,
compuesta de cientos de miles de millones de estrellas, para cuyo
avistamiento individual necesitarías de un potente telescopio. Si vives en el
hemisferio sur, en una noche sin luna, tus ojos tal vez distingan una mancha
de luz en mitad de la constelación de Andrómeda: se trata de una galaxia
similar en escala a la nuestra, pero mucho más distante. ¿Por qué el
universo está formado por islas como ésas, separadas a su vez por un vasto
espacio prácticamente vacío? Ésa es una de las preguntas fundamentales
que tratan de responder los cosmólogos.
La Vía Láctea es nuestro hogar galáctico y Andrómeda es nuestra
vecina de mayor tamaño, pero distan mucho de ser las únicas galaxias
existentes. La película de 1997 Contact comienza con un plano que
sobrevuela la Tierra, tras lo cual la cámara retrocede y nuestro planeta
comienza a alejarse. Dejamos a un lado la Luna y Marte, volamos a través
del cinturón de asteroides y sobrepasamos también Júpiter y Saturno, hasta
que el Sol y el sistema solar son poco más que una mota; vislumbramos
entonces incontables estrellas y relucientes nubes de gas y, dejando atrás la
Vía Láctea, flotamos en el abismo del espacio profundo. La cámara
imaginaria de Contact ha volado miles de millones de veces más lejos que
ninguna nave espacial humana, pero este viaje cinematográfico dista mucho
de ser completo.
Decenas de nuevas galaxias vuelven a emerger en la pantalla y la Vía
Láctea queda absorbida por esa multitud. Finalmente, la pantalla se llena de
puntos, de galaxias más allá de la nuestra, algunas más pequeñas y otras
más grandes, cada cual con su color y forma particulares. El arranque de la
película ilustra la concepción contemporánea del universo como un vasto
océano de oscuridad en el que un abigarrado puñado de islas brillantes se
agrupan en una estructura en forma de telaraña.
Las simulaciones de materia oscura de las que hablamos en el capítulo
anterior recreaban bien la red cósmica, pero podían explicar poco acerca de
las galaxias que la conformaban. Ello se debe a que, por definición, una
simulación que sólo incluya materia oscura no nos proporciona ningún dato
que podamos observar directamente mediante los telescopios. Los
astrofísicos podían intuir que cada aglomeración lo suficientemente grande
de materia oscura tenía una galaxia en su centro, pero no podían explicar
por qué éstas tenían un tamaño, una forma y un color determinados. Para
eso, resulta esencial incluir en la simulación las estrellas y los gases. Añadir
esos ingredientes permite realizar un ejercicio de contabilidad cósmica y
probar si el paradigma de la materia oscura se sigue sosteniendo cuando se
comparan los resultados obtenidos con las galaxias observadas en la
realidad. No sólo eso: dado que vivimos en el interior de una galaxia, estas
simulaciones mejoradas son también un paso necesario para la comprensión
de nuestra propia historia. Si no sabemos cómo se distribuyen el gas y las
estrellas por el cosmos ni por qué lo hacen de ese modo, no podemos
explicar tampoco cómo nacieron el sistema solar y la Tierra dentro de la Vía
Láctea.
La posibilidad de estudiar con ayuda de los ordenadores el porqué de la
existencia de las galaxias, sus historias, y sus diferentes tamaños y formas
era lo que más me atraía cuando empecé el doctorado, en 2005. Había algo
fascinante en la idea de capturar las piezas básicas del universo en el
interior de un ordenador y estudiarlas. Además, parecía el momento
adecuado: los astrofísicos habían logrado por esa época simular galaxias, si
no idénticas, alentadoramente parecidas a las reales.
Sin embargo, a medida que fui aprendiendo cómo funcionaban estos
modelos tan revolucionarios, empecé a desilusionarme; los ordenadores no
tienen todavía la potencia suficiente para esta tarea. Para recrear
informáticamente una sola galaxia, hay que simplificar al máximo las leyes
esenciales de la física en una serie de reglas tentativas. En particular, el
nacimiento, la vida y la muerte de las estrellas (los hornos nucleares que
hacen que las galaxias sean visibles) tienen que describirse necesariamente
de manera muy vaga, sin principios metódicos y rigurosos.
Sucede lo mismo que sucedía con la subcuadrícula de las predicciones
meteorológicas. Las gotas de lluvia y las hojas de los árboles son demasiado
pequeñas y numerosas para ser incluidas en una simulación de la Tierra, por
lo que su tratamiento debe abordarse recurriendo a la aproximación. De
manera similar, cuando trabajamos con galaxias, los superordenadores no
pueden rastrear los miles de millones de estrellas individuales que existen
dentro de cada una, por lo que la solución es recrear sus efectos usando
subcuadrículas de reglas aproximadas. En el caso de las simulaciones
meteorológicas, que sirven un propósito eminentemente práctico, esos
atajos están permitidos. El objetivo de las simulaciones de galaxias, sin
embargo, es estudiar la historia del cosmos, por lo que el uso de
subcuadrículas conjeturales es mucho más dudoso.
Ese problema cobrará gran importancia en este capítulo. En la
actualidad, aunque ya no me siento desilusionado, sigo dedicando mucho
tiempo a reflexionar sobre la tensión entre la realidad, la física y las
simulaciones. Los ordenadores nunca serán capaces de capturar
completamente la riqueza y los infinitos detalles de nuestra Vía Láctea, no
digamos ya de los miles de millones de galaxias restantes, por lo que saber
discernir qué resultados de las simulaciones hay que tomarse en serio y
cuáles no constituye una habilidad en sí misma. Las simulaciones modernas
de galaxias estudian cómo se relacionan a lo largo del tiempo los múltiples
cuerpos que las componen, comenzando poco después del nacimiento del
universo, pero su objetivo no puede ser reproducir cada aspecto de este
larguísimo proceso porque resultaría imposible. En lugar de eso, lo que
hacen es proporcionar un esquema de la historia del cosmos. Y aunque no
es una recreación literal, puede emplearse para interpretar el pasado tal y
como lo observamos en la realidad: nuestros más potentes telescopios
escrutan la inmensidad del pasado, ya que la luz emitida por los objetos
distantes puede tardar miles de millones de años en llegar hasta nosotros.
Esos pequeños y remotos puntos de luz que avistamos, procedentes en
realidad de un universo antiquísimo, tienen un aspecto muy diferente a las
galaxias cercanas, y las simulaciones nos proporcionan un medio para tratar
de explicar por qué.
Para comprender cómo descubrieron los astrofísicos la historia de las
galaxias y saber en qué resultados de las simulaciones podemos confiar, hay
que rebobinar de nuevo hasta los años sesenta, cuando los telescopios
habían logrado asomarse al pasado y habían observado tan sólo una décima
parte del enorme lapso transcurrido desde el Big Bang. Por entonces, nadie
prestaba demasiada atención al origen de las galaxias ni a cómo cambiaban
a lo largo del tiempo. De hecho, imperaba la asunción general de que
habían permanecido casi inalteradas al menos en los últimos miles de
millones de años. Una única doctoranda, Beatrice Hill Tinsley, sería la
encargada de sacudir esta complaciente creencia de los cosmólogos al
preparar el terreno para la llegada de las simulaciones galácticas modernas.
LA SUBCUADRÍCULA INELUDIBLE
No todo el mundo fue arrastrado por esa sensación de crisis, sin embargo.
Durante una conferencia de 2005, mi futuro colaborador Fabio Governato
mostró la imagen de una galaxia obtenida con una de sus simulaciones y
declaró que todo estaba en orden[145]. Producir este tipo de imágenes
implica calcular cómo generarán luz las estrellas y rastrear su origen más
allá de las nubes de gas y polvo en busca de cualquier efecto de sombreado,
y averiguar así cómo se vería la galaxia a través de un hipotético telescopio
distante dentro del universo virtual. Este esfuerzo extra merece la pena
porque permite hacer una comparación visual inmediata con la realidad.
Governato era optimista respecto a las tesis de la materia oscura fría y
su capacidad para explicar el comportamiento de las galaxias, así que usó el
resultado de sus simulaciones para mostrarlo. Recuerdo ver, durante su
ponencia, un disco de estrellas y gas arremolinándose en torno a un mismo
centro. En la imagen tenían la luminosidad adecuada y el número de
pequeñas galaxias satélite que orbitaban a su alrededor parecía ser el
correcto también. El perfeccionamiento, explicó Governato, se debía a las
mejoras constantes en la resolución, unidas a un nuevo tratamiento de la
retroalimentación estelar que explicaré enseguida. A pesar de ello, en aquel
momento aquello no me impresionó mucho: el disco se veía borroso, se
parecía vagamente a una galaxia, pero distaba mucho de esas obras
maestras en espiral que los astrónomos solían fotografiar. La galaxia
simulada estaba como hinchada, a diferencia de muchas galaxias reales, que
son tan planas que observadas lateralmente son apenas un hilo luminoso,
fino como el filo de una navaja.
El cáterin de ese día en el congreso resultó ser pizza al estilo
estadounidense, y yo le pregunté a Governato, un orgulloso italiano, si sus
monstruosas simulaciones no tenían la masa demasiado gorda, en lugar de
la delicada masa fina que se les suponía. Con un deje de irritación, me
respondió que otras simulaciones no llegaban ni a bolas de masa.
Conectamos enseguida.
Ese año, varias simulaciones, incluyendo las de Governato, empezaron
a producir resultados más próximos a lo observado en la realidad. Lo
borroso de la imagen que me había llamado la atención resultó ser algo
previsible: los superordenadores no eran lo suficientemente potentes
todavía para reproducir el nivel de detalle y nitidez de una fotografía del
espacio real. Así pues, había que considerar el paso de las bolas de masa a
las pizzas de masa gorda como un éxito. Además, en ellas no había sido
necesario modificar o descartar la materia oscura, como algunos
reclamaban. En lugar de ello, la clave tenía que ver con la
retroalimentación, con el efecto de depositar en el gas la energía procedente
del calor de las estrellas y la luz.
Al principio, tratar de incluir la retroalimentación estelar en las
simulaciones de hidrodinámica suavizada de partículas había resultado
infructuoso. Ya en 1992 habían comenzado a incluirse en los programas
grandes cantidades de energía estelar, pero esto había tenido poco impacto
en las galaxias resultantes[146], lo que supuso una decepción que entonces
nadie tuvo muy claro cómo había que interpretar. Una de las razones
principales para desarrollar aquel enfoque a partir de partículas virtuales
había sido tratar de recrear correctamente la retroalimentación. Al
combinarse con las leyes de la dinámica de fluidos, se esperaba que la
energía simulada ralentizara la formación de estrellas y reconfigurara la
galaxia. Pero si esa energía no tenía mucho efecto, tal vez las expectativas
hubieran pecado de excesivo optimismo.
A principios de los años dos mil, un número creciente de expertos en
simulaciones —entre los que estaba Governato— empezó a considerar que,
si bien la retroalimentación seguía siendo importante, había que revisar los
parámetros de la energía en las simulaciones[147]. En lugar de depositar la
energía y de usar las leyes de fluidos para calcular las consecuencias,
decidieron introducir reglas de subcuadrícula para maximizar el efecto de la
energía. De primeras, lo de cambiar el código de la simulación sólo porque
los resultados eran inaceptables suena un poco loco, o no muy científico al
menos; pero, aunque había algo de eso en la decisión, al mismo tiempo se
había ido haciendo evidente que ninguna simulación sería capaz de capturar
correctamente y con el detalle necesario la interacción entre las estrellas y
el gas.
Las estrellas son un billón de veces más pequeñas que las galaxias que
las contienen, por lo que, en realidad, su calor está extraordinariamente
concentrado. En las simulaciones de los años noventa, los efectos
producidos por una estrella se propagaban a través de su partícula virtual de
gas más cercana, que, si bien es considerablemente más pequeña que una
galaxia, sigue siendo mucho más grande que una estrella individual o que
una supernova. La energía se estaba perdiendo en la simulación porque el
ordenador no era capaz de representar su intenso y localizado efecto. El
equipo de Governato, entre algunos otros, se había propuesto solucionar ese
problema. Basándose en cálculos aproximados del efecto del intenso
calentamiento, determinaron cómo debería comportarse la energía dentro de
cada partícula e implementaron las reglas de subcuadrícula
correspondientes[148]. Una vez incorporadas estas directrices, la
retroalimentación estelar empezó a contrarrestar la gravedad, dificultando
considerablemente la formación de nuevas estrellas, tal y como Larson
había predicho que sucedería[149].
Ya en la época de las pioneras investigaciones de Tinsley y de Larson,
cuando las galaxias de las simulaciones consistían en un puñado de cifras,
se había hecho patente la necesidad de contar con reglas de subcuadrícula
ajustables. Ahora quedaba claro que incluso las sofisticadas simulaciones de
hidrodinámica suavizada de partículas precisaban de estas directrices
personalizadas, debido a la inevitable limitación de la resolución de los
ordenadores. Gracias a esta modificación, en 2005 Governato pudo mostrar
en una conferencia no sólo una imagen, sino un impactante vídeo de la
formación de su galaxia simulada. Como si se tratara de un puntero montaje
a cámara rápida, durante un par de minutos el público pudo asistir a miles
de millones de historia condensados y hacerse una idea de cuál es el
proceso de conformación de una galaxia.
Montar un vídeo así implica producir miles de imágenes y secuenciarlas
una detrás de otra para generar la impresión de movimiento. En la década
de 2020 eso es algo habitual para muchos profesionales de la simulación
informática, pero en aquel momento constituía una novedad impactante.
Las imágenes logradas son bonitas y ayudan al espectador a comprender lo
que nos muestran las simulaciones sobre la historia. Los vídeos suelen
comenzar con un universo oscuro en el que van emergiendo gradualmente
las líneas, todavía vagas, de una tenue red cósmica. A continuación,
empiezan a aparecer a lo largo de la red chispitas de luz, a medida que se
forman las primeras estrellas. Estos pequeños puntos luminosos van
creciendo en tamaño y brillo a medida que a esas estrellas iniciales se van
uniendo primero millones y luego miles de millones de ellas. Al
intensificarse la gravedad, las islas de luz son atraídas por sus vecinas y se
fusionan, conformando galaxias cada vez más grandes y más parecidas a las
que pueblan el universo en la actualidad.
Pero ¿es esto algo más que un cuento de hadas de la factoría Pixar? Que
las galaxias simuladas hoy en día tengan la apariencia correcta y que su
conformación pueda dramatizarse en vídeos visualmente atractivos no tiene
por qué implicar que las galaxias del universo real se formaran de esa
manera. El movimiento de las estrellas y del gas está determinado por leyes
físicas bien establecidas, pero eso no evita los problemas planteados por las
subcuadrículas y sus controvertidas normas. Si las simulaciones no se basan
sólo en leyes físicas consolidadas, ¿qué es lo que estos vídeos, obtenidos a
partir de sus resultados, pueden enseñarnos realmente en último término?
Transcurridos casi sesenta años desde que Tinsley escribiera su tesis y más
de ochenta desde que Holmberg apagara las luces de su laboratorio, las
simulaciones galácticas que combinan aspectos de los pioneros métodos de
ambos se han convertido en algo corriente. A medida que aumenta la
potencia de los ordenadores y mejoran los códigos empleados en las
simulaciones, vamos aprendiendo cada vez más de las islas de luz que
pueblan nuestro universo. La materia oscura es su ingrediente principal,
pues el efecto gravitatorio que crea da lugar a las aglomeraciones de gas y
éste, a su vez, constituye el combustible para la generación de estrellas. En
lo que respecta al propio gas, las tres leyes de la dinámica de fluidos siguen
siendo de aplicación válida, si bien han de combinarse con algunos trucos
para concentrar los recursos del ordenador allí donde son más necesarios.
Por último, la energía de las estrellas se recrea cuidadosamente empleando
reglas de subcuadrícula, de modo que las galaxias regulen su propia
formación. Sin este proceso retroactivo, los universos virtuales serían
demasiado brillantes y se parecerían poco, por tanto, al oscuro y disperso
cosmos que habitamos.
Las simulaciones se basan en una receta ecléctica: dependen a partes
iguales de la física, de los trucos informáticos y de los ajustes para
adaptarlas a lo que ya conocemos. Esta mezcla tan inusual de rasgos
conlleva que la elaboración de predicciones y explicaciones a partir de los
resultados de las simulaciones requiera meticulosidad y experiencia. Sería
tentador presentar los modelos informáticos como herramientas que nos dan
una visión directa de la realidad, pero a estas alturas debería haber quedado
claro que, de hacerlo, incurriríamos en una simplificación excesiva. Saber
distinguir lo que es una predicción de lo que es una asunción, lo que resulta
fiable y lo que no, constituye una especialidad en sí misma y, a menudo,
puede suscitar controversias: aún quedan expertos en el mundo que siguen
dudando de que las simulaciones sirvan para algo.
Aunque puedo llegar a empatizar con esa postura, creo también que ha
dejado de estar justificada. Las rompedoras simulaciones de Tinsley fueron
capaces de revolucionar la cosmología mucho antes de que se
comprendieran bien los mecanismos de evolución de las galaxias y de
regulación de la formación de estrellas. Su golpe maestro fue entender que
las simulaciones no tienen que ser exactísimas para ser útiles. En la
actualidad, de hecho, todavía distan mucho de ofrecer una recreación
perfecta de la historia del cosmos, pero sirven para hacer predicciones
acerca del presente y el pasado de nuestro universo, y muchas de ellas han
sido acertadas. He expuesto algunos ejemplos de estos hallazgos, extraídos
de mi propia experiencia, en la que he pasado del entusiasmo al
escepticismo y vuelta a empezar.
Como mínimo, las simulaciones demuestran que las nociones de
materia y energía oscuras pueden integrarse en un relato coherente del
origen de las galaxias. Esa historia sirve para unir los puntos que van desde
los primeros instantes del universo hasta el surgimiento de la vastísima red
cósmica, así como de las galaxias, estrellas y planetas que ésta contiene. Si
atendemos a lo que nos muestran los telescopios más potentes, cabe afirmar
que dicho relato es correcto al menos en términos generales, lo cual
constituye por sí mismo un logro nada desdeñable. Pues supone, en efecto,
reescribir el libro del Génesis con más precisión de la que Sandage soñara
nunca.
Por otro lado, sin embargo, cabe recordar que en ciencia nada está
cerrado del todo nunca y que todas la ideas y teorías que hoy están
ampliamente aceptadas son susceptibles de ser revisadas con el tiempo.
Encontrar lo que falla en las simulaciones es más importante que alabar lo
que sí funciona: las pequeñas grietas en el edificio de la cosmología
moderna dan esperanza a los físicos teóricos más imaginativos que quieren
reinventar la materia oscura. Hasta ahora, la mayoría de estas fisuras han
sido reparadas afinando más la subcuadrícula, pero no hay razón para que
este proceso sea infinito; tal vez llegue el día en que encontremos algo que
sólo pueda ser explicado revisando los ingredientes que componen el
universo.
Hay muchas cosas que ni los astrónomos ni los simuladores cósmicos
pueden explicar con certeza todavía. Encabezando esta lista de incógnitas
está la cuestión de la increíble variedad de galaxias. Algunas son grandes y
otras son pequeñas, algo que no resulta sorprendente si tenemos en cuenta
que su escala depende del tamaño del halo de materia oscura que las aloja.
Pero resulta más incomprensible que en algunas se sigan formando nuevas
estrellas (como sucede en la Vía Láctea) y en otras, no. ¿Cómo emergieron
estas diferencias?
El campo profundo del Hubble permitió atisbar, en 1995, cómo cambian
las galaxias a lo largo del tiempo, si bien desde la perspectiva actual su
logro, capturar algunos miles de las galaxias más brillantes, parezca una
empresa menor. Hoy existen telescopios automatizados, como el Sloan
Digital Sky Survey (inaugurado en el año 2000), capaces de recopilar
información sobre millones de galaxias. Éstas han demostrado poseer una
diversidad asombrosa, tanto en lo que respecta al tamaño como al color, la
forma, masa, composición química, luminosidad, velocidad de rotación…
Los astrónomos apenas han comenzado a clasificar estas variaciones, cada
una de las cuales deja una reveladora impronta en la luz que las atraviesa
que luego podemos comparar con las imágenes y vídeos producidos por las
simulaciones. A lo largo de esta década de 2020, el telescopio espacial
James Webb nos mostrará imágenes del universo aún más remotas y
antiguas de las que capturó el Hubble, mientras que el observatorio Vera
Rubin (bautizado en honor a la pionera de la materia oscura) recopilará
información sobre los veinte mil millones de galaxias más próximas a la
nuestra.
A pesar de todo lo que ya sabemos, estos punteros proyectos pueden
depararnos nuevas sorpresas. Desde luego, conviene ser prudentes, pues,
como el campo profundo del Hubble nos enseñó ya, no podemos estar
completamente seguros de lo que encontraremos al franquear nuevas
fronteras, por lo que requerirá tiempo y paciencia interpretar cómo y dónde
encajan los nuevos datos en el relato construido con ayuda de las
simulaciones. Sea como sea, cabe esperar que en 2030 la historia de la
formación de galaxias sea mucho más rica y matizada de la que manejamos
hoy.
Entre los veinte mil millones de galaxias que estudiaremos no habrá dos
exactamente iguales. Dado que, hasta donde sabemos, todas ellas se
conforman según las mismas leyes físicas, sus diferencias sólo pueden
proceder de las condiciones iniciales de su formación; es decir, cada una de
ellas tuvo que originarse de una manera ligeramente diferente a comienzos
del universo. Hablaré más sobre estas diferencias en el capítulo 6, pero
baste decir por ahora que son extraordinariamente pequeñas y sutiles.
¿Podemos explicar cómo estas minúsculas distinciones tempranas se
amplificaron hasta constituir la asombrosa e inagotable diversidad que
podemos admirar hoy?
Existe un amplio abanico de efectos físicos que las simulaciones todavía
no incluyen en sus programas, pero que probablemente contribuyan a que
ninguna galaxia sea idéntica a otra. Si alguna vez te da por asistir a un
congreso sobre simulaciones de formaciones de galaxias, verás a un montón
de físicos volviéndose locos con abstrusos detalles de la subcuadrícula
relacionados con los campos magnéticos, los rayos cósmicos, los vientos
estelares o el polvo espacial.
Pero, por encima del resto, existe otro ingrediente caprichoso que
todavía no he mencionado y que tiene la capacidad de destruir algunas
galaxias al tiempo que permite que otras florezcan. Me estoy refiriendo a la
mayor fuente de energía conocida del universo, a las superestrellas de la
física teórica, capaces de fascinar por igual a escolares y a catedráticos de
Matemáticas. Hablo de los agujeros negros y, como mostraré a
continuación, las galaxias no podrían existir sin ellos.
4
Agujeros negros
LA ENERGÍA
EL FUTURO
LA OTRA SINGULARIDAD
LA INCERTIDUMBRE
LA COSMOLOGÍA CUÁNTICA
LA INFLACIÓN
Del mismo modo que no podemos hacer desaparecer una hoja de papel
cortándola por la mitad, a medida que nos remontamos hacia atrás en el
periodo de inflación, el espacio es cada vez más pequeño, pero su tamaño
nunca es igual a cero. Por el contrario, la historia invertida de un universo
en el que no haya inflación sí podría alcanzar el tamaño cero (esto es, la
singularidad) sin dificultad alguna.
Desde la perspectiva invertida, la inflación hace retroceder la
singularidad apenas un poco más en nuestro pasado. Los cálculos que
ignoran esta hipótesis predicen que el universo observable en la actualidad
se expandió originalmente de cero al tamaño de un balón de fútbol en
menos de 10-35 segundos. Los cálculos que sí incluyen la inflación
multiplican ese tiempo por alrededor de cien, ya que cada reducción a la
mitad habría tardado lo mismo y se habrían producido al menos noventa de
ellas. (Los cálculos son, por supuesto, mucho más complicados y existe una
incertidumbre considerable acerca de las cifras precisas, pero esto nos da un
sentido general del efecto).
Hablamos aquí de periodos excepcionalmente cortos todavía, pero, aun
así, un aumento de unos 10-35 segundos a, al menos, 10-33 tiene importantes
repercusiones. Imagina que un soplador de vidrio está creando un jarrón a
partir de distintos fragmentos con una abigarrada mezcla de colores (una
analogía algo vaga para describir el grado de desarticulación que se le
supone a la singularidad). En la descripción tradicional del Big Bang, el
jarrón se infla en tan poco tiempo que no hay margen para que los colores
se mezclen; éste sería el universo impredeciblemente variado que mencioné
antes, en el que cada parte del jarrón sigue siendo muy diferente de las
demás. Pero el incremento centuplicado del tiempo que ofrece la inflación
permite que los colores fluyan juntos y produzcan un resultado mucho más
uniforme. Este vidrio ligeramente moteado se corresponde mejor con el
homogéneo cosmos que parecemos habitar.
Si la historia de la inflación concluyera ahí, no sería más que una teoría
ingeniada para explicar lo que ya sabíamos: que las diferentes partes del
espacio son bastante similares entre sí. Pero hay algo más. Las leyes de la
mecánica cuántica impiden que la inflación genere un universo
perfectamente regular. El principio de incertidumbre requiere que haya
ligeras variaciones, de modo que cada pequeña parte del incipiente universo
contenga un poco más o un poco menos de materia que sus vecinas. Dicho
de otro modo, aunque los colores de nuestro jarrón imaginario aparezcan
bien mezclados, quedarán también rastros dispersos de esa irregularidad.
Como he mencionado antes, cuanto más lejos esté lo que observamos en
el cosmos, más tiempo habrá tardado la luz en llegar hasta nosotros. Con el
tipo adecuado de telescopio, es posible encontrar radiación casi tan antigua
como el propio universo, un resplandor conocido como «fondo cósmico de
microondas». Las fluctuaciones de esta luz (incrementos y reducciones en
su intensidad) se empezaron a medir a partir de la década de 1990 y
coinciden maravillosamente bien con las predicciones hechas en 1982 en
base a la inflación por varios físicos, incluidos Stephen Hawking y Alan
Guth[226].
Una forma de visualizar la escala de las variaciones previstas es pensar
en las ondulaciones de la superficie de un mar en calma. El agua tiene
kilómetros de profundidad, pero las ondas que se forman en la parte
superior tienen de dos a cinco centímetros como máximo y son apenas
perceptibles. Ahora bien, si incluimos esta clase de ondas diminutas en
simulaciones con materia oscura, la gravedad se hace con el control y las
ondas dan lugar a galaxias y la vasta estructura de la red cósmica a nuestro
alrededor. Dado que la formación de estrellas y del sistema solar sólo pudo
producirse en el interior de una galaxia preexistente, podemos concluir que
el conjunto de lo que vemos, incluido todo lo que hay en la Tierra,
probablemente debe su existencia a efectos cuánticos aleatorios acaecidos
en la primera fracción de segundo del universo. La mecánica cuántica, la
gravedad, la materia oscura, el fondo cósmico de microondas, la red de
galaxias y nuestra propia existencia; todo ello aparece hermosamente unido
en esta visión.
Los cálculos efectuados en 1982 no determinaron con precisión qué
aspecto tendrían esas ondas —eso hubiera contravenido lo estipulado por la
incertidumbre—, pero sí hicieron predicciones sobre su tamaño y su forma
medios. La diferencia entre ambos aspectos es parecida a la existente entre
predecir dónde se encuentran cada cresta y cada valle de una onda en la
superficie de un océano —algo claramente imposible— y elaborar un
cálculo aproximado sobre cuántas crestas y valles podemos encontrarnos, a
qué altura y a cuánta distancia están entre sí. La inflación cuántica sólo nos
permite realizar esta clase de predicciones, brindándonos un resumen de los
tipos de onda que cabe hallar (conocido por los expertos como «espectro de
potencia»), pero no los detalles de las ondas particulares existentes en
nuestro universo.
Y he ahí lo que nos trae de cabeza a quienes trabajamos con
simulaciones cósmicas. Partimos en busca de las condiciones iniciales de
nuestro cosmos con la esperanza de que, como sucede con las simulaciones
meteorológicas, si lográbamos recrear de manera precisa el universo
temprano, nuestros modelos informáticos predecirían todo lo sucedido a
continuación: por qué se da una combinación particular de tipos de galaxia,
qué determina las características de cada una o cómo llegó a existir la Vía
Láctea. En resumen, buscábamos una historia única y definitiva para poder
ubicarnos dentro del contexto cósmico, pero nos encontramos con una
suerte de espuma cuántica aleatoria, descrita por un resumen del espectro de
potencia.
Los cosmólogos ven esta espuma como ondas específicas en el fondo
cósmico de microondas, y como un conjunto específico de galaxias que nos
rodean aquí y ahora. Pero la realidad, si hemos de creer a Hugh Everett, no
consiste sólo en un universo, sino en una infinidad de universos que
contienen todos los conjuntos de ondas congruentes con el espectro de
potencia, lo que a su vez implica todos los conjuntos posibles de galaxias,
estrellas y planetas. Dentro de esta colección de universos factibles, cada
uno evoluciona según la serendipia de sus propios patrones aleatorios.
Dicho de otro modo, nuestro universo específico fue originado por el
lanzamiento de múltiples dados y no tenemos forma de saber qué resultados
exactos arrojaron cada uno de ellos, por lo que no hay forma tampoco de
recrear con precisión cómo comenzó todo. Antes incluso de que podamos
empezar a ubicar nuestra propia historia, tenemos que simular la
multiplicidad de diferentes posibilidades[227].
¿Cómo vamos a hacer frente a la simulación de semejante papilla?
Puede que el progreso constante de la computación cuántica revolucione
algún día la química computacional, pero es poco probable que acuda
también al rescate de los simuladores cosmológicos. La naturaleza de
nuestro problema cuántico es muy diferente, porque el universo es
abrumadoramente complejo si lo comparamos con una molécula. Así, para
sernos útiles de verdad, los ordenadores cuánticos tendrían que ser mucho
más potentes todavía. Es posible que nunca alcancemos este nivel de
sofisticación y, desde luego, no es algo que vaya a suceder mientras yo
viva.
Mientras tanto, las simulaciones realizadas por ordenadores
tradicionales sólo pueden recrear uno de los universos posibles y tienen que
olvidarse de los demás. Y ese cosmos virtual individual no será idéntico al
nuestro en todos sus detalles, ya que los dados seguramente arrojarán un
resultado diferente. Dicho esto, cabe añadir que la aleatoriedad no implica
una completa imprevisibilidad. Y esto es algo que podemos observar en
situaciones cotidianas. Por ejemplo, si lanzamos dos dados y sumamos
ambos resultados, sabemos que sacar un doce (que requiere un doble seis)
es más difícil que sacar un siete (que se puede obtener con varias
combinaciones, como seis y uno, o cinco y dos). Por tanto, es legítimo
preguntarse qué tendencias y regularidades emergen de los procesos
aleatorios del universo, aunque sea imposible lograr una recreación exacta.
De ahí que muchos astrónomos no se fijen demasiado en los detalles de
las galaxias individuales, sino en la combinación general de tamaños,
formas, colores, luminosidad, etc. Si calculamos en una sola simulación
todos estos parámetros relativos a todas las galaxias existentes en vastas
regiones cósmicas, luego podemos compararlos con los datos obtenidos de
observaciones de regiones igualmente grandes del universo real. No se trata
de verificar un parámetro cada vez, ya que también podemos comprobar la
correlación de las diferentes propiedades (entre el tamaño y el número de
estrellas, por ejemplo, o entre la forma y el color). Este método de
verificación se ha aplicado con mucho éxito en años recientes y el conjunto
de galaxias virtuales concuerda hoy en general notablemente con la
realidad[228]. Lo que simulamos de este modo es más parecido al clima que
al tiempo meteorológico, es decir, verificamos patrones generales de
nuestro cosmos particular, en lugar de detalles específicos.
El éxito de esta empresa no se traduce automáticamente en
conocimiento. Si el propósito de una simulación es interpretar y
comprender el universo real, recrear tendencias no resulta especialmente
valioso en sí mismo; lo relevante es señalar su razón de ser. En el capítulo
3, expliqué cómo las simulaciones lograron reproducir las sombras de
tenues galaxias fragmentarias procedentes del universo primitivo. Ese
avance sería bastante anodino si la subcuadrícula de la simulación se
hubiera ajustado específicamente para lograr tal coincidencia. Pero no fue
así: lo emocionante fue descubrir cómo los procesos de subcuadrícula
diseñados para comprender las galaxias del universo actual servían también
para interpretar a sus ancestros lejanos. El valor científico del estudio de
tendencias en las simulaciones consiste en establecer tales relaciones, no en
reproducir las tendencias porque sí.
En sentido estadístico, este estudio puede ser muy fructífero, pero las
revelaciones que puede aportar tienen un límite. No existe ninguna galaxia
media, como tampoco existe el humano medio. Por otro lado, y esto es más
peligroso, las tendencias no implican necesariamente una relación directa
(«correlación no implica causalidad», reza el aforismo). Esto se puede
ilustrar de muchas maneras. Por ejemplo, las personas que compran en
Harrods tienden a ser ricas, pero eso no significa que ser rico te haga
comprar allí ni, desde luego, que comprar en Harrods te haga rico (en todo
caso sería más bien al revés). Del mismo modo, si las tendencias de las
galaxias simuladas concuerdan con las de la realidad, no hay que sacar
conclusiones precipitadas sobre el porqué de tales relaciones. Para
comprender qué hace que las galaxias sean únicas necesitamos adoptar otro
enfoque.
EXPERIMENTOS CON SIMULACIONES
Para los pioneros como De Broglie, Von Neumann, Bohr, Heisenberg, entre
otros, la idea de aplicar la teoría cuántica a todo el universo sería un
anatema. Pero el excéntrico Hugh Everett demostró que no había por qué
separar artificialmente los fenómenos cuánticos, a pequeña escala, de los
fenómenos cósmicos, a gran escala. Los dos pueden convivir con relativa
apacibilidad siempre que aceptemos que nuestro universo es una pobre
sombra de una realidad más fundamental, con una escala verdaderamente
aterradora. Sobre la base de esta perspectiva y de la idea de que los campos
escalares pueden impulsar una expansión exponencial, los físicos
elaboraron una teoría de la inflación que explica la uniformidad de nuestro
universo y, al mismo tiempo, proporciona un mecanismo para explicar la
variedad de galaxias que observamos en la realidad. La hipótesis explica el
hecho de que la tarta cósmica sea tan homogénea y da cuenta, asimismo, de
la particularidad de sus ingredientes individuales.
Estas ideas constituyen una gran extrapolación de la física probada en
laboratorios, y desde luego no todos los cosmólogos están convencidos de
que la inflación sea una teoría convincente[234], pero nos sirven como
herramientas provisionales mientras hallamos una imagen más completa de
lo que sucedió en el universo primitivo. Al comparar la estructura de
nuestro universo con los resultados de simulaciones basadas en la inflación
y en la materia y la energía oscuras, podremos refinar nuestras
especulaciones o reemplazarlas por ideas mejores aún inexistentes.
Mientras tanto, hay más predicciones que analizar: ya se trabaja en la
búsqueda de evidencias de la existencia de ondas gravitatorias que deberían
haberse generado durante la inflación. Si se descubren estos indicios, la
hipótesis de la inflación se verá reforzada[235].
Aunque también cabe la posibilidad de que las dudas nunca se resuelvan
del todo. A diferencia de lo que sucede con la materia oscura, es improbable
que los experimentos terrestres puedan verificar la inflación en un
laboratorio directamente. Las energías en juego son alrededor de un billón
de veces mayores que las canalizadas por el Gran Colisionador de
Hadrones. Incluso si tuviéramos la capacidad para construir un experimento
que recreara estas condiciones, podría ser desaconsejable hacerlo. Cuando
el LHC comenzó a operar, en 2010, se planteó la duda de que pudiera
generar un agujero negro que se tragara la Tierra o, peor aún, que pudiera
acabar con el universo tal como lo conocemos al desestabilizar partículas y
provocar un cambio de fase como los que Weinberg y Guth hipotetizaron
para explicar el origen del universo primitivo. Estos escenarios se evaluaron
rigurosamente, si bien terminaron por descartarse porque las colisiones de
energía que se producen en el LHC se dan de forma regular en todo el
universo sin ningún efecto adverso[236]. Este argumento no sería aplicable,
sin embargo, en el caso de un experimento que intentara replicar con todo
detalle las condiciones de la inflación cósmica. Dicho experimento sí podría
acabar con el universo tal como lo conocemos, algo que sería un poco
bochornoso, así que casi mejor que no esté a nuestro alcance.
Aunque muchas de las teorías y fenómenos que he descrito hasta ahora
en el libro son provisionales —desde la materia y la energía oscuras hasta
los datos de la subcuadrícula referentes a las estrellas y los agujeros negros
y, ahora también, la inflación y sus implicaciones para las condiciones
cósmicas iniciales—, las simulaciones de nuestro universo no tienen más
remedio que incluirlos. La discusión de otros fenómenos (los campos
magnéticos, por ejemplo, o los pequeños trozos de materia llamados «rayos
cósmicos», que se precipitan a través del universo a una velocidad cercana a
la de la luz) podría ocupar también libros enteros. Y si bien sus efectos en
las simulaciones se están estudiando intensamente, hasta el momento no
han producido modificaciones importantes en nuestra comprensión, aunque
sí han ayudado a pulirla. Por su naturaleza, una simulación nunca será
exhaustivamente completa, pero he intentado esbozar cuáles son los
ingredientes más importantes a la hora de describir las galaxias y sus
implicaciones para el cosmos en su conjunto, al menos tal y como las
entendemos en la actualidad.
Habiendo abordado los ingredientes, es hora de volver a examinar los
resultados. Las predicciones de las simulaciones no se pueden comparar
directamente con lo que hay ahí afuera, en el espacio. Los modelos
informáticos son siempre aproximados, pues el caos amplifica a escalas
cósmicas hasta la más mínima inexactitud, y la inflación, por su parte,
ofrece una amplia gama de posibles puntos de partida, en lugar de un único
comienzo de los tiempos.
Todo ello conlleva que los códigos de simulación sólo puedan capturar
pautas generales sobre cómo funciona el universo, de la misma manera que
los climatólogos no pueden predecir con precisión qué tiempo hará dentro
de un siglo. A pesar de eso, los cosmólogos tienen la posibilidad de
comparar el universo real con el resultado de las simulaciones para inferir
algo sobre la naturaleza de la materia oscura, o sobre la velocidad a la que
la energía oscura está separando nuestro universo, o sobre las leyes físicas
que determinaron el origen de todo, hace trece mil ochocientos millones de
años.
Esas inferencias requieren filtrar de manera inteligente la enorme
cantidad de datos recopilados por los telescopios automatizados. Éstos se
comparan con los resultados de las simulaciones, pero no a la manera
simple, limitándonos a encontrar las diferencias. Parte del trabajo de un
cosmólogo consiste en separar el trigo de la paja: decidir qué datos
muestran una convergencia entre el mundo real y los virtuales, cuáles
responden a una casualidad aleatoria y cuáles, sencillamente, no
comprendemos bien todavía. No hay ser humano capaz de digerir todos los
datos que se tienen sobre el universo, ni todos los resultados de todas las
simulaciones, por eso nos apoyamos cada vez más en ordenadores. Pero
delegar ese trabajo en las máquinas requiere simulaciones de un tipo
completamente diferente: simulaciones del pensamiento humano.
6
Pensar
VIDA EN MARTE
EL DESPLAZAMIENTO AL ROJO
LAS NEURONAS
Nuestro cerebro está formado por neuronas, que controlan las señales
eléctricas que transportan y procesan la información. En cierto sentido, son
el equivalente a los transistores en los ordenadores. Éstos, sin embargo,
tienen muy poca variedad, pues cada uno cuenta con un solo interruptor que
puede encender o apagar una señal eléctrica, mientras que las neuronas son
diversas y multifuncionales, capaces de monitorear miles de señales y de
combinarlas de las maneras más variadas y complejas.
En su forma más simple, una neurona genera un pulso de actividad
eléctrica si, en un espacio corto de tiempo, recibe a su vez un número
suficiente de pulsos procedentes de otras neuronas o de alguno de nuestros
sentidos. Algunas de estas señales entrantes producen un efecto intenso y
enseguida activan la neurona; otras, más débiles, sólo tienen efecto si van
acompañadas de otras señales. Todas ellas pueden incluso transmitirse para
producir un efecto negativo: un determinado pulso entrante puede provocar
una anulación temporal y silenciar la señal saliente de la neurona con
independencia de lo estimulada que esté. Las neuronas pueden exhibir,
además, rasgos distintivos mucho más complejos, tales como disparar
señales eléctricas con un ritmo repetitivo[262].
Las primeras simulaciones que captaron parte de este complejo
funcionamiento a partir de las leyes físicas que gobiernan el movimiento de
partículas cargadas fueron desarrolladas en los años cincuenta por Alan
Hodgkin y Andrew Huxley; la pareja de científicos que ganó
merecidamente el Premio Nobel por ello[263]. Simular los procesos
biofísicos es una gesta incuestionable, pero simular el propio pensamiento
es mucho más difícil. Esto se debe en parte a la gran cantidad de neuronas
implicadas en él: nuestro cerebro contiene cerca de cien mil millones. Se ha
estimado que, sólo para obtener una imagen del cerebro humano a la
resolución necesaria para trazar un mapa de las neuronas y sus conexiones,
necesitaríamos alrededor de 2×1021 bytes[264], una fracción significativa de
toda la capacidad de almacenamiento informático existente en la actualidad
en el planeta Tierra[265].
Incluso si pudiéramos lograr la hazaña de conseguir una instantánea del
esquema eléctrico de un solo cerebro, no sería suficiente, porque los
cerebros cambian cuando aprenden. El fisiólogo Iván Pávlov se hizo célebre
al observar que, cuando a un perro se le servía la comida acompañada de
algún sonido de fondo (algo específico, como el tictac de un metrónomo), la
mera reproducción del mismo terminaba por hacer salivar al animal. En
1949, Donald Hebb propuso que este tipo de asociación podía tener una
base física a nivel celular; dos neuronas que se activan en secuencia
repetidamente tienden a reforzar sus efectos recíprocos[266]. Es decir, al
principio, los conceptos de comida y sonido corresponden a estructuras
neuronales casi independientes, pero con el tiempo la conexión entre
ambos, inicialmente tenue, se va fortaleciendo hasta crear un poderoso
vínculo.
Hebb era psicólogo y había investigado sobre cómo podían las personas
aprender a recuperar la función cognitiva después de una cirugía
cerebral[267]. Su propuesta se basaba, más que en una comprensión
determinada de las neuronas, en las conclusiones derivadas de esos
estudios. Los experimentos modernos confirman la idea, algo vaga, de
Hebb, si bien concluyen también que es difícil predecir en detalle la forma
exacta en la que el cableado neuronal cambia con el tiempo[268]. Por otra
parte, las propiedades eléctricas del cerebro están moduladas por cientos de
sustancias químicas, las más importantes de las cuales están asociadas con
el estado de ánimo y el placer, lo que ayuda al cerebro a aprender a través
de las recompensas. No es de extrañar, por tanto, que hasta los organismos
simples sigan siendo un misterio: el sistema nervioso del diminuto
nematodo Caenorhabditis elegans, de un milímetro de longitud, se mapeó
ya en 1986 (con sus trescientas dos neuronas y alrededor de siete mil
conexiones), pero todavía estamos lejos de poder simular su
comportamiento en un ordenador[269].
Las simulaciones de neuronas son muy valiosas para comprender la
función del cerebro y, por lo tanto, también pueden servir para extraer
conocimientos médicos que salven vidas. Sin embargo, para los astrónomos
y demás científicos o los ingenieros, cuyo interés es imitar la flexibilidad
del pensamiento humano en un sistema informático, no hace falta
comprender cada detalle del cerebro y recrearlo con total exactitud en un
modelo digital. En lugar de eso, utilizamos sistemas que están vagamente
inspirados en la neurociencia, reteniendo la esencia del aprendizaje flexible
al tiempo que eludimos las complicaciones propias de la biología.
EL APRENDIZAJE AUTOMÁTICO
redes sociales[292]).
Estos ejemplos muestran que el futuro distópico de la literatura de
ciencia ficción —en que las inteligencias artificiales comienzan a manipular
y controlar a los seres humanos— está peligrosamente cerca, si es que no ha
llegado ya. Los ordenadores se están haciendo con el control, no en un
espectacular asalto, como si fuera una película de Hollywood, sino
mediante una usurpación lenta y gradual. Si se logra programar a las
máquinas para que sean todavía más independientes, determinadas y
flexibles, corremos el riesgo de desestabilizar nuestro mundo de manera
todavía más drástica. Para ello se requerirían avances todavía más
profundos, pero nada hace pensar que eso sea imposible. Aunque haga falta
un complejísimo método para reproducirlo, nuestro propio pensamiento está
alimentado por neuronas cuyo comportamiento puede ser descrito, en
principio, por la física y, por lo tanto, llegar a ser simulado en un ordenador
lo suficientemente potente.
Una posible objeción al respecto podría ser suponer que los efectos
cuánticos desempeñan un papel aún no identificado en nuestras neuronas y,
por lo tanto, en el pensamiento. Pero incluso si tal fuera el caso, los
ordenadores cuánticos podrían llegar a simular esos efectos antes o después.
A menos que nuestro cerebro emplee algún proceso que esté fuera de los
márgenes de la física conocida, sospecho que en cuestión de tiempo
tendremos la capacidad tecnológica para simular el pensamiento humano de
una manera exhaustiva y convincente.
En lo que respecta a cuánto tardaremos (si años, décadas o más tiempo),
no me atrevería a dar una respuesta firme, pero los sistemas actuales han
empezado a mostrarnos lo que será posible. Una de las inteligencias
artificiales más parecidas a la humana en el momento de escribir estas
palabras es la conocida con el nombre de GPT, una red neuronal entrenada
con cerca de quinientos mil millones de palabras extraídas de internet
(incluida la Wikipedia[293]). Cualquier persona capaz de retener toda esa
información sería un genio.
Aun así, todo lo que GPT hace en realidad con ese conocimiento es
adivinar lo que vendría a continuación en un diálogo, como si fuera una
versión turboalimentada de la función de texto predictivo de un teléfono
móvil. El modelo ChatGPT, concebido para el público general, puede
parecer una tecnología simple y sabelotodo, pero puede ser reconfigurada
para que prediga todo tipo de respuestas. Yo mismo le pedí que imitara a un
investigador ficticio al que llamé Profesor, un renombrado experto en
gravedad cuántica que tiene grandes esperanzas en que la inteligencia
artificial resuelva los principales misterios de la física teórica. He aquí un
extracto de la discusión que tuve con la máquina:
En la primavera de 1999, cuando tenía quince años, fui al cine (algo raro en
mí entonces) para ver una nueva película llamada Matrix, en la que un
programador descubre que ha vivido toda su vida dentro de una realidad
simulada. De alguna manera, las máquinas se las han apañado para aislar a
los humanos en cápsulas y los han conectado a una suerte de videojuego
gigante. El resto de la película narra cómo el héroe, Neo, se une a un
pequeño grupo de programadores de élite que buscan liberar a la humanidad
para devolverla al mundo real. Recuerdo con claridad ese primer contacto
con la idea de que toda nuestra experiencia es una farsa, una noción
profundamente desconcertante a una edad tan crucial como es la
adolescencia. Me fui del cine con la sensación de que no podía confiar en la
realidad.
Desde que los ordenadores captaron la atención del gran público, en los
años cincuenta del pasado siglo, la ciencia ficción ha jugado con la idea de
que vivimos en una simulación. El relato de Frederik Pohl «El túnel bajo el
mundo» (1955) proporciona una de las tipologías clásicas del género. En él,
la conciencia de los humanos ha sido trasplantada a unos robots que habitan
una ciudad miniaturizada, construida tan sólo para ello. Atrapadas en un
mundo metafórica y literalmente diminuto, estas pobres almas están
condenadas a vivir para siempre el mismo día una y otra vez, y todo con el
objetivo de que puedan probarse con ellos diferentes anuncios de productos.
Cada noche, un equipo del mundo exterior borra la memoria a corto plazo
de los robots y reinicia el entorno, proporcionando a la industria del
marketing un banco de pruebas controlable hasta el último detalle.
La novela Simulacron-3 (1964), de Daniel F. Galouye, toma de Pohl la
idea del estudio de marketing, pero la sitúa en el interior de un ordenador,
pues en ella imagina una empresa que simula una ciudad entera y su
población, sin necesidad de un escenario miniaturizado. Poco a poco, sin
embargo, los científicos que desarrollan la simulación se van dando cuenta
de que su propia realidad tampoco es la verdadera, sino que es a su vez una
simulación también de un «mundo superior». Esta hipótesis, la de que todo
lo que conocemos, incluidos nuestros propios cuerpos y mentes, estén
dentro de un ordenador se conoce como «hipótesis o argumento de
simulación».
Pero la hipótesis de simulación no sólo ha llamado la atención de los
escritores de ciencia ficción. Los ingenieros informáticos Edward Fredkin y
Konrad Zuse la plantearon como una posibilidad real en la década de 1950
y, a principios de este siglo, el físico cuántico Seth Lloyd escribió que «una
simulación del universo en una computadora cuántica es indistinguible del
universo mismo»[295]. Por otro lado, figuras públicas como el astrónomo
Neil deGrasse Tyson, el físico Brian Greene o el biólogo evolutivo Richard
Dawkins también la han considerado[296].
Existen muchas versiones diferentes de la hipótesis y cada una de esas
figuras científicas tiene la suya. Un buen punto de partida para abordar la
cuestión es la versión que el filósofo Nick Bostrom formuló en 2003[297]:
supongamos que, al igual que nosotros, las civilizaciones futuras estén
interesadas en simular la historia cósmica o algunos fragmentos de ella.
Uno de sus objetivos podría ser estudiar la formación del sistema solar, la
Tierra y la vida, o incluso la evolución y el comportamiento de los
organismos inteligentes. Supongamos también que los ordenadores y las
simulaciones siguen incrementando su capacidad y sofisticación. Si
aceptamos ambas suposiciones, la humanidad (o civilizaciones alienígenas
igualmente avanzadas) podría llegar a simular un universo ultrasofisticado
en el que implantar vida inteligente y dejar que evolucione.
Y aquí viene la gracia. Supongamos que, a lo largo de todo el pasado y
todo el futuro del universo, una única civilización alcanza el nivel requerido
de capacidad técnica y que realiza una sola simulación. Eso brinda dos
posibilidades con respecto a tu propia existencia: o vives dentro de la
realidad o, potencialmente, vives dentro de la simulación. En este último
caso, eres una forma de inteligencia artificial. (Esto supone asumir que las
inteligencias artificiales con experiencias conscientes son factibles, pero
Bostrom no ve ninguna razón para descartar esta posibilidad, y tampoco yo,
ni Seth Lloyd, ni el filósofo de la mente David Chalmers[298]). Entre estas
dos explicaciones (existencia real o simulada) y sin capacidad para
verificarlas, lo lógico parece ser asignar un 50 por ciento de posibilidades a
que seamos seres simulados.
De hecho, Bostrom contempla la posibilidad de que existan muchas
civilizaciones avanzadas y de que realicen múltiples simulaciones, ya sea
para explorar diferentes aspectos de la historia o los efectos de introducir
cambios en las leyes físicas, tal y como hacemos con la tecnología menos
avanzada con que contamos hoy. En ese caso, los universos simulados que
albergan vida superarían en número al único real. Supongamos que hay diez
civilizaciones y que cada una realiza diez simulaciones aptas en cualquier
momento de su historia: nuestras probabilidades de estar viviendo en el
universo real serían sólo de una entre cien.
Llegados a este punto, el lector habrá notado que podemos adentrarnos
en una especulación infinita. Con todo, Bostrom se cuida mucho de
exagerar su afirmación y está de acuerdo en que muchas de las suposiciones
aparejadas son discutibles. Lo relevante aquí, sin embargo, es que la
hipótesis de simulación ha estimulado la imaginación de algunas grandes
mentes para las que sus premisas resultan plausibles. ¿Seguirá la sociedad
futura interesada en recrear la historia? Claro, ¿por qué no? ¿Seguirán los
ordenadores y las simulaciones incrementando su capacidad y
sofisticación? Absolutamente sí. ¿Se conformarán las civilizaciones futuras
con una sola simulación? De ninguna manera. ¿Puede la conciencia
explicarse a través de la ciencia y, por lo tanto, recrearse en una máquina?
Sí, porque cualquier otra conclusión requeriría una concepción sobrenatural
de la mente. Argumentar en contra de estas conclusiones implicaría un
pesimismo poco fundado y que tendría que ir asociado a una repentina
pérdida de interés en nuestros orígenes, a la interrupción de los avances en
la computación científica, o incluso al fin de la civilización misma. El
argumento de Bostrom es que, lógicamente, nos enfrentamos a una
elección: o aceptamos que existen limitaciones estrictas sobre lo que
podremos lograr en el futuro, o aceptamos la hipótesis de simulación con
todas sus extravagantes consecuencias.
Que una hipótesis parezca descabellada no significa que debamos
rechazarla de plano, pues la física misma está llena de absurdos: tiempos
que corren a diferentes velocidades, partículas que están en muchos lugares
a la vez, universos en expansión y cosas por el estilo. Debemos tratar de
mantener la mente abierta. La cuestión es que, además de absurda, la
hipótesis de simulación es explosiva. Es una especie de religión inferida
aparentemente de la ciencia y según la cual nuestro universo tendría un
arquitecto dotado de autoridad para intervenir en el curso de la historia.
Pero hasta un ateo declarado como Richard Dawkins admite que Bostrom
presenta un argumento plausible[299]. (Según el biólogo evolutivo, los
propios creadores de la simulación habrían surgido a través de procesos
evolutivos y, por lo tanto, no deberían ser considerados dioses. Esto suscita
preguntas a su vez sobre qué es un dios, pero lo que está claro es que,
independientemente de sus orígenes o del nombre que atribuyamos a esos
creadores, su poder sobre nuestra realidad sería prodigioso).
Al entrelazar religión, ciencia y tecnología, la hipótesis de simulación
adquiere una volatilidad que ha sido motivo de muchos debates
interesantes, aunque creo que en algunos de ellos se pasan por alto ciertos
detalles con demasiada ligereza. Ocultas en los postulados de Bostrom, hay
muchas suposiciones acerca de lo que los científicos pretenden lograr
mediante las simulaciones. Incluso si la ciencia y la computación continúan
avanzando y la humanidad mantiene intacta la curiosidad por sus orígenes y
su comportamiento, el resultado de dichos procesos no tiene por qué ser
necesariamente el desarrollo de simulaciones que repliquen la realidad con
todo detalle. De hecho, aunque sigamos intentando construirlas, éstas serán
tan diferentes del tipo de simulaciones que realizamos hoy en día y las
civilizaciones que las ejecuten tendrán capacidades e intenciones tan
diferentes a las nuestras que no deberíamos dar por sentado que nuestras
elucubraciones sobre ellas tienen sentido. Para complementar estas ideas,
retomaré a continuación algunas lecciones de los capítulos anteriores sobre
la utilidad de las simulaciones y sobre cómo se ejecutan en la práctica.
Pues, si bien es cierto que puede haberse exagerado su capacidad para
ofrecer una explicación literal de nuestra realidad, no lo es menos que
también se han minimizado sus revolucionarias implicaciones para la
ciencia. Esta representa un viaje hacia una mejor comprensión de la
naturaleza y las simulaciones, una nueva etapa en esa aventura. El quehacer
científico se ha ido refinando a lo largo de siglos, pero las simulaciones sólo
llevan unas pocas décadas con nosotros y todavía no hemos comprendido a
fondo las diferentes funciones que pueden desempeñar. A veces parecen
cálculos teóricos; otras veces, experimentos empíricos; y, otras, una forma
completamente nueva de construir una visión humana y colaborativa del
universo.
Al captar el punto débil de la hipótesis de simulación, uno comienza a
apreciar también dónde estriban las mayores fortalezas y su verdadera
radicalidad, así como hacia dónde podrían orientarse en el futuro. En este
capítulo final, quiero explorar estas tensiones y ofrecer una comprensión
más profunda de lo que las simulaciones son en realidad.
LA RESOLUCIÓN DE LA REALIDAD
Las simulaciones son cálculos que nos permiten rastrear los efectos de la
física en la atmósfera de la Tierra, en una galaxia o en todo el cosmos. Son
experimentos que nos muestran cómo emergen comportamientos complejos
a partir de reglas simples. Son herramientas que han configurado la vida
moderna mediante avances tan cruciales como la predicción numérica del
tiempo o la inteligencia artificial. Sin embargo, no son facsímiles de la
realidad, y es poco probable que alguna vez lo sean.
La popularidad de las simulaciones entre los cosmólogos —cada año
aparecen una decena de códigos nuevos, cientos de programas y de
artículos científicos, y montones de llamativas notas de prensa— no implica
que estemos trabajando en pos de una simulación definitiva y perfecta de
todo cuanto existe. Como he argumentado en este capítulo, un logro tan
extremadamente detallado es imposible y, muy probablemente, carecería de
sentido.
Lo que las simulaciones ofrecen es, más bien, una forma de estructurar
el conocimiento científico, los hallazgos y la colaboración. Ninguna
persona por sí sola podría hoy programar una simulación y compararla con
los datos recogidos por un telescopio de exploración moderno. Los
conocimientos necesarios para ello son demasiado amplios y abarcan la
hidrodinámica, la formación de estrellas, el nacimiento y desarrollo de
agujeros negros, la mecánica cuántica, la óptica y la inteligencia artificial.
Podemos pasarnos toda la vida estudiando cualquiera de esos campos y
todavía nos quedará mucho por aprender.
Esta cualidad abierta es lo que hace que la física sea tan emocionante y
que trabajar con simulaciones lo sea aún más. Pero también conlleva que la
colaboración sea esencial. Cuando era joven no valoré esa cuestión en su
justa medida. Los ordenadores me ofrecían una vía de escape del mundo
humano, donde me sentía siempre incómodo. Eran un portal a otra realidad
donde el pensamiento puro cobraba vida. Nadie me importunaba demasiado
si optaba por habitar ese mundo. De hecho, en el anuario de mi promoción
escolar pone que mi principal logro era ser «capaz de construir su propio
universo y vivir en él».
Ya no recuerdo si por entonces esperaba que las simulaciones
profesionales me ofrecieran una versión ampliada de este frikismo
informático que permitía a un individuo solitario encerrarse en sí mismo y
crear su propio mundo. Si ésa era mi expectativa, no podía estar más
equivocado: es el factor humano el que hace que las simulaciones sean lo
que son. Desde la Ilustración, el trabajo en equipo ha constituido el corazón
de la ciencia, porque la colaboración permite a la mente humana llegar
mucho más allá de lo que podría por sí sola. Con el tiempo, se creó un
sistema, defectuoso pero efectivo, por el que las ideas científicas se
difunden a través de publicaciones académicas. Gracias a esas revistas, y
especialmente a los vastos archivos digitalizados y disponibles en línea, una
sola biblioteca puede ofrecer acceso a casi la totalidad del conocimiento
humano.
Con todo, una cosa es tener acceso a las publicaciones y otra muy
diferente poder asimilar y comprender su contenido. Los códigos
informáticos bien diseñados modifican las demandas del proceso científico:
ya no hace falta que una persona tenga que absorber toda esa información,
sino que hay diferentes especialistas trabajando en equipo, destilando sus
conocimientos en piezas de código que se combinan dentro de una
estructura global. El solo hecho de que esto sea posible confirma y
reivindica la importancia de la apuesta de Grace Hopper por una
programación que sea legible por humanos. Los diferentes aspectos de una
simulación se describen en sus respectivos archivos y es la máquina la que
se encarga de combinarlos en una larga lista unificada de instrucciones
escritas en su propio lenguaje, que es extremadamente detallado. De esa
forma, las partes del código que rigen, por ejemplo, la formación de nuevas
estrellas, el comportamiento de los agujeros negros, o la generación de
condiciones iniciales cuánticas pueden modificarse o reemplazarse sin tocar
otras secciones.
Lo más atractivo de las simulaciones no son los mundos virtuales que
generan, que son sólo una pobre sombra de la realidad. En sí mismos, los
entornos simulados no son más emocionantes que una predicción
meteorológica. La emoción radica en la capacidad humana, mediante la
cual las simulaciones permiten expresar y explorar las relaciones entre
diferentes ideas científicas. El código es un conjunto de instrucciones para
el ordenador, pero también es una expresión colectiva, viva y en constante
evolución de cómo vemos el universo, y que combina las ideas de
diferentes personas en un lienzo.
La parte más gratificante de mi trabajo es colaborar con otros seres
humanos para interpretar los resultados que producen los ordenadores: los
visualizamos, hacemos preguntas y los interpretamos, en un esfuerzo por
transformar esos mundos simulados en conocimiento sobre nuestra propia
realidad. Las historias que los cosmólogos han extraído de las simulaciones
ya forman parte de la ortodoxia cosmológica, y explican cómo se originó
nuestro planeta cuando las galaxias se condensaron a partir de una
gigantesca red cósmica de materia oscura, modelada a su vez por la
gravedad con tan sólo microscópicas ondas mecánicas cuánticas.
Todas esas ideas constituyen contribuciones a la cosmología de
importancia indiscutible. El logro no está en recrear literalmente el
universo, sino en comprender cómo surgen los fenómenos complejos,
incluso cuando las reglas codificadas en la simulación son, por sí solas,
sencillas. Estudiar esta clase de fenómenos emergentes era casi imposible
hace sólo unas décadas. Si comparamos la historia particular de las
simulaciones con los siglos de progreso científico, comprendemos que
todavía están en su infancia. Démosles algunas décadas más y veamos
cuánto más nos queda por descubrir.
Agradecimientos
Quiero dar las gracias a los muchos científicos y estudiantes brillantes con
los que he podido trabajar, pues todos ellos han influido en mi forma de
pensar. Tengo una deuda especial con mis colaboradores más antiguos,
Fabio Governato, Hiranya Peiris y Justin Read, así como con mis directores
de tesis, Max Pettini y Anthony Challinor. Hiranya ha sido una colega fiel y
una fuente de inspiración durante años difíciles, y tuvo la amabilidad
también de leer un borrador muy temprano de este libro. Durante las fases
de redacción y edición, conté con la valiosa ayuda de Jonathan Davies, Ray
Dolan, Richard Ellis, Carlos Frenk, Gandhali Joshi, Matthew van der
Merwe, Joe Monaghan, Claudia Muni, Ofer Lahav, Luisa Lucie-Smith,
Michael May, Julio Navarro, Tiziana di Matteo y Simon White, así como
con la de las instituciones Smithsonian Libraries and Archives y Niels Bohr
Library and Archives. Gran parte de mi investigación, que describo en el
libro, ha sido financiada con subvenciones del Consejo Europeo de
Investigación, la Royal Society y el Science and Technology Facilities
Council.
Mis editores, David Milner, Michal Shavit y Courtney Young, me han
brindado todo su apoyo, su paciencia y su perspicacia. Chris Wellbelove, mi
agente, fue fundamental para concebir el libro y darle forma; sin su apoyo
para unir varios hilos, nunca hubiera empezado a escribir. El título fue
sugerido por Jamie Coleman. El enfoque que adopto cuando hablo sobre
ciencia debe mucho a los presentadores, productores y directores con los
que he tenido la suerte de trabajar en varios proyectos, particularmente
Helen Arney, Matt Baker, Jonny Berliner, Hannah Fry, Timandra Harkness,
Delyth Jones, Michelle Martin, Jonathan y Elin Sanderson, Alom Shaha,
Tim Usborne, y Tom y Jen Whyntie.
Este libro es para mi familia. Mis padres, Libby y Peter, siempre me han
alentado y apoyado, y no podría haber pedido una hermana mayor mejor
que Rosie. Por encima de todo, quiero agradecer el amor y la bondad de mi
esposa, Anna, y de mi hijo, Alex, que hacen que valga la pena vivir en este
universo. Perdonadme por todos esos fines de semana de trabajo.
Andrew Pontzen es catedrático de cosmología en el University College de
Londres. Ha escrito para New Scientist, BBC Sky at Night y BBC Science
Focus, ha impartido conferencias en la Royal Institution y colaborado en
programas de PBS y Discovery Channel. Las simulaciones son una parte
importante de su investigación, que abarca la cosmología, la física y la
computación. Vive en Londres. El universo en una caja es su primer libro.
Notas
[1] t1">[1] SatOrb se publicó originalmente en el libro ZX Spectrum
Astronomy. Discover the heavens on your Computer, de Maurice Gavin
(publicado en 1984 por Sunshine Books). Supongo que fue mi padre, o uno
de sus amigos, quien copió el código del programa en un disco, pues era un
pasatiempo común en los albores de la informática doméstica. <<
[2] t2">[2] Garnier et al. (2013), PLOS Computational Biology, vol. 9, n.º 3,
p. e1002 984. <<
[3]t3">[3] Deneubourg et al. (1989), Journal of Insect Behaviour, vol. 2, n.º
5, p. 719. <<
[4]bits. La masa total de la atmósfera ronda los 5×1018 kg, lo que se traduce
en unas 1044 moléculas. Por lo tanto, necesitaríamos 1021 veces más
almacenamiento para contar con un bit por molécula. Véase Redgate e IDC
(8 de septiembre de 2021), Statista, en
«https://www.statista.com/statistics/1185 900/worldwide-datasphere-
storage-capacity-installed-base/» (consultado el 10 de julio de 2022). <<
[5] t5">[5] The New York Times (10 de marzo de 2009). <<
[6]t6">[6] Término que hace referencia a los matemáticos que trabajan en
bolsa. (N. del T.) <<
[7]t7">[7] Tankov (2003), Financial Modelling with Jump Processes,
Nueva York, Chapman & Hall. <<
[8] t8">[8] Mandelbrot (1963), Journal of Political Economy, n.º 5, p. 421.
<<
[9]t9">[9] Derman (2011), Models behaving badly. Why confusing illusion
with reality can lead to disaster, on Wall Street and in life (tesis doctoral),
New Jersey, Wiley & Sons. <<
[10]t10">[10] Moore (2015), The Weather Experiment, Chatto & Windus;
comunicado oficial de la Cámara de los Comunes del Parlamento británico,
30 de junio de 1854, col. 1006. <<
[11] t11">[11] Gray (2015), Public Weather Service Value for Money
Review, Servicio Meteorológico Británico; Lazo et al. (2009), Bulletin of
the American Meteorological Society, vol. 90, n.º 6, p. 785. <<
[12] t12">[12] Pausata et al. (2016), Earth and Planetary Science Letters,
vol. 434, p. 298. <<
[13] t13">[13] Wright (2017), Frontiers in Earth Science, vol. 5,
«https://doi.org/10.3389/feart.2017.00 004». <<
[14] t14">[14] New York Daily Times (2 de noviembre de 1852). <<
[15] t15">[15] Annual Report of the Board of Regents of the Smithsonian
Institution (1858), p. 32. <<
[16] t16">[16] Chicago Press & Tribune (15 de agosto de 1959). <<
[17] t17">[17] The Times (14 de diciembre de 1854). <<
[18] t18">[18] Landsberg (1954), The Scientific Monthly, vol. 79, p. 347. <<
[19] t19">[19] The Times (26 de enero de 1863). <<
[20] t20">[20] The Times (11 de abril de 1862). <<
[21]t21">[21] Humphreys (1919), US National Academy of Sciences.
Biographical Memoirs, vol. 8, p. 469. <<
[22] t22">[22] Ibid. <<
[23] t23">[23] Abbe (1901), Monthly Weather Review, vol. 29, n.º 12, p. 551.
<<
[24] t24">[24] En realidad, una pequeña fracción de los gases de la
atmósfera puede disiparse en el espacio, ser absorbida por las plantas,
depositarse en el suelo, etc. La ley no es absoluta, pero sí lo bastante fiable
para ser excepcionalmente poderosa. <<
[25] t25">[25] Stevenson (1999), Nature, vol. 400, p. 32. <<
[26] t26">[26] Técnicamente, la lista de números no tiene por qué ser
infinita, ya que hasta los más mínimos detalles tienen un límite. Una vez
hubiera sido representada cada gota de espuma de la ola rompiente,
podríamos dejar de añadir información. Pero incluso ese nivel de detalle
está fuera de nuestro alcance. <<
[27] t27">[27] Humphreys (1919), op. cit. <<
[28]t28">[28] Se trataba de un servicio voluntario de ambulancias fundado
por miembros de la comunidad cuáquera. (N. del T.) <<
[29]t29">[29] En el prefacio a su libro de 1922, Richardson menciona que
«la reducción aritmética de las […] observaciones la llevé a cabo con gran
ayuda de mi esposa», Dorothy, antes de que él fuera destinado a Francia.
Dado que se trata de una parte crucial y compleja del libro, a día de hoy
Dorothy sería considerada coautora del mismo, aunque fuera Lewis Fry
quien lo redactara. Lewis Fry Richardson (1922), Weather Prediction by
Numerical Process, Cambridge, Cambridge University Press, reimpreso en
2006, con introducción de Peter Lynch. <<
[30] t30">[30] Peter Lynch (1993), Meteorological Magazine, vol. 122, p. 69.
<<
[31]t31">[31] Richardson (1922), op. cit., p. 219; Ashford (1985), Prophet
or Professor? The Life and Work of Lewis Fry Richardson, Londres, Adam
Hilger. <<
[32] t32">[32] Lynch (1993), op. cit. <<
[33] t33">[33] Siberia en 1968, según el Guinness World Records, en
«https://www.guinnessworldrecords.com/world-records/highest-barometric-
pressure-/» (consultado el 28 de octubre de 2022). <<
[34]
t34">[34] Peter Lynch (2014), The Emergence of Numerical Weather
Prediction, Cambridge, Cambridge University Press. <<
[35] t35">[35] Richardson (1922), op. cit., p. 219. <<
[36] t36">[36] Durand-Richard (2010), Nuncius, vol. 25, p. 101. <<
[37]t37">[37] «Pascaline», en Britannica Academic de octubre de 2008), en
«academic.eb.com/levels/collegiate/article/Pascaline/443 539» (consultado
el 20 de julio de 2022). <<
[38] t38">[38] Freeth (2009), Scientific American, vol. 301, p. 76. <<
[39]
t39">[39] Babbage (1864), Passages from the Life of a Philosopher,
Londres, Longman, p. 70. <<
[40]
t40">[40] Fuegi y Francis (2003), IEEE Annals of the History of
Computing, vol. 25, n.º 4, p. 16. <<
[41] t41">[41] Ibid. <<
[42] t42">[42] Friedman (1992), Computer Languages, vol. 17, n.º 1. <<
[43] t43">[43] Fuegi y Francis (2003), op. cit. <<
[44]t44">[44] Lovelace (1843), reimpreso en Charles Babbage and His
Calculating Engines. Selected Writings by Charles Babbage and Others
(1963), Nueva York, Dover, p. 251. <<
[45] t45">[45] Fuegi y Francis (2003), op. cit. <<
[46]t46">[46] «ENIAC», en Britannica Academic (31 de enero de 2022), en
«academic.eb.com/levels/collegiate/article/ENIAC/443 545» (consultado el
29 de octubre de 2022). <<
[47]
t47">[47] Von Neumann (1955), Fortune, reimpreso en Population and
Development Review (1986), vol. 12, p. 117. <<
[48]t48">[48] «Cold war may spawn weather-control race», The
Washington Post and Times Herald (23 de diciembre de 1957). <<
[49] t49">[49] Harper (2008), Endeavour, vol. 32, n.º 1, p. 20. <<
[50] t50">[50] Fleming (2007), The Wilson Quarterly, vol. 31, n.º 2, p. 46. <<
[51] t51">[51] Ibid. <<
[52] t52">[52] Charney, Fjörtoft y Von Neumann (1950), Tellus, p. 237. <<
[53] t53">[53] Williams (1999), Naval College Review, vol. 52, n.º 3, p. 90.
<<
[54]
t54">[54] Hopper (1978), History of Programming Languages, Nueva
York, Association for Computing Machinery, p. 7. <<
[55] t55">[55] Ibid. <<
[56] t56">[56] Ibid. <<
[57]t57">[57] Citado en Platzman (1968), Bulletin of the American
Meteorological Society, vol. 49, p. 496. <<
[58] t58">[58] Bauer, Thrope y Brunet (2015), Nature, vol. 525, p. 47. <<
[59]
t59">[59] Alley, Emanuel y Zhang (2019), Science, vol. 363, n.º 6425, p.
342. <<
[60] t60">[60] McAdie (1923), Geographical Review, vol. 13, n.º 2, p. 324.
<<
[61]t61">[61] Smagorinsky y Collins (1955), Monthly Weather Review, vol.
83, n.º 3, p. 53. <<
[62]t62">[62] Coiffier (2012), Fundamentals of Numerical Weather
Prediction, Cambridge, Cambridge University Press. <<
[63]
t63">[63] Lee y Hong (2005), Bulletin of the American Meteorological
Society, vol. 86, n.º 11, p. 1615. <<
[64]t64">[64] Rueda de prensa en la Princeton University (5 de octubre de
2021), en «https://www.youtube.com/watch?v=BUtzK41Qpsw»
(consultado el 28 de octubre de 2022). <<
[65]t65">[65] Así se titulaba la conferencia que pronunció en 1972 ante la
Asociación Estadounidense para el Avance de la Ciencia. En declaraciones
anteriores, Lorenz había usado como ejemplo el aleteo de las gaviotas, pero,
como es obvio, el sentido es el mismo. <<
[66]
t66">[66] Judt (2020), Journal of the Atmospheric Sciences, vol. 77, n.º
257. <<
[67] t67">[67] Hasselmann (1976), Tellus, vol. 28, n.º 6, p. 473. <<
[68] t68">[68] Jackson (2020), Notes and Records, vol. 75, p. 105. <<
[69] t69">[69] Von Neumann (1955), op. cit. <<
[70] t70">[70] Morrison (1972), Scientific American, vol. 226, p. 134. <<
[71]t71">[71] IPCC (2021), Climate Change 2021. The Physical Science
Basis. Contribution of Working Group I to the Sixth Assessment Report of
the Intergovernmental Panel on Climate Change, Cambridge, Cambridge
University Press (en imprenta). <<
[72] t72">[72] Manabe y Broccoli (2020), Beyond Global Warming,
Princeton University Press. <<
[73]t73">[73] El Grupo Intergubernamental de Expertos sobre el Cambio
Climático (IPCC, por sus siglas en inglés) considera esta verificación
enormemente importante. IPCC (2021), op. cit., sec. 3.8.2.1. <<
[74] t74">[74] Daily Mail (17 de octubre de 1987). <<
[75] t75">[75] Daily Mail (19 de octubre de 1987). <<
[76] t76">[76] Alley et al. (2019), Science, vol. 363, n.º 6425, p. 342. <<
[77] t77">[77] Éstas son las contribuciones relativas por volumen. En
cambio, cuando se calcula por masa (lo que permite una comparación más
directa con las cifras del universo), los resultados son 75 por ciento y 23 por
ciento respectivamente. Walker (1977), Evolution of the atmosphere, Nueva
York, Macmillan. <<
[78] t78">[78] Hays, Imbrie y Shackleton (1976), Science, vol. 194, n.º 4270.
<<
[79]t79">[79] Lequeux (2013), Le Verrier, Magnificent and Detestable
Astronomer, trad. al inglés de Bernard Sheehan, Cham, Springer. <<
[80] t80">[80] Davis (1984), Annals of Science, vol. 41, n.º 4, p. 359. <<
[81] t81">[81] Ibid., p. 129. <<
[82]
t82">[82] Peierls (1960), Biographical Memoirs of Fellows of the Royal
Society, vol. 5174. <<
[83] t83">[83] Ibid. <<
[84]t84">[84] Pauli (1930), carta al grupo de físicos participantes en el
encuentro Gauverein, en Tubinga, en
«https://web.archive.org/web/20 150 709 024 458/https://www.library.ethz.c
h/exhibit/pauli/neutrino_e.html». <<
[85]
t85">[85] Lightman y Brawer (1992), The Lives and Worlds of Modern
Cosmologists, Cambridge (Massachusetts), Harvard University Press. <<
[86]t86">[86] Rubin (2011), Annual Review of Astronomy and Astrophysics,
vol. 49, n.º 1. <<
[87] t87">[87] Ibid. <<
[88]
t88">[88] Citado en Bertone y Hooper (2018), Reviews of Modern
Physics, vol. 90, n.º 045 002. <<
[89]
t89">[89] Lundmark (1930), Meddelande fran Lunds Astronomiska
Observatorium, Series I, vol. 125, p. 1. <<
[90]
t90">[90] F. Zwicky (1933), Helvetica Physica Acta, vol. 6, n.º 110;
Zwicky (1937), Astrophysical Journal, vol. 86, p. 217. <<
[91] t91">[91] Rubin (2011), op. cit. <<
[92] t92">[92] Holmberg (1941), Astrophysical Journal, vol. 94, p. 385. <<
[93]
t93">[93] Holmberg (1946), Meddelande fran Lunds Astronomiska
Observatorium, Series II, vol. 117, p. 3. <<
[94] t94">[94] Lange (1931), Naturwissenschaften, vol. 19, pp. 103-107. <<
[95] t95">[95] White (1976), Monthly Notices of the Royal Astronomical
Society, vol. 177, p. 717; Toomre y Toomre (1972), Astrophysical Journal,
vol. 187, pp. 623-666. <<
[96] t96">[96] Ibid. <<
[97] t97">[97] Geller y Huchra (1989), Science, vol. 4932, pp. 897-903. <<
[98]t98">[98] Entrevista de Alan Lightman a Marc Davis (14 de octubre de
1988), Maryland, Niels Bohr Library & Archives, American Institute of
Physics, «www.aip.org/history-programs/niels-bohr-library/oral-histories/
34 298». <<
[99]t99">[99] Cosmic Extinction. The Far Future of the Universe (7 de
junio de 2022), ciclo de conferencias de la Durham University. <<
[100] t100">[100] Frenk (2022), comunicación personal. <<
[101] t101">[101] De hecho, algunos de los experimentos iniciales
apuntaban erróneamente a una masa mayor de lo que ahora sabemos que es
posible en el caso de los neutrinos. Aun siendo incorrectas por exceso, esas
masas seguían siendo diminutas en comparación con los átomos. Lubimov
et al. (1980), Physics Letters B, vol. 94, p. 266. <<
[102] t102">[102] Peebles (1982), Astrophysical Journal, vol. 258, p. 415. <<
[103]
t103">[103] White, Frenk y Davis (1983), Astrophysical Journal, vol.
274, p. L1. <<
[104]t104">[104] Aker et al. (2019), Physical Review Letters, vol. 123, p.
221 802. <<
[105]
t105">[105] Silk, Szalay y Zeldovich (1983), Scientific American, vol.
249, n.º 4, p. 72. <<
[106] t106">[106] White (2021), comunicación personal. <<
[107] t107">[107] Entrevista de Alan Lightman a Marc Davis (1988), op. cit.
<<
[108] t108">[108] Lightman y Brawer (1992), op. cit. <<
[109]t109">[109] Huchra, Geller, De Lapparent y Burg (1988), colección
International Astronomical Union Symposium, vol. 130, p. 105. <<
[110] t110">[110] Ibid. <<
[111]
t111">[111] Calder y Lahav (2008), Astronomy & Geophysics, vol. 49,
1.13-1.18. <<
[112]t112">[112] La razón por la que la red cósmica alcanza escalas más
grandes cuando la energía oscura está presente es ligeramente sutil y está
relacionada con el desequilibrio resultante entre la materia y la radiación en
el universo primitivo cuando la energía oscura está presente. <<
[113] t113">[113] Tulin y Yu (2018), Physics Reports, vol. 730, p. 1. <<
[114]
t114">[114] Pontzen y Governato (2014), Nature, vol. 506, n.º 7487, p.
171; Pontzen y Peiris (2010), New Scientist, vol. 2772, p. 22. <<
[115]t115">[115] Abel, Bryan y Norman (2002), Science, vol. 295, n.º 5552,
p. 93. <<
[116] t116">[116] Tinsley (1967), «Evolution of Galaxies and its
Significance for Cosmology» (tesis doctoral), Austin, University of Texas,
«http://hdl. handle.net/2152/65 619». <<
[117] t117">[117] Sandage (1968), The Observatory, vol. 89, p. 91. <<
[118]t118">[118] «The supereyes. Five giant telescopes now in construction
to advance astronomy», en The Wall Street Journal (10 de octubre de 1967).
<<
[119]
t119">[119] Hill (1986), My daughter Beatrice, Maryland, American
Physical Society, p. 49. <<
[120] t120">[120] Catley (2006), Bright Star. Beatrice Hill Tinsley,
Astronomer, Auckland, Cape Catley Press, p. 165. <<
[121]
t121">[121] Sandage (1968), op. cit.; véase también Oke y Sandage
(1968), Astrophysical Journal, vol. 154, p. 21. <<
[122]t122">[122] Tinsley (1970), Astrophysics and Space Science, vol. 6, n.º
3, p. 344. <<
[123] t123">[123] Sandage (1972), Astrophysical Journal, vol. 178, p. 1. <<
[124]t124">[124] Bartelmann (2010), Classical and Quantum Gravity, vol.
27, p. 233 001. <<
[125]
t125">[125] Peebles (1982), Astrophysical Journal Letters, vol. 263, p.
L1; Blumenthal et al. (1984), Nature, vol. 311, p. 517; Frenk et al. (1985),
Nature, vol. 317, p. 595. <<
[126]
t126">[126] White (1989), «The Epoch of Galaxy Formation», en
NATO Advanced Science Institutes (ASI) Series C, vol. 264, p. 15. <<
[127]t127">[127] White y Frenk (1991), Astrophysical Journal, vol. 379, p.
52. <<
[128]
t128">[128] Por ejemplo, Sanders (1990), Astronomy and Astrophysics
Review, vol. 2, p. 1. <<
[129]t129">[129] Véase, por ejemplo, la discusión al respecto en White
(1989), op. cit. <<
[130] t130">[130] Ellis (1998), «The Hubble Deep Field», en
STScI Symposium Series 11, Cambridge, Cambridge University Press, p. 27.
<<
[131]
t131">[131] Adorf (1995), «The Hubble Deep Field project», en
ST-ECF Newsletter, vol. 23, p. 24. <<
[132]t132">[132] Larson (1974), Monthly Notices of the Royal Astronomical
Society, vol. 169, p. 229; Larson y Tinsley (1977), Astrophysical Journal,
vol. 219, p. 46. <<
[133]t133">[133] Somerville, Primack y Faber (2001), Monthly Notices of
the Royal Astronomical Society, vol. 320, p. 504. <<
[134] t134">[134] Ellis (1998), op. cit. <<
[135]t135">[135] Tinsley (1980), Fundamentals of Cosmic Physics, vol. 5,
p. 287. <<
[136]t136">[136] Cen, Jameson, Liu y Ostriker (1990), Astrophysical
Journal, vol. 362, p. L41. <<
[137]
t137">[137] Gingold y Monaghan (1977), Monthly Notices of the
Royal Astronomical Society, vol. 181, p. 375. <<
[138]t138">[138] Monaghan (1992), Annual Reviews in Astronomy and
Astrophysics, vol. 30, p. 543. <<
[139]t139">[139] Monaghan, Bicknell y Humble (1994), Physical Review
D, vol. 77, p. 217. <<
[140]
t140">[140] Katz y Gunn (1991), Astrophysical Journal, vol. 377, p.
365; Navarro y Benz (1991), Astrophysical Journal, vol. 380, p. 320. <<
[141] t141">[141] Katz (1992), Astrophysical Journal, vol. 391, p. 502. <<
[142]t142">[142] Moore et al. (1999), Astrophysical Journal, vol. 524, n.º 1,
p. L19. <<
[143]
t143">[143] Ostriker y Steinhardt (2003), Science, vol. 300, n.º 5627, p.
1909. <<
[144] t144">[144] Battersby (2004), New Scientist, vol. 184, n.º 2469, p. 20.
<<
[145]t145">[145] Governato et al. (2004), Astrophysical Journal, vol. 607,
p. 688; Governato et al. (2007), Monthly Notices of the Royal Astronomical
Society, vol. 374, p. 1479. <<
[146] t146">[146] Katz (1992), op. cit. <<
[147]t147">[147] Springel y Hernquist (2003), Monthly Notices of the Royal
Astronomical Society, vol. 339, p. 289; Robertson et al. (2006),
Astrophysical Journal, vol. 645, p. 986. <<
[148]t148">[148] Stinson et al. (2006), Monthly Notices of the Royal
Astronomical Society, vol. 373, n.º 3, p. 1074. <<
[149]t149">[149] Governato et al. (2007), Monthly Notices of the Royal
Astronomical Society, vol. 374, p. 1479. <<
[150]
t150">[150] Pontzen y Governato (2012), Monthly Notices of the
Royal Astronomical Society, vol. 421, p. 3464. <<
[151]t151">[151] Kauffmann (2014), Monthly Notices of the Royal
Astronomical Society, vol. 441, p. 2717. <<
[152] t152">[152] Entrevista de Spencer Weart a Martin Schwarzschild (10
de marzo de 1977), Maryland, Niels Bohr Library & Archives, American
Institute of Physics, «https://www.aip.org/history-programs/niels-bohr-
library/oral-histories/4870-1». <<
[153] t153">[153] De hecho, Schwarzschild basó el primero de estos
artículos en una versión incompleta pero previamente publicada de las
ecuaciones de Einstein, por lo que su rápida aplicación de aquella nueva
idea no fue tan extraordinaria como pudiera parecer a primera vista. <<
[154]t154">[154] Schwarzschild (1916), Sitzungsberichte der Königlich
Preussischen Akademie der Wissenschaften zu Berlin, Phys.-Math. Klasse,
Berlín, Verlag der Königlichen Akademie der Wissenschaften, p. 424. <<
[155]
t155">[155] Schwarzschild (1992), Gesammelte Werke (Collected
Works), Cham, Springer. <<
[156]
t156">[156] Thorne (1994), From black holes to time warps. Einstein’s
outrageous legacy, Nueva York, W. W. Norton & Company. [Hay trad. cast.:
Agujeros negros y tiempo curvo. El escandaloso legado de Einstein,
Barcelona, Crítica, 2018]. <<
[157]t157">[157] Oppenheimer y Snyder (1939), Physical Review, vol. 56,
p. 455. <<
[158]t158">[158] Oppenheimer y Volkoff (1939), Physical Review, vol. 55,
p. 374. <<
[159]t159">[159] Bird y Sherwin (2005), American Prometheus. The
Triumph and Tragedy of J. Robert Oppenheimer, Nueva York, Alfred
A. Knopf. [Hay trad. cast.: Prometeo Americano, Barcelona, Debate, 2023].
<<
[160]t160">[160] Arnett, Baym y Cooper (2020), «Stirling Colgate», en
Biographical Memoirs of the National Academy of Sciences. <<
[161] t161">[161] Ibid. <<
[162]t162">[162] Teller (2001), Memoirs. A twentieth-century journey in
Science and politics, Nueva York, Perseus, p. 166. <<
[163] t163">[163] Arnett, Baym y Cooper (2020), op. cit. <<
[164]t164">[164] Colgate (1968), Canadian Journal of Physics, vol. 46, n.º
10, p. S476; Klebesadel, Strongy Olson (1973), Astrophysical Journal, vol.
182, p. L85. <<
[165]
t165">[165] Breen y McCarthy (1995), Vistas in Astronomy, vol. 39, p.
363. <<
[166]
t166">[166] May y White (1966), Physical Review Letters, vol. 141, p.
4. <<
[167] t167">[167] Hafele y Keating (1972), Science, vol. 177, p. 168. <<
[168]t168">[168] Han Fei (c. 300 a. e. c.), The complete works of Han Fei
Tzu, vol. 2, Londres, Arthur Probsthain, p. 204. <<
[169] t169">[169] Einstein y Rosen (1935), Physical Review, vol. 49, p. 404.
<<
[170]t170">[170] Hannam et al. (2008), Physical Review D, vol. 78, p.
064 020. <<
[171]t171">[171] Thorne (2017), discurso de aceptación del Premio Nobel,
en «www.nobelprize.org/prizes/physics/2017/thorne/lecture/» (consultado
el 28 de octubre de 2022). <<
[172] t172">[172] Wheeler (1955), Physical Review, vol. 97, p. 511. <<
[173]
t173">[173] Murphy (2000), Women becoming mathematicians,
Cambridge (Massachusetts), MIT Press. <<
[174]
t174">[174] Hahn (1958), Communications on Pure and Applied
Mathematics, vol. 11, n.º 2, p. 243. <<
[175] t175">[175] Lindquist (1962), «The Two-body problem in
Geometrodynamics» (tesis doctoral), New Jersey, Princeton University, p.
24. <<
[176]t176">[176] Hahn y Lindquist (1964), Annals of Physics, vol. 29, p.
304. <<
[177]t177">[177] Pretorious (2005), Physical Review Letters, vol. 95, p.
121 101; Campanelli et al. (2006), Physical Review Letters, vol. 96, p.
111 101; Baker et al. (2006), Physical Review Letters, vol. 96, p. 111 102.
<<
[178]t178">[178] Overbye (1991), Lonely Hearts of the Cosmos, Nueva
York, HarperCollins [hay trad. cast.: Corazones solitarios en el cosmos,
Barcelona, RBA, 1994]; Schmidt (1963), Nature, vol. 197, n.º 4872, p. 1040;
Greenstein y Thomas (1963), Astronomical Journal, vol. 68, p. 279. <<
[179]t179">[179] Blandford y Znajek (1977), Monthly Notices of the Royal
Astronomical Society, vol. 179, p. 433. <<
[180]t180">[180] Springel y Hernquist (2003), Monthly Notices of the Royal
Astronomical Society, vol. 339, n.º 2, p. 289. <<
[181] t181">[181] Di Matteo (2020), comunicación personal. <<
[182] t182">[182] Di Matteo, Springel y Hernquist (2005), Nature, vol. 433.
<<
[183] t183">[183] Di Matteo (2020), comunicación personal. <<
[184]t184">[184] Silk y Rees (1998), Astronomy & Astrophysics, vol. 331,
p. L1. <<
[185]
t185">[185] Magorrian et al. (1998), Astronomical Journal, vol. 115, p.
2285. <<
[186]t186">[186] Sanchez et al. (2021), Astrophysical Journal, vol. 911, p.
116; Davies et al. (2021), Monthly Notices of the Roy al Astronomical
Society, vol. 501, p. 236. <<
[187] t187">[187] Volonteri (2010), Astronomy and Astrophysics Review,
vol. 18, p. 279. <<
[188]t188">[188] Tremmel et al. (2018), Astrophysical Journal, vol. 857, p.
22. <<
[189] t189">[189] ESA (2021), LISA Mission Summary, en
«https://sci.ésa.int/web/lisa/-/61 367-mission-summary» (consultado el 29
de octubre de 2022). <<
[190] t190">[190] Hawking (1966), «Properties of expanding universes»
(tesis doctoral), Cambridge, University of Cambridge,
«https://doi.org/10.17 863/CAM.11 283». <<
[191] t191">[191] Nobel Prize Outreach AB (2022), «Louis de Broglie»
(nota biográfica), en
«https://www.nobelprize.org/prizes/physics/1929/broglie/biograpbical/»
(consultado el 28 de octubre de 2022). <<
[192] t192">[192] Werner Heisenberg trabajó para los nazis durante la
Segunda Guerra Mundial, poniendo su experiencia en física cuántica al
servicio de la energía nuclear. Afortunadamente para el mundo, estaba más
interesado en la generación de energía que en desarrollar una bomba
nuclear, perspectiva que no lo entusiasmaba. <<
[193]
t193">[193] Islam et al. (2014), Chemical Society Reviews, vol. 43, p.
185; Csermely et al. (2013), Pharmacology & Therapeutics, vol. 138, p.
333; Gur et al. (2020), Journal of Chemical Physics, vol. 143, p. 075 101;
Qu et al. (2018), Advances in Civil Engineering, Londres, Hindawi
Publishing Corporation; Hou et al. (2017), Carbon, vol. 115, p. 188. <<
[194]t194">[194] En principio, esta difuminación se aplica también al
núcleo de cada átomo, pero De Broglie sugirió correctamente que el efecto
aquí habría de ser pequeño, ya que los núcleos son mucho más masivos. <<
[195]
t195">[195] Hubbard (1979), en Harding y Hintikka, eds., Discovering
Reality, Vermont, Schenkman, pp. 45-69. <<
[196] t196">[196] Boston Globe (5 de septiembre de 2016). <<
[197]
t197">[197] Karplus (2006), Annual Reviews in Biophysics and
Biomolecular Structure, vol. 35, p. 1. <<
[198] t198">[198] Ibid. <<
[199]t199">[199] En realidad, las simulaciones cuánticas representan las
variaciones a través del espacio de una manera mucho más compleja y
cuidadosamente elaborada, pero el ejemplo de la cuadrícula sirve para
comprender el concepto. <<
[200] t200">[200] Miller (2013), Physics Today, vol. 66, n.º 12, p. 13. <<
[201]t201">[201] Benioff (1982), International Journal of Theoretical
Physics, vol. 21, n.º 3, p. 177. <<
[202]t202">[202] Feynman (1982), International Journal of Theoretical
Physics, vol. 21, n.º 6, p. 467. <<
[203] t203">[203] Restructure! (2009), en
«https://restructure.wordpress.com/2009/08/07/sexist-feynman-called-a-
woman-worse-than-a-whore/» (consultado el 28 de octubre de 2022). <<
[204] t204">[204] Lloyd (1996), Science, vol. 273, p. 1073. <<
[205]
t205">[205] Google AI Quantum et al. (2020), Science, vol. 369, n.º
6507, p. 1084. <<
[206] t206">[206] Preskill (2018), Quantum, vol. 2, p. 79. <<
[207]t207">[207] Heuck, Jacobs y Englund (2020), Physical Review Letters,
vol. 124, p. 160 501. <<
[208]
t208">[208] Byrne (2010), The Many Worlds of Hugh Everett III,
Oxford, Oxford University Press. <<
[209]
t209">[209] Por ejemplo, Matteucci et al. (2013), European Journal of
Physics, vol. 34, p. 511. <<
[210]t210">[210] Von Neumann (2018), Mathematical Foundations of
Quantum Mechantes. New Edition, ed. Nicholas A. Wheeler, New Jersey,
Princeton University Press, p. 273. [Hay trad. cast.: Fundamentos
matemáticos de la mecánica cuántica, Madrid, CSIC, 2018]. <<
[211]t211">[211] Para un resumen de algunos de los notables trabajos
experimentales que muestran estos principios en acción, véase Zeilinger
(1999), Review of Modern Physics, vol. 71, p. S288. <<
[212]
t212">[212] Wigner (1972), en The Collected Works of Eugene Paul
Wigner, vol. B/6, Cham, Springer, p. 261. <<
[213] t213">[213] Para una discusión sobre las diferentes escuelas del
idealismo, véase Guyer y Horstmann (2022), «Idealism», en Edward
N. Zalta, ed., The Stanford Encyclopedia of Philosophy, en
«https://plato.stanford.edu/archives/spr2022/entries/idealism/». <<
[214]
t214">[214] Wheeler (1983), en Quantum Theory and Measurement,
New Jersey, Princeton University Press, p. 182,
«www.jstor.org/stable/j.ctt7ztxn5.24». <<
[215]t215">[215] Penrose (1989), The Emperor’s New Mind, Oxford,
Oxford University Press. [Hay trad. cast.: La nueva mente del emperador,
Barcelona, Debolsillo, 2006]. <<
[216] t216">[216] Howl, Penrose y Fuentes (2019), New Journal of Physics,
vol. 21, n.º 4, p. 043 047. <<
[217]t217">[217] Aspect, Dalibard y Roger (1982), Physical Review Letters,
vol. 49, n.º 25, p. 1804. <<
[218]t218">[218] La tesis completa no fue publicada hasta 1973; Everett
(1973), en The Many-Worlds Interpretation of Quantum Mechanics, New
Jersey, Princeton University Press, p. 3. <<
[219]t219">[219] Saunders (1993), Foundations of Physics, vol. 23, n.º 12,
p. 1553. <<
[220]
t220">[220] Deutsch (1985), Proceedings of the Royal Society A, vol.
400, n.º 1818, p. 97. <<
[221] t221">[221] Para una discusión extensa entre proeverettianos y
antieverettianos, véase Saunders, Barrett, Kenty Wallace (2010), Many
Worlds?, Oxford, Oxford University Press. <<
[222]t222">[222] Véase, por ejemplo, el capítulo 27 de Penrose (2004), The
Road to Reality, Londres, Jonathan Cape. [Hay trad. cast.: El camino a la
realidad. Una guía completa de las leyes del universo, Barcelona, Debate,
2006]. <<
[223] t223">[223] En «https://www.bankofengland.co.uk/monetary-
policy/inflation/inflation-calculator» (consultado el 28 de octubre de 2022).
<<
[224] t224">[224] Turroni (1937), The Economics of Inflation,
Bradford & Dickens, p. 441. <<
[225]t225">[225] Para calcular este requisito mínimo hay que comparar el
tamaño del universo observable en la actualidad con cómo viajaban los
rayos de luz a través del universo joven. <<
[226] t226">[226] Para una evaluación actualizada, véase Planck
Collaboration (2018), Astronomy & Astrophysics, vol. 641, p. A6. <<
[227] t227">[227] Cabría esperar que pudiéramos establecer el tipo de
estructura apreciable en el fondo cósmico de microondas (que revela las
ondas específicas de nuestro universo particular) como el único punto de
partida «correcto» de las simulaciones. Sin embargo, hay que tener en
cuenta que la luz es antiquísima, por lo que ha recorrido también muy largas
distancias. Así, esto sólo nos aporta información sobre el punto de partida
correspondiente a partes muy distantes del universo, y no sabemos cómo
evolucionaron las galaxias en esas regiones. <<
[228]t228">[228] Springel et al. (2018), Monthly Notices of the Royal
Astronomical Society, vol. 475, p. 676; Tremmel et al. (2017), Monthly
Notices of the Royal Astronomical Society, vol. 470, p. 1121; Schaye et al.
(2015), Monthly Notices of the Royal Astronomical Society, vol. 446, p. 521.
<<
[229]
t229">[229] Roth, Pontzen y Peiris (2016), Monthly Notices of the
Royal Astronomical Society, vol. 455, p. 974. <<
[230]
t230">[230] Rey et al. (2019), Astrophysical Journal, vol. 886, n.º 1, p.
L3; Pontzen et al. (2017), Monthly Notices of the Royal Astronomical
Society, vol. 465, p. 547; Sánchez et al. (2021), Astrophysical Journal, vol.
911, n.º 2, p. 116. <<
[231] t231">[231] Pontzen, Slosar, Roth y Peiris (2016), Physical Review D,
vol. 93, p. 3519. <<
[232]t232">[232] Angulo y Pontzen (2016), Monthly Notices of the Royal
Astronomical Society, vol. 462, n.º 1, p. L1. <<
[233]t233">[233] Mack (2020), The End of Everything, Londres, Allen
Lane. [Hay trad. cast.: El fin de todo (astrofísicamente hablando), Crítica,
Barcelona, 2021]. <<
[234]
t234">[234] Este argumento ha sido esgrimido en múltiples ocasiones
y bajo diferentes formas; véase, por ejemplo, el capítulo 28.5 de Penrose
(2004), op. cit. Véase también Ijjas et al. (2017), Scientific American, vol.
316, p. 32. <<
[235]t235">[235] Kamionkowski y Kovetz (2016), Annual Review of
Astronomy and Astrophysics, vol. 54, p. 227. <<
[236] t236">[236] Giddings y Mangano (2008), Physical Review D, vol. 78,
n.º 3, p. 035 009; Hut y Rees (1983), Nature, vol. 302, n.º 5908, p. 508. <<
[237] t237">[237] Homero (c. VIII a. e. c.), Odisea, canto 7, 87. <<
[238]t238">[238] «NYPD’s robot dog will be returned after outrage», New
York Post (28 de abril de 2021). <<
[239] t239">[239] The Guardian (2018), en
«https://www.youtube.com/watch?v=WlLWMk7JB80» (consultado el 28 de
octubre de 2022). <<
[240]t240">[240] De todas formas, los libros La conciencia explicada
(1991), de Daniel C. Dennett, y Gödel, Escher, Bach (1979), de Douglas
Hofstadter, sugieren que la conciencia podría ser una consecuencia natural
de un sofisticado aparato pensante. <<
[241] t241">[241] Turing (1950), Mind, vol. 59, p. 433. <<
[242]t242">[242] The Law Society (2018), «Six ways the legal sector is
using AI right now», en «https://www.lawsociety.org.uk» (consultado el 3
de febrero de 2022). <<
[243]
t243">[243] Suponiendo un formato de paquete de cine digital (DCP,
por sus siglas en inglés) de 250 megabits por segundo y películas de
noventa minutos de duración. Más que suficiente. <<
[244]t244">[244] National Library of Medicines Profiles in Science, perfil
biográfico de Joshua Lederberg, en
«https://profiles.nlm.nih.gov/spotlight/bb/feature/biographical-overview»
(consultado el 28 de octubre de 2022). <<
[245] t245">[245] Blumberg (2008), Nature, vol. 452, p. 422. <<
[246] t246">[246] Más concretamente, los campos eléctricos y magnéticos se
utilizan para inferir la relación entre la masa y la carga de los fragmentos.
<<
[247]t247">[247] Bielow et al. (2011), Journal of proteome research, vol.
10, n.º 7, p. 2922. <<
[248]
t248">[248] Smith (2013), en Encyclopedia of Forensic Sciences,
Cambridge (Massachusetts), Academic Press, p. 603. <<
[249]
t249">[249] El nombre deriva de «algoritmo dendrítico». El término
«dendrítico» hace referencia a la estructura arbórea de las moléculas
orgánicas. <<
[250]t250">[250] La misión debía lanzarse en un cohete ruso en 2022, pero
se ha suspendido debido a la guerra de Ucrania. Ahora se espera que se
lance a finales de la década. En
«https://www.ésa.int/Science_Exploration/Human_and_Robotic_Exploratio
n/Exploration/ExoMars/Rover_ready_next_steps_for_ExoMars»
(consultado el 28 de octubre de 2022). <<
[251]
t251">[251] Planck Collaboration (2020), Astronomy and Astrophysics
Review, vol. 641, n.º 6. <<
[252]
t252">[252] Joyce, Lombriser y Schmidt (2016), Annual Review of
Nuclear and Particle Science, vol. 66, p. 95. <<
[253]
t253">[253] Jaynes (2003), Probability theory. The logic of Science,
Cambridge, Cambridge University Press, p. 112. <<
[254]t254">[254] Existen, literalmente, cientos de artículos académicos en
los que se aplican estas técnicas. Para algunos ejemplos pioneros, véase
Ashton et al. (2019), Astrophysical Journal Supplement, vol. 241, n.º 27;
Verde et al. (2003), Astrophysical Journal Supplement, vol. 148, n.º 195;
Kafle (2014), Astrophysical Journal, vol. 794, p. 59. <<
[255]t255">[255] Lightman y Brawer (1992), The Lines and Worlds of
Modern Cosmologists, Cambridge (Massachusetts), Harvard University
Press. <<
[256] t256">[256] Hawking (1969), Monthly Notices of the Royal
Astronomical Society, vol. 142, p. 129. <<
[257] t257">[257] Ibid. <<
[258]t258">[258] Pontzen (2009), Physical Review D, vol. 79, n.º 10, p.
103 518; Pontzen y Challinor (2007), Monthly Notices of the Royal
Astronomical Society, vol. 380, p. 1387. <<
[259]
t259">[259] Hayden y Villeneuve (2011), Cambridge Archaeological
Journal, vol. 21, n.º3, p. 331. <<
[260] t260">[260] Dicho esto, la limitación de nuestra percepción también
resulta útil, al menos para la industria del entretenimiento: cuando vemos la
televisión, creemos estar percibiendo una gran variedad de colores, pero lo
cierto es que lo que vemos en pantalla es una mezcla de luz roja, azul y
verde en diferentes proporciones. Para un observador externo objetivo, los
colores generados por la pantalla se parecerían muy poco a los del mundo
real, pero para la visión humana, la ilusión producida resulta absolutamente
convincente. <<
[261] t261">[261] Coe et al. (2006), Astrophysical Journal, vol. 132, p. 926.
<<
[262]t262">[262] Fan y Makram (2019), Frontiers in Neuroinformatics, vol.
13, p. 32. <<
[263]t263">[263] Hodgkin y Huxley (1952), Journal of Physiology, vol.
117, p. 500. <<
[264]t264">[264] Swanson y Lichtman (2016), Annual Reviews of
Neuroscience, vol. 39, p. 197. <<
[265] bytes. Véase Statista, op. cit. <<
[266]t266">[266] Hebb (1949), The Organization of Behaviour. A
Neurophysical Theory, Nueva York, Wiley & Sons [hay trad. cast.:
Organización de la conducta, Debate, Barcelona, 1985]; Martin, Grimwood
y Morris (2000), Annual Reviews of Neuroscience, vol. 23, p. 649. <<
[267] t267">[267] Hebb (1939), Journal of General Psychology, vol. 21, n.º
1, p. 73. <<
[268] t268">[268] Fields (2020), Scientific American, vol. 322, p. 74. <<
[269]
t269">[269] Bargmann y Marder (2013), Nature Methods, vol. 10, p.
483; Jabr, «The Connectome Debate. Is Mapping the Mind of a Worm
Worth It?», en Scientific American (2 de octubre de 2012). <<
[270]t270">[270] Rosenblatt (1958), Research Trends of Cornell
Aeronautical Laboratory, vol. VI, p. 2. <<
[271]t271">[271] «Electronic “Brain” Teaches Itself», The New York Times
(13 de julio de 1958). <<
[272] t272">[272] Rosenblatt (1961), Principles of Neurodynamics.
Perceptrons and the Theory of Brain Mechanisms, informe n.º VG-1196-G-
8, Nueva York, Cornell Aeronautical Laboratory. <<
[273]t273">[273] En «https://news.cornell.edu/stories/2019/09/professors-
perceptron-paved-way-ai-60-years-too-soon» (consultado el 28 de octubre
de 2022). <<
[274]t274">[274] Registros de Cornell University News Service, #4-3-15,
2073 562, Mark I Perceptron at Cornell Aeronautical Laboratory, en
«https://digital.library.cornell.edu/catalog/ss:550 351» (consultado el 28 de
octubre de 2022). <<
[275]t275">[275] Hay (1960), Mark I Perceptron Operators’ Manual,
informe n.º VG-1196-G-5, Nueva York, Cornell Aeronautical Laboratory.
<<
[276]
t276">[276] Crawford (2021), Atlas of AI, New Haven, Yale University
Press. <<
[277]
t277">[277] Firth, Lahav y Somerville (2003), Monthly Notices of the
Royal Astronomical Society, vol. 339, p. 1195; Collister y Lahav (2004),
Publications of the Astronomical Society of the Pacific, vol. 116, p. 345. <<
[278]t278">[278] Por ejemplo, De Jong et al. (2017), Astronomy and
Astrophysics, vol. 604, p. A134. <<
[279] t279">[279] Lochner et al. (2016), Astrophysical Journal Supplement,
vol. 225, p. 31. <<
[280]t280">[280] Schanche et al. (2019), Monthly Notices of the Royal
Astronomical Society, vol. 483, n.º 4, p. 5534. <<
[281] t281">[281] Jumper et al. (2021), Nature, vol. 596, p. 583. <<
[282]t282">[282] Anderson (16 de julio de 2008), «The End of Theory. The
Data Deluge Makes the Scientific Method Obsolete», Wired,
«https://www.wired.com/2008/06/pb-theory/» (consultado el 28 de octubre
de 2022). <<
[283]t283">[283] Matson, «Faster-Than-Light Neutrinos? Physics
Luminaries Voice Doubts», Scientific American (26 de septiembre de 2011).
<<
[284]
t284">[284] Reich (2012), «Embattled neutrino project leaders step
down», Nature, «https://doi.org/10.1038/nature.2012.10 371». <<
[285]t285">[285] GDPR, art. 15 l(h); «https://gdpr.eu/article-15-right-of-
access/» (consultado el 28 de octubre de 2022). <<
[286]t286">[286] Iten et al. (2020), Physical Review Letters, vol. 124, p.
010 508. <<
[287] t287">[287] Ruehle (2019), Physics Reports, vol. 839, p. 1. <<
[288]t288">[288] Lucie-Smith et al. (2022), Physical Review D, vol. 105, n.º
10, p. 103 533. <<
[289]t289">[289] «Robots “to replace up to 20 million factory jobs” by
2030», BBC News (26 de junio de 2019), «https://www.bbc.co.uk/news/
business-48 760 799» (consultado el 28 de octubre de 2022). <<
[290] t290">[290] Buolamwini (2019), «Artificial Intelligence Has a
Problem With Gender and Racial Bias. Here’s How to Solve It», Time
Magazine, «https://time.com/5520 558/artificial-intelligence-racial-gender-
bias/» (consultado el 28 de octubre de 2022). <<
[291] t291">[291] Crawford (2021), op. cit. <<
[292]t292">[292] «Twitter admits far more Russian bots posted on election
than it had disclosed», The Guardian (20 de enero 2018),
«https://www.theguardian.com/technology/2018/jan/19/twitter-admits-far-
more-russian-bots-posted-on-election-than-it-had-disclosed» (consultado el
28 de octubre de 2022). <<
[293]t293">[293] Brown et al. (2020), «Language Models are Few-Shot
Lear-ners», en Advances in Neural Information Processing Systems 33,
«https://arxiv.org/abs/2005.14 165v1». <<
[294]t294">[294] Floridi y Chiriatti (2020), Minds & Machines, vol. 30, p.
681; para un ejemplo impactante de un sistema basado en GPT capaz de
escribir código, véase GitHub Copilot, «https://github.com/features/copilot»
(consultado el 24 de octubre de 2022). <<
[295]t295">[295] Fredkin (2003), International Journal of Theoretical
Physics, vol. 42, n.º 2; Lloyd (2005), Programming the Universo, Londres,
Jonathan Cape. <<
[296]t296">[296] En «https://startalkmedia.com/show/universe-simulation-
brian-greene/»; «https://www.nbcnews.com/mach/science/what-simulation-
hypothesis-why-some-think-life-simulated-reality-ncna913 926»;
«https://richarddawkins.com/articles/article/are-our-heads-in-the-cloud»
(consultados todos el 28 de octubre de 2022). <<
[297] t297">[297] Bostrom (2003), Philosophical Quarterly, vol. 53, p. 243.
<<
[298] t298">[298] Chalmers (2021), Reality+, Londres, Allen Lane. <<
[299]t299">[299] En «https://richarddawkins.com/articles/article/are-our-
heads-in-the-cloud» (consultado el 28 de octubre de 2022). <<
[300] ≈ 10, lo que arrojaría un total aproximado de unos 3000 bits. En cuanto
a los Richardson, la cuadrícula inicial, cuya confección Louis Fry atribuye
explícitamente a su esposa, tiene 70 valores de viento registrados con tres
cifras significativas y 45 valores de presión con cuatro cifras significativas
(así como otra información secundaria), lo que da una estimación de 1000
bits. <<
[301] t301">[301] Raju (2022), Physics Reports, vol. 943, p. 1. <<
[302]cúbits, basándose en el cálculo de la entropía de un estado térmico en
ausencia de gravedad. Cualquiera que sea la forma que se elija para hacer el
cálculo, la conclusión básica no se ve afectada: sólo el universo entero
puede simular el universo entero. <<
[303] t303">[303] Preskill (2018), Quantum, vol. 2, p. 79. <<
[304]
t304">[304] Esta idea puede remontarse hasta Wheeler (1992),
Quantum Coherence and Reality, Columbia, World Scientific, p. 281. <<
[305]t305">[305] Barrow (2007), Universe or Multiverse?, Cambridge,
Cambridge University Press, p. 481; Beane et al. (2014), European Physics
Journal A, vol. 50, n.º 148. <<
[306] t306">[306] Einstein (1915), Sitzungsberichte der Königlich
Preufische Akademie der Wissenschaften, Berlín, Verlag der Königlichen
Akademie der Wissenschaften, p. 831. <<
[307]t307">[307] Dyson, Eddington y Davidson (1920), Philosophical
Transactions of the Royal Society of London Series A, vol. 220, p. 291. <<
[308]t308">[308] Morrison (2009), Philosophical Studies, vol. 143, p. 33;
véase también Norton y Suppe (2001), en Changing the Atmosphere. Expert
Knowledge and Environmental Governance, Cambridge (Massachusetts),
MIT Press. <<
[309]t309">[309] Pontzen et al. (2017), Monthly Notices of the Royal
Astronomical Society, vol. 465, p. 547. <<