Academia.eduAcademia.edu

“El big bang en la red del conocimiento”

2011

(recomiendo combinar este artículo con la presentación Prezi correspondiente: "La observación en los mapas del universo") Desde tiempos inmemoriales los seres humanos confeccionaron diagramas y mapas del cielo. Una característica fundamental para que esos mapas pudieran ser mejorados, compartidos y utilizados durante años, es que el cielo presenta un paisaje estable que los antiguos describieron con figuras, escenas de caza, y otras composiciones muy imaginativas. Otra característica fundamental es que el cielo nocturno parece desplazarse del este al oeste, de un modo similar a como lo hace el Sol y la Luna. Es decir, no solo hay puesta de sol cada día, sino que hay puesta de Luna y puesta de estrellas. Casi todos estos mapas tenían una presuposición que no se ponía explícitamente en duda: todas las estrellas están a la misma distancia de la Tierra. Esta manera de concebir al universo como un globo con la Tierra en el centro y las estrellas en una gran cúpula fue persistente y, podemos arriesgar, fundada en nuestra más básica percepción.

Contenido 1. Mapas del universo................................................................................................2 Métodos de medición de distancias. ......................................................................2 Espectros estelares................................................................................................4 Absorción interestelar.............................................................................................5 Nubes de polvo en el mapa....................................................................................5 Efecto Doppler .......................................................................................................6 2. Corrimiento al rojo de las galaxias..........................................................................6 Ley de Hubble.........................................................................................................6 3. Teoría del big bang.................................................................................................7 Del corrimiento al rojo de las galaxias al universo en expansión ...........................7 Espacio, tiempo y espacio-tiempo...........................................................................8 Radiación cósmica de fondo...................................................................................9 A la caza de las inhomogeneidades........................................................................9 La radiación de fondo y el espacio absoluto.........................................................10 4. Efecto horizonte y escenario inflacionario: un triángulo amoroso entre cosmología, astrofísica y física de partículas................................................................................10 5. Otras interpretaciones .........................................................................................12 6. Materia oscura y futuro del universo.....................................................................12 7. Conclusiones .......................................................................................................12 8. Bibliografía...........................................................................................................13 Referencia bibliográfica del presente artículo: Miguel, H. 2011. “El big bang en la red del conocimiento” en Pablo Melogno, Pablo Rodríguez y María Salomé Fernández (comp.) Elementos de Historia de la Ciencia. Comisión Sectorial de Educación / Universidad de la República, Montevideo, pp. 391-418. ISBN: 9789974007604, 433 pp. Hernán Miguel agradece a Osvaldo Ares por sus valiosos comentarios que permitieron mejorar una versión anterior. La teoría del big bang en la red del conocimiento 1. Mapas del universo Desde tiempos inmemoriales los seres humanos confeccionaron diagramas y mapas del cielo. Una característica fundamental para que esos mapas pudieran ser mejorados, compartidos y utilizados durante años, es que el cielo presenta un paisaje estable que los antiguos describieron con figuras, escenas de caza, y otras composiciones muy imaginativas. Otra característica fundamental es que el cielo nocturno parece desplazarse del este al oeste, de un modo similar a como lo hace el Sol y la Luna. Es decir, no solo hay puesta de sol cada día, sino que hay puesta de Luna y puesta de estrellas. Casi todos estos mapas tenían una presuposición que no se ponía explícitamente en duda: todas las estrellas están a la misma distancia de la Tierra. Esta manera de concebir al universo como un globo con la Tierra en el centro y las estrellas en una gran cúpula fue persistente y, podemos arriesgar, fundada en nuestra más básica percepción. En verdad cuando se observa a lo largo de la noche la Cruz del Sur, o Las Tres Marías (componente de la constelación de Orión) se aprecia que estas estrellas se desplazan a lo largo del cielo nocturno formando un conjunto solidario. Es decir que todas ellas van recorriendo el cielo con el mismo ritmo (figura 1). De hecho, si esto no fuera así, no agruparíamos a tales estrellas en constelaciones. Las constelaciones (Orión, La cruz del sur, Centauro, etc.) son grupos de estrellas en ciertas zonas del cielo, y que podamos encontrarlas fácilmente una y otra vez en noches diferentes nos ha inducido a pensar que todas estas estrellas se desplazan juntas porque forman algo así como un casquete o cúpula que rodea a la Tierra. Figura 1. Las dos estrellas más intensas son y de la constelación de Centauro que apuntan a la Cruz del Sur. La mancha oscura en medio de la zona luminosa se conoce como La bolsa de carbón vecina a la Cruz del Sur. Si algunas de ellas estuvieran más cerca y otras más lejos, el efecto que esperaríamos es el que observamos al viajar en la ruta y pasar cerca de un bosque. Los árboles del fondo y los árboles del frente del bosque, parecen tener un movimiento unos respecto de otros de manera que a medida que avanzamos por el costado del bosque, los árboles del frente van ocultando diferentes árboles del fondo. Este efecto conocido como efecto de paralaje, nos da una clara idea de que no todos los árboles están a la misma distancia de nuestra observación. Este efecto es crucial para decidir la distancia a los objetos cuando no tenemos acceso a medir esta distancia por los métodos habituales como los de la cinta métrica o contar los pasos que nos separan del bosque. La primera mala pasada que nos ha jugado la naturaleza ha sido que las estrellas no muestran paralaje a simple vista. No podemos darnos cuenta de cuán lejos o cuán cerca está una estrella mirándola durante toda la noche, o de una noche para la siguiente, o esperando que pasen cientos de años. La situación se parece al caso del bosque cuando el bosque está tan lejos que nuestro movimiento no modifica la manera en que la primera fila oculta a los árboles del fondo. Sin el efecto de paralaje la hipótesis más simple es que todas esas estrellas están a la misma distancia. Los antiguos compartían estos criterios de simplicidad de modo que su concepción del cielo era la de un enorme casquete con estrellas empotradas en él, girando en torno a la Tierra. La actitud podría resumirse en “dime lo que ves, y te diré qué hay”. Pero ¿por qué la humanidad se dedicó desde hace tanto tiempo a representar el cielo y el universo? Esta pregunta tiene muchas aristas para explorar. Solamente señalemos que en caso de que no dispongamos de mapas de cierta zona de la Tierra, como es el caso de los océanos y el desierto, en donde todo luce igual o cambia sin dejar rastro del paisaje anterior, el cielo es el único patrón para orientarnos. Así, los mapas del cielo son mapas útiles para las rutas marítimas y desérticas. Combinando el aspecto del cielo con lo que marca un reloj sincronizado con una ciudad conocida y sabiendo que la Tierra es esférica y cuánto mide su radio, 1 podremos saber cuántas millas hemos navegado hacia el oeste, tal como Colón lo establecía noche a noche. Pero si estos motivos eran suficientes para la tarea cartográfica de los antiguos, no parecen serlo en la actualidad. Los mapas actuales del universo no obedecen a una necesidad de mantener rutas comerciales entre diferentes sistemas solares. Al menos no todavía. Un buen mapa del universo también es el resultado de otras preguntas, no solo de cómo llegar de Europa a América. Un buen mapa puede darnos buenos motivos para conjeturar la manera en que el universo está estructurado, evoluciona, si es que cambia, de qué modo pudo haber comenzado, si es que tuvo un comienzo y de qué modo terminará, si es que tiene un final. Por muy alentadora que pueda ser la situación actual respecto de la acumulación de datos, la precisión y las correlaciones que hemos encontrado, no debemos perder de vista en la empresa científica que nuestras mejores explicaciones de lo que se registra y se observa son siempre una apuesta conjetural como la que haría Sherlock Holmes al encontrar datos, indicios y pistas en la escena de un crimen. Tenemos tecnología para observar más allá de lo que nuestros sentidos nos permiten, tenemos técnicas para decidir cuáles datos están correlacionados con cuáles otros, tenemos la capacidad de idear experimentos que permitan chequear si hemos hecho buenas predicciones, pero todo esto no impedirá que haya explicaciones alternativas a la que nos resulta la más atractiva y la más exitosa. La empresa científica de explicar y predecir el comportamiento de la naturaleza es una empresa abierta a la revisión. Y 1Cuestión conocida por Colón, por los científicos de la época y desde la antigüedad con la estimación del radio terrestre realizada en el 400 a.C. por Eratóstenes. uno de los aspectos más interesantes de la ciencia es que por momentos las revisiones nos cambian drásticamente la manera de concebir nuestro entorno. En este capítulo intentaremos recorrer el sendero que nos llevó como comunidad científica, a creer que la teoría que mejor ajusta con los datos es la teoría del big bang, una teoría que a grandes rasgos indica que el universo apareció con una gran explosión y desde ese momento se sigue expandiendo. Pondremos de relieve en qué aspectos los científicos han tratado de evitar los cabos sueltos y confeccionar un cuadro coherente que nos de la satisfacción de haber comprendido algo de la naturaleza. Los astrónomos y astrofísicos involucrados no han tomado decisiones irracionales o apresuradas. Se han comportado como se espera que lo haga cualquier ser humano frente a las evidencias apoyando la mejor explicación del inmenso volumen de información disponible. Sin embargo el camino desde los datos a la teoría está repleto de decisiones e interpretaciones y es nuestra intención ponerlas en primer plano. Métodos de medición de distancias. Hemos señalado que al no poder utilizar una cinta métrica, los métodos para determinar distancias deben vérselas con la paralaje. Antes de referirnos a la paralaje, revisemos el problema de la medición de distancias en escalas terrestres. Por ejemplo, queremos saber la profundidad de un pozo del que no vemos el fondo. Un ejercicio típico es dejar caer una piedra y registrar cuánto tiempo pasa hasta que se escucha el sonido de la piedra al tocar el fondo. En este tipo de mediciones utilizamos de modo muy familiar el conocimiento empírico de lo que tarda un objeto en caer desde cierta altura. Aunque utilicemos este método de modo aproximado, se puede utilizar un cronómetro y determinar con alta precisión la profundidad del pozo. Otro método típico para medir distancias es el que toma como proceso de medición el fenómeno del eco. Si golpeamos las palmas frente a una pared o una montaña, luego de unos instantes se escucha el sonido reflejado en la pared. Si la pared está muy cerca no podremos distinguir entre el sonido inicial y el reflejado,2 y si está muy lejos no lograremos escuchar el reflejado que llega con poca intensidad. Esto muestra que el método está disponible solo para un rango de distancias, ni más cerca ni más lejos que ese rango. Pues bien, casi todos los métodos de medida tienen esta restricción. Por lo tanto no es de sorprenderse que para medir la distancia a la Luna, a los demás planetas, a las estrellas cercanas, a las galaxias lejanas y a los demás objetos celestes, se utilicen diferentes métodos. A su vez, cada método cuenta con un conocimiento específico que se pone en juego. Si al dejar caer la piedra en el pozo no conocemos la manera en que caen las piedras, el hecho de que se escuche el sonido contra el fondo al cabo de 2 segundos no nos indicaría gran cosa. Por ejemplo, si alguien cree que las piedras caen a un metro por segundo con velocidad constante desde que se las suelta y que el sonido se transmite con velocidad infinita, estará seguro de que el pozo tiene 2 metros de profundidad. Si en cambio toma en cuenta que la piedra se acelera por efecto de la gravedad y que el sonido tiene una velocidad limitada, entonces su estimación de la profundidad del pozo será cercana a los 20 metros. Si no conocemos los fenómenos 2Esta limitación está fijada por el período refractario en el que el oído no puede registrar el segundo sonido por estar muy cercano al primero o por el poder resolvente del oído para distinguir dos sonidos que ocurren muy cercanos en el tiempo. que están en juego en nuestra manera de medir, entonces nuestros resultados no son confiables, y nuestra intervención será ineficaz.3 Dicho esto podemos abordar el problema de la distancia a las estrellas. El método de medir la paralaje se basa en consideraciones geométricas sencillas. Ya los antiguos griegos utilizaban estos métodos geométricos para determinar distancias. Por ejemplo, si queremos conocer el ancho de un río, podemos fijar dos estacas en una orilla y notar que desde cada una de ellas se debe apuntar con diferente ángulo para observar un árbol ubicado en la otra orilla (figura 2a). En el caso de querer determinar la distancia a una estrella, realizamos observaciones desde dos puntos distintos de la órbita terrestre. La dirección en la que hay que apuntar con el telescopio para ver una misma estrella es diferente según el lugar de la órbita (figura 2b). Sabiendo las dimensiones de la órbita, podemos determinar la distancia a la estrella del mismo modo que sabiendo la distancia entre estacas determinamos la distancia al árbol de la otra orilla. Fig. 2. a) se determina el ancho del río a partir de los ángulos y de la distancia entre estacas; b) se determina la distancia a la estrella a partir de los ángulos y de la extensión de la órbita. Para poder determinar este ángulo se deben tener en cuenta dos aspectos adicionales. Por un lado debemos tener en cuenta que como las estrellas parecen realizar un recorrido durante la noche, las dos mediciones separadas por seis meses deben realizarse a la misma hora de la noche. Pero para decidir que es la misma hora, debemos establecer el tiempo respecto del movimiento de las estrellas durante la noche. Dicho de otro modo, queremos medir el ángulo con el que se ve la estrella sobre el horizonte pero sabiendo que el horizonte es el mismo que hemos tomado en cuenta al hacer la medición hace 6 meses. De este modo el marco general del cielo nos permite decidir que las mediciones se realizan a la misma hora. Estamos tomando entonces la hora sideral (respecto de las estrellas) y no la hora solar. El segundo aspecto a tomar en cuenta es que toda medición que se realice no debe confundir el ángulo de paralaje con el ángulo de aberración estelar. Veamos en qué consiste este otro fenómeno. Es bien conocido que aunque llueva verticalmente, cuando más rápido vamos, más inclinada nos parece la lluvia (figura 3). Si hacemos un recorrido ida y vuelta, en ambos trayectos la lluvia nos parece inclinada por el solo hecho de que se 3No parece que fuera eficaz saltar a buscar algo que se nos cayó al pozo si no sabemos si se trata de un pozo de 2 o de 20 metros. suman las velocidades de caída de la lluvia y de nuestro avance para producir una velocidad aparente cuya dirección también es aparente. Si conocemos nuestra velocidad podemos calcular la inclinación que se produce por este efecto. Pues bien, en el caso de observar estrellas que estén en el plano de la órbita este efecto es nulo, 4 pero si la estrella en observación está fuera del plano de la órbita, este efecto debe descontarse para poder determinar el ángulo de paralaje. Figura 3. a) Velocidad aparente; b) Aberración estelar. En síntesis, si tenemos un buen mapa del cielo, sabremos cómo se mueve la Tierra respecto del marco general de estrellas y de ese modo tendremos una buena medida de su velocidad y posición para luego determinar la paralaje de una estrella. ¡Las estrellas son el marco de referencia para poder medir la paralaje a las estrellas! Aunque esto pueda parecer que constituye un círculo vicioso no tiene nada de raro ni de circular. Las calles nos sirven de referencia para saber las distancias entre distintas esquinas de una ciudad y para ubicar una calle en particular o una distancia entre calles. Las estrellas en conjunto nos sirven de marco de referencia para determinar la velocidad y la posición del Sol y de las estrellas unas respecto de otras. Si todas las estrellas fueran como el Sol de brillantes entonces un método más sencillo sería medir cuánto más débiles son unas y otras respecto del Sol y con eso armar un mapa de distancias ya que cuanto más lejos está una fuente de luz, más se atenúa su luminosidad.5 Pero el resultado sería desastroso porque hay distintas estrellas, con distinta masa, con distinta proporción de elementos químicos, con 4Su equivalente sería que estamos subiendo o bajando respecto de la lluvia vertical. No cambia el ángulo en que percibimos la caída de las gotas. distinta temperatura, etcétera. Así como no podemos decidir entre dos focos de luz cuál está más cerca por su luminosidad porque hay focos de diferente potencia, del mismo modo no podemos decidir sobre la distancia a las estrellas hasta que sepamos de qué tipo de estrella se trata. El método de la paralaje nos ha permitido hacer un buen mapa de las estrellas más cercanas y a la vez nos ha confirmado que no todas las estrellas tienen el mismo brillo intrínseco. El mapa que se ha podido confeccionar con este método corresponde a un relevamiento del orden de los 50.000 años luz.6 No obstante todo lo exitoso que ha resultado ser este método, como anticipamos, la paralaje no puede ser calculada para objetos muy lejanos ya que el ángulo es muy pequeño para ser detectado. Para esos casos disponemos de otro método. De todos los tipos de estrellas que hemos estudiado y ubicado con el método de la paralaje hay un tipo especial que tiene una luminosidad variable. Se trata de las estrellas cefeidas.7 Estas estrellas tienen una característica que las hace muy valiosas para nuestros fines cartográficos. La frecuencia con la que realizan un ciclo de variación de luminosidad está fuertemente correlacionada con su luminosidad intrínseca máxima. Queda claro que para obtener esta correlación hubo que medir la distancia a estas cefeidas mediante su paralaje. Una vez conocida la distancia y su luminosidad aparente podemos calcular su luminosidad absoluta o intrínseca, del mismo modo que podemos medir la luz que nos llega de un foco lejano y, si conocemos la distancia al foco, podremos calcular de qué potencia es ese foco. Una vez registrados los valores de luminosidad intrínseca en su punto máximo y el período de variación de varias cefeidas se pudo apreciar que hay una correlación muy buena. Si esta correlación se mantiene para el resto de las galaxias, entonces podemos utilizar las cefeidas de cada galaxia como ‘mojones’ en el universo. El proceso es sencillo, detectamos una estrella cefeida en la galaxia de Andrómeda, por ejemplo, registramos el tiempo que tarda en realizar un ciclo de variación de luminosidad aparente, y con este dato en combinación con la correlación mencionada calculamos su luminosidad intrínseca máxima. Finalmente comparando la luminosidad que nos llega con la luminosidad intrínseca, por medio de la ley del cuadrado de la distancia calculamos a qué distancia se encuentra. En nuestra galaxia podemos aplicar ambos métodos, el de la paralaje y el de la correlación sumada a la ley del cuadrado de la distancia. De hecho, gracias a haber podido determinar sus distancias hemos podido calcular sus luminosidades intrínsecas, y luego hemos podido notar la correlación con el período de variación. Dicho de otro modo, la correlación fue descubierta porque conocíamos la distancia a nuestras propias cefeidas. Entonces, para los casos de las otras galaxias suponemos que la correlación se mantiene y la usamos para determinar las distancias. De este modo podemos ir más lejos con 5Esta relación es bien conocida y se la suele llamar “relación de la inversa del cuadrado de la distancia”. Si comparamos dos fuentes idénticas, ubicadas una al triple de distancia que la otra de nuestro detector, la lectura del detector será nueve veces inferior al enfocar la fuente lejana que al enfocar la fuente cercana. 6Recordemos que el año luz es la distancia que recorre la luz en el vacío durante un año de viaje y equivale a casi diez trillones de kilómetros (9.460.000.000.000 km). 7La primera estrella variables fue descubierta en la constelación de Cefeo. nuestra tarea cartográfica e incluir en el mapa tridimensional al resto de las galaxias, siempre que tengan alguna cefeida entre sus estrellas. Si un día descubriéramos que las cefeidas de otras galaxias no cumplen con la correlación encontrada en la nuestra, el mapa deberá rehacerse. Por el momento no parece haber dificultades en confiar en este segundo método. Un argumento a favor de extender la correlación a las demás galaxias es que suponemos que los procesos físicos que ocurren al interior de las estrellas son del mismo tipo en todo el universo. Si creyéramos que en distintas regiones del espacio y en diferentes momentos los procesos naturales obedecen a distintas leyes, entonces la descripción de lo que ha ocurrido en el pasado, de lo que puede ocurrir en el futuro y de lo que ocurre ahora en otras partes del espacio sería poco más que un juego de dados. Si los procesos dentro de las estrellas de Andrómeda son diferentes de los de la Vía Láctea, entonces ¿cómo saber qué está pasando allá? La presunción de que los átomos son del mismo tipo, de que las fuerzas de atracción y repulsión son del mismo tipo y que se dan los mismos tipos de procesos es una presuposición fundamental en el intento de pintar un cuadro del universo. Si cada átomo en el universo se comporta diferente según la época y el lugar, entonces la ciencia natural deberá fundarse sobre nuevas bases. La ciencia seguirá siendo posible, pero no se parecerá a lo que hemos estado haciendo en las ciencias naturales hasta ahora. Tenemos motivos para defender estos supuestos. Cada vez que hemos extendido el campo de observación hemos visto una de las dos siguientes situaciones: las regularidades obtenidas en las cercanías eran válidas en esos nuevos campos, o bien, en esos campos se notaba por qué esas regularidades tomadas como correctas hasta ese entonces, eran falsas y debían ser remplazadas por otras. No hubo ningún caso histórico que mostrara que las teorías eran válidas en cierta región y no en otra. 8 Los casos históricos más bien muestran que las teorías tomadas como válidas hasta cierto momento, se mostraron falsas en todos sus campos una vez detectado el error. Un caso interesante es el de la mecánica clásica que parece válida al aplicarse a procesos de velocidades bajas comparadas con la velocidad de la luz. Pero esto es un error conceptual. La mecánica clásica parece válida a tenor de cierto margen de error. Si se hacen mediciones con suficiente precisión podremos notar que la mecánica clásica es incorrecta, aun cuando se trate de velocidades pequeñas comparadas con la de la luz. Si podemos hoy utilizar el sistema GPS para obtener exitosamente nuestra posición en el planeta, es porque hemos incluido en los cálculos las correcciones relativistas.9 Un sistema GPS sobre la base de cálculos de mecánica clásica no habría sido exitoso. No hacen falta velocidades estrepitosas, hace falta un nivel de precisión más alto para derrocar a una teoría de su largo reinado. A veces las teorías caen porque no pueden explicar nuevas observaciones. Otras veces las teorías quedan desenmascaradas a la luz del aumento de la precisión. Lo apasionante e ingrato de la aventura científica es que muchas tecnologías nacieron 8Alguien podría replicar que existen singularidades como el propio big bang o el interior de los agujeros negros en donde no parecen cumplirse ciertas leyes. Este señalamiento es correcto pero no se compara con la situación de que las leyes físicas se cumplan en ciertas regiones y no se cumplan en otras equivalentes. 9GPS: sistema de posicionamiento global (Global Positioning System). de teorías bien fundamentadas, como por ejemplo las tecnologías para medir distancias y tiempos fueron posibles gracias, entre otras cosas, a la mecánica clásica. Pero más tarde, estas tecnologías permitieron cotejar con mayor precisión las predicciones de las teorías que les habían dado vida para mostrar que tales teorías no eran tan exitosas como se había pensado hasta el momento. Ahora la máxima del desarrollo científico sería “dadme una teoría y te daré tecnologías para que esas mismas tecnologías te hagan dudar de aquellas teorías”. Volviendo a nuestra preocupación como cartógrafos del universo, encontrar algún otro argumento, más que la sola extrapolación, para sustentar la correlación de las cefeidas sería muy recomendable. Hay una manera en que la ciencia anuda el tejido de sus afirmaciones: la articulación de teorías. Si encontramos una correlación entre la luminosidad y el período para las cefeidas esta correlación debe provenir de algún fenómeno que tiene lugar en el seno de estas estrellas. Y si los fenómenos físicos se dan por igual en todas partes del universo, es esperable que allí donde tengan lugar esos fenómenos haya cefeidas y cumplan igualmente con la correlación descubierta en nuestra galaxia. En resumen, debe pasar algo en el interior de una cefeida para tener esas características observables y eso que le pasa, le pasa a todas ellas sin importar en qué galaxia se encuentran. La física que se encarga de los procesos del núcleo de una estrella tiene un modelo de lo que debe estar pasando al interior de una cefeida y el modelo es suficientemente exitoso. Este modelo no surge como especulación teórica pura sino que se nutre de los resultados experimentales que reproducen los choques entre átomos y partículas subatómicas que creemos están presentes en los núcleos estelares y que son replicados en los aceleradores de partículas. La ciencia teórica y la ciencia experimental son dos caras de la misma tarea de explicar los fenómenos. Mientras que la primera propone una explicación para los datos disponibles del fenómeno a ser explicado, la otra provee datos adicionales que deberían confirmar esas conjeturas. Ahora no solo tenemos la correlación sino que tenemos una respuesta al porqué de tal correlación, aun cuando podría haber otros mecanismos por los cuales las cefeidas tienen ese comportamiento. Sin embargo, al encontrar al menos un mecanismo por el cual los procesos nucleares pueden dar como resultado una pulsación en la radiación y en la luminosidad, nos animamos a afirmar que comprendemos por qué las cefeidas se comportan como lo hacen. Y dado que estos procesos deben ser iguales en otras galaxias, confiamos en nuestro método de medir distancias. El mapa ha llegado a cubrir ahora un espacio del orden de los mil millones de años luz usando la correlación para las cefeidas de otras galaxias. Y creemos que es un buen mapa. Creeremos eso hasta que tengamos nuevas y buenas razones para cambiarlo. Algo inusual ocurre ahora en nuestra tarea cartográfica. Si no sabemos de qué están hechos los objetos que pueblan el universo no podremos continuar el relevamiento. Necesitamos conocer otras características de las estrellas y del material que puebla el universo para poder cotejar nuestros métodos de estimación de distancias y luego agregar cierta dinámica al mapa. Sí, necesitamos un mapa dinámico. Ya sabemos a qué distancia está cada planeta del sol, pero también hemos podido saber cuáles son sus movimientos. Por qué entonces pensar que las estrellas están quietas o que las galaxias están ubicadas siempre a la misma distancia una de otra. ¿Acaso no es algo que debamos averiguar? En los siguientes tres apartados nos ocupamos de las herramientas que nos permitirán suponer de qué están hechos los objetos allá afuera y a la vez introducir movimientos en nuestra “fotografía” del universo para obtener así el mapa dinámico. Espectros estelares El arco iris es una puerta que nos invita a adentrarnos en la investigación de la luz como ninguna otra en la historia de la física. El solo hecho de notar que la luz que proviene del sol está compuesta por varios colores y que es posible descomponerla, abre un panorama que brega por una explicación profunda. Contamos con esa explicación y aunque es bastante compleja, podemos recordar los aspectos básicos para poder comprender más tarde cuán importante fue el problema del arco iris en conformar el mapa actual de nuestro universo. La luz, según sostenemos en la actualidad, puede concebirse como una onda electromagnética en la que lo que se transmite a lo largo del espacio es un campo eléctrico y magnético. Esta tipificación no parece muy atractiva, pero lo que sí puede resultar interesante es que la longitud de onda de la luz y su frecuencia están asociadas a su color. La luz de color violeta tiene una frecuencia mayor, o una longitud de onda menor, que la del color rojo. Nuestro conocimiento de la luz ha sufrido la misma transformación que nuestro conocimiento del cosmos. Hemos aprendido que hay cosas más grandes que los objetos más grandes que hemos percibido, y que hay partículas más pequeñas que las que podemos observar. Del mismo modo hay radiación electromagnética de mayor frecuencia que la de color violeta pero no es visible (radiación ultravioleta, rayos X y rayos gamma) y hay radiación de menor frecuencia que la de color rojo (radiación infrarroja y ondas de radio), pero tampoco es visible. Nuestros ojos son sensibles a un pequeño rango de frecuencias, pero la luz se produce en todo el rango imaginable de frecuencias. Para todo eso que no ve el ojo hemos diseñado otros detectores. Ahora vemos más luz que la luz visible.10 Así las cosas comprendemos qué es la luz, pero vale la pena agregar que nos interesa saber también cómo es que aparece la luz de las estrellas. Cómo es que una pieza de metal a muy alta temperatura comienza a emitir luz. Cómo es que puede haber luz fría como la de los tubos fluorescentes. Todas estas preguntas tuvieron su respuesta entre el siglo XIX y el XX. Todo indicaría que cuando una carga eléctrica se desacelera o frena emite energía en forma de luz. Al calentar un metal agitamos los electrones de los átomos que componen el metal. Los electrones toman energía provista en forma de calor, y luego la emiten en forma de luz. La agitación de estos electrones es la fuente de luz. Encontramos también que a medida que se va calentando el metal, pasa de emitir luz roja a emitir una luz más blanca. Pero a estas alturas sabemos que la luz blanca no es otra cosa que luz de muchos colores, de modo que podemos arriesgar que a medida que el metal está a mayor temperatura emite más luz de frecuencias más altas. Si medimos el color, o la frecuencia de la radiación, en que emite un metal caliente encontraremos un patrón de curvas como el que se muestra en la figura 4. 10Hemos optado por llamar “luz” a la radiación electromagnética y “luz visible” a la que se detecta con el ojo. Nada impide que se reserve el término “luz” para la radiación visible y que para el resto se emplee la terminología “radiación electromagnética no visible”. Figura 4. Curvas (esquemáticas) de radiación según la temperatura (T1< T2< T3). Se puede notar que cuando un objeto de metal está a temperatura ambiente emite solamente en frecuencias no visibles. Al elevar su temperatura, como en el caso de una parrilla al fuego, comienza a emitir principalmente en frecuencias cercanas al rojo. Y al estar a mayores temperaturas, como el hierro en una fragua o el filamento de una bombilla de luz, la máxima radiación ocurre en frecuencias más altas incluyendo el resto de los colores y dando como resultado una luz bastante blanca que es la suma de todos esos colores. Algo así debe estar ocurriendo en el Sol. Una vez más creemos que lo que ocurre aquí es lo que debe ocurrir a todo electrón en el universo. Entonces si conocemos estas curvas de radiación podemos inferir a qué temperatura está el sol. Ahora tenemos una extraordinaria herramienta independiente de la distancia a la que está una estrella. Si registramos su curva de emisión, sabremos a qué temperatura está la estrella, el planeta, el asteroide o cualquier otro cuerpo. Pero no todo lo que ocurre en el sol se parece a la luz del filamento de un foco de luz. Recordemos que también la luz puede obtenerse como en los tubos fluorescentes o en las lámparas halógenas. En este caso el fenómeno es algo diferente. Se hace pasar una corriente eléctrica por un gas, esta corriente eléctrica está formada por electrones libres que viajan a diferentes velocidades, es decir con diferente energía, y al hacer impacto sobre electrones ligados a los átomos del gas, les ceden parte de su energía y así los electrones que están en un nivel de energía en el átomo, pasan a estar en un nivel más alto de energía. Estos electrones excitados se desprenden de su energía cayendo al nivel inicial en un proceso de cascada pasando de un nivel a otro de energía permitido en el átomo de ese gas y en cada escalón de caída emiten un paquete de energía en forma de luz. Utilicemos un análogo para esta situación. Imaginemos que varias piedritas están ubicadas en distintos peldaños de una escalera como los espectadores están sentados en las gradas de una tribuna. Supongamos ahora que al pasar una piedrita a mucha velocidad por la zona de la escalera les comunica a las piedritas una energía que las hace saltar hasta peldaños más altos que el inicial en el que estaban. Ahora imaginemos que las piedritas no son estables sino en sus niveles originales. Lo que sobreviene es una caída de peldaño en peldaño. Y cada vez que una piedrita cae de peldaño, ya sea entre peldaños sucesivos o de a dos o de a tres peldaños, el ruido que hace es característico de la distancia entre peldaños. Bien, en nuestro análogo las piedritas, al volver a su peldaño de origen emiten sonido en cada caída. En el átomo de gas, los electrones excitados emiten luz al pasar de un nivel alto de energía a uno más bajo. En el análogo las piedritas pueden caer de peldaño en peldaño o caer de a dos, de a tres o de a más peldaños. En el gas también. Lo último que nos falta decir para completar el panorama es que para cada elemento químico, la configuración del núcleo del átomo es particular y eso condiciona la diferencia de energía entre los peldaños. Es como si para cada elemento químico las distancias entre los escalones de la escalera fueran diferentes. Entonces, si podemos registrar los distintos tipos de ruidos que hacen las piedritas al caer, podremos decir de qué tipo de escalera se trata. Pues bien, si podemos registrar los distintos colores que emite un gas cuando sus electrones decaen de un nivel a otro, podremos saber de qué elemento químico se trata. Con este sencillo mecanismo podemos saber si cierto elemento químico está presente en una muestra o no. Figura 5. Espectro de emisión (esquemático) de una estrella. Se observan las emisiones típicas de los gases que la componen superpuestos sobre la curva suave de cuerpo negro que está asociada a la temperatura del núcleo de la estrella. El espectro de emisión es la huella digital de cada elemento químico. No hay dos elementos químicos que emitan el mismo patrón de radiación. Dime tu espectro y te diré de qué estás hecho.11 El espectro de una estrella estará formado entonces por dos tipos de emisión. La radiación que sigue la curva de emisión de cualquier cuerpo caliente, 12 y el espectro de emisión que resulte de la suma de todos los gases que están presentes en la estrella. Estos dos espectros sumados son la carta de presentación de la estrella (véase figura 5). A estas alturas deberíamos ya prever el resultado que viene. Todas las estrellas muestran espectros de los elementos químicos que conocemos aquí en la Tierra. Una vez más, lo que ocurre aquí, ocurre allí afuera. Conociendo lo que ocurre aquí, podremos imaginar lo que ocurre allá afuera. Midiendo aquí, sabremos lo que ocurre y lo que ocurrió allá. Las estrellas, constituidas de materia luminosa, nos envían las señales para que conozcamos de qué están hechas. Si el universo está hecho de estrellas, es fácil saber cuánta materia lo puebla, basta con mirar hacia el cielo y analizar los colores. Absorción interestelar Nos quedó un cabo suelto: en el análogo de la piedra que pasa y excita a las piedritas de la escalera, ¿puede la piedra que pasa cederles cualquier valor de energía a las piedritas de la escalera? La respuesta que hemos tenido que aceptar por la abrumadora cantidad de datos es que no. Y esta respuesta negativa y contraria a la intuición dio lugar al nacimiento de la primera cuantificación o cuantificación de la energía. Los electrones del gas no absorben cualquier cantidad de energía sino una que los lleve exactamente de un peldaño a otro, con la salvedad de que sería posible que una piedrita tome tanta energía que salga de la formación de la escalera y escape de todos esos peldaños. En términos del electrón de un gas, el electrón pasa de un nivel a otro, o bien el átomo se ioniza, pierde un electrón. Los electrones que han quedado liberados pueden absorber cualquier valor de energía y emitir cualquier tipo de luz, pero los que permanecen ligados al núcleo, formando el átomo, solo pueden absorber el mismo valor de energía que luego emitirán en total sumando las radiaciones de sus distintas caídas en cascada. La configuración electrónica de un gas hace que absorba determinados valores de energía, aquellos que coinciden exactamente con lo que es necesario para que sus electrones suban de nivel. Y no otra energía. Si bombardeamos un gas con energía luminosa de cualquier valor de energía veremos que solamente absorbe aquellos fotones que coinciden con sus saltos de energía. El átomo funciona como un filtro de la energía que le llega. Absorbe aquellos valores que coinciden con su estructura. Y como la energía es proporcional a la frecuencia, y ésta se asocia con el color, el gas absorberá ciertos colores y dejará pasar otros. Una vez más el gas puede dejar su huella digital. Esta vez al absorber energía. Dime lo que absorbes y también te diré de qué estás hecho. 11Como se puede apreciar este conocimiento es una pieza clave de los peritajes. 12Esta curva se llama “curva de emisión de cuerpo negro” haciendo referencia a la radiación que nos llega de un cuerpo que no refleja radiación. Es decir que registramos lo que emite y no lo que emite sumado a lo que refleja. Nubes de polvo en el mapa Al registrar el espectro de emisión de estrellas lejanas se detectó que la curva de radiación presentaba una hendidura (figura 6). El panorama ahora es bastante comprensible. La luz que viene de la estrella ha atravesado algún gas que es capaz de absorber en la frecuencia justa en donde se halla la hendidura en la curva, y por ese motivo nos está faltando la luz que tiene justo la energía que ese gas ha podido absorber. La luz que tiene esa frecuencia es capaz de proveerle la energía justa a los electrones del gas para que suban de nivel y por ese motivo la han absorbido y falta en el registro. La altura de la curva de emisión indica la cantidad de luz que nos llega de esa frecuencia, de modo que una hendidura es luz faltante. O bien la estrella por algún motivo tiene un déficit en emitir en esa frecuencia, o bien algo la absorbió en el camino. La interpretación más simple es que hay gas interestelar que absorbe en esas frecuencias. Ya que conocemos los espectros de emisión y absorción de todos los gases, podemos decidir qué gas se interpone entre la estrella y nosotros. Sobre el mapa construido con todos los objetos capaces de emitir luz, ahora comenzamos a volcar la información de todo el material que no emite, pero es capaz de absorber. El universo tiene mucho más material que el que se ve. Tiene también el material que nos impide ver algo. Como cuando detectamos un intruso por su sombra, detectamos el material interestelar que queda denunciado por las estrellas lejanas. Gracias a que el gas interestelar no absorbe en todas las frecuencias por igual es que vemos la estrella a pesar de su presencia. Figura 6. Las líneas de absorción debidas a la presencia de polvo interestelar aparecerían de modo similar a como se muestra en el esquema. Ahora no solo la materia luminosa queda al descubierto. Cada material absorbente no luminoso es descubierto por medio de su inevitable intromisión en el paso de la luz. El universo no solo está poblado de materia que emite, también lo está de materia que absorbe. Paradójicamente una y otra no pueden evitar dejar sus marcas en los espectros luminosos. Unas, generándolo y otras, capturándolo. La luz es nuestra mejor herramienta de topografía. En ausencia de nuestro conocimiento de la curva de emisión, esas hendiduras en la curva de emisión no serían indicio de nada interesante. Es el conocimiento que hemos desarrollado acerca de la emisión de los cuerpos calientes lo que nos permite asegurar que algo entre medio se ha quedado con la luz faltante. Nuevamente el conocimiento de cierto fenómeno funciona como un medidor para detectar otro tipo de objetos. Esta característica es muy familiar en la ciencia y no hace más que concatenar un conocimiento con otro. Si no conocemos la manera en que emiten los cuerpos, si no conocemos la frecuencia de cada emisión, si no descubrimos que los materiales son capaces de absorber en cantidades específicas, no podremos inferir la naturaleza de lo que hay en las sombras. También es cierto que si nos equivocamos en cada uno de esos peldaños, nuestra conjetura puede fracasar. Peor aún, aunque no nos equivoquemos en esos peldaños, también la conjetura puede fracasar porque no hayamos tenido en cuenta algún otro factor o fenómeno hasta ahora desconocido. Frente a este panorama la disyuntiva es abandonar la empresa de comprender la naturaleza o mantener la pasión por comprender aun a costa de tener que revisar nuestras creencias cada tanto. Efecto Doppler Hay un efecto muy conocido por nosotros que consiste en el cambio de frecuencia del sonido cuando la fuente se acerca o se aleja de nosotros. El paso de un avión por encima de nuestras casas, el paso de un automóvil de fórmula 1 frente al micrófono, el paso de una ambulancia con su sirena prendida cerca nuestro y el cruce de nuestro auto con otro en sentido contrario en la ruta son ejemplos del efecto Doppler13 en el sonido. Este efecto consiste en que cuando la fuente de sonido se acerca al detector el sonido registrado es más agudo que el que emite la fuente, mientras que cuando la fuente se aleja del detector, el sonido registrado es más grave. Este efecto es fácil de comprender si se piensa en una máquina que expulsa una pelotita de tenis una vez por segundo. Si esta máquina se ubica a cierta distancia del alumno de tenis, por ejemplo, éste recibirá una pelotita por segundo. Pero si en determinado momento la máquina comienza a acercarse al alumno con cierta velocidad, aunque la máquina siga expulsando una pelotita por segundo, al alumno le llegarán con mayor frecuencia. El motivo es que aunque la segunda pelotita es expulsada por la máquina luego de transcurrido un segundo de expulsar la primera, esta segunda pelotita fue expulsada más cerca del alumno, por lo tanto la segunda pelotita le llegará al alumno antes que si hubiera sido expulsada con la máquina en reposo. El efecto contrario ocurre si la máquina se aleja del alumno. Las pelotitas le llegarán más espaciadas, y por lo tanto con menor frecuencia. En el caso del sonido lo que cumple el papel de las pelotitas de tenis es el pico de la onda de presión. Si tomamos en cuenta que la luz también se presenta con características ondulatorias podemos inferir que habrá efecto Doppler lumínico. Esta vez si la fuente de luz se acerca, su frecuencia será más grande que si la fuente estuviera en reposo 13Este efecto fue descubierto y explicado por el físico austriaco Christian Johann Doppler en 1842. respecto del observador. Si en cambio la fuente se aleja, la frecuencia será menor. En términos cromáticos, si la fuente se acerca habrá un corrimiento hacia el azul de las frecuencias emitidas y si se aleja, habrá un corrimiento al rojo. En el caso de la sirena de una ambulancia aun cuando al alejarse se escuche más grave que cuando se acerca, el sonido no deja de ser el sonido de una sirena, típicamente agudo. Del mismo modo si una estrella se aleja, la modificación de la frecuencia de emisión es bastante sutil de modo que su color no cambia, sino que las frecuencias que son típicas del hidrógeno en el laboratorio han quedado corridas una pequeña fracción en dirección hacia frecuencias menores. Cuanto mayor es la rapidez tanto mayor es el desplazamiento en frecuencias. Finalmente tenemos información de la dinámica de nuestro universo. Si una estrella está en reposo respecto de nuestro sol, sus líneas de emisión, es decir la emisión de sus gases, estará ubicada del mismo modo que está ubicada en el espectro del sol. Si se acerca a nuestro sistema solar, sus líneas de emisión estarán desplazadas levemente hacia las frecuencias mayores, y si se aleja, hacia las frecuencias menores, es decir hacia el rojo. El efecto Doppler se constituye en nuestro nuevo instrumento de medida. Primero fue el ángulo de paralaje para el mapa de nuestra galaxia, luego la correlación luminosidad-período de las estrellas cefeidas para el resto de las galaxias, más tarde la emisión y absorción para las nubes de polvo y ahora el efecto Doppler para determinar la danza de las estrellas y las galaxias. El mapa crece en extensión, crece en elementos representados y ahora, adquiere movimiento. 2. Corrimiento al rojo de las galaxias El mapa del vecindario se completó entonces con las distancias a las estrellas más cercanas y con los movimientos de cada una de estas estrellas, tanto en lo que respecta a su movimiento transversal14 como a su alejamiento o acercamiento determinado por el efecto Doppler. El mapa de nuestra galaxia estaba completo. La Vía Láctea, en forma de espiral, con el Sol y sus planetas en una de las ramas más alejadas del centro, giraba sobre sí misma, tenía un par de galaxias parásitas orbitándola, la Nube Grande y la Nube Pequeña de Magallanes, y todo este conglomerado se encontraba en un vecindario de galaxias que identificamos como el Grupo Local. Todo este vecindario forma un racimo de galaxias. Mucho más lejos todavía hay otros racimos de galaxias. Y en una escala más alejada notamos que estos racimos se distribuyen en super racimos a lo largo de finas hebras formando un tejido de materia estelar a lo largo de todo un universo luminoso pero heterogéneo. El espacio entre las distintas hebras de racimos de galaxias parece vacío de material. Si hay algo, es de una concentración tan leve que casi no absorbe la luz que tiene de fondo. En un mapa realizado sobre la base de que los cuerpos luminosos emiten y los cuerpos opacos absorben, la transparencia es la huella que deja el espacio vacío. El mapa entonces muestra un tejido de materia y las hebras de ese tejido delimitan enormes espacios vacíos. No tardaríamos en preguntarnos por qué la heterogeneidad y no la uniformidad. ¿Hay alguna razón para que la materia se aglomere preferentemente a lo largo de ciertos surcos generando así un entretejido de hebras altamente densas comparadas con grandes extensiones de espacio vacío? Habría que 14Calculado a partir de mediciones realizadas en diferentes años. esperar hasta finales del siglo XX para tener indicios de que esta inhomogeneidad proviene de alguna inhomogeneidad originaria. Quizás haya que esperar varias décadas más para tener indicios de por qué hubo alguna inhomogeneidad originaria. Ley de Hubble Edwin Hubble identificó estrellas cefeidas que claramente no pertenecían a la Vía Láctea. Por aquella época (mediados de 1920) el mapa parecía indicar que el universo constaba de nuestra propia galaxia y nada más. A través de la correlación para las cefeidas, las estrellas identificadas por Hubble abrieron el panorama de todo ese espacio más allá de nuestra galaxia. Y la tarea entonces fue rehacer el mapa. Al acometer la tarea de completar la parte dinámica del mapa, Hubble midió el corrimiento de emisión de una veintena de galaxias y encontró que todas ellas mostraban corrimiento hacia el rojo, lo cual indica, si se interpreta este dato a la luz del efecto Doppler, que todas ellas se alejan de nosotros. Más aun, cuanto más lejos está una galaxia más rápidamente se aleja. Más tarde, con ayuda de las mediciones de Humason15 se ajustó la relación inicial que pareció bastante errada, pero siguió siendo evidente que las galaxias más lejanas se alejan más rápidamente de acuerdo a la relación siguiente entre la velocidad (v) de alejamiento y distancia (d) a la galaxia: v = H0 · d [1] O bien, podemos indicar que la distancia entre galaxias vecinas se va modificando por el movimiento, de modo que: d(t) = d0 · a(t) [2] en donde a(t) indica la proporción en la que se incrementan las distancias a medida que transcurre el tiempo. H0 es la constante de proporcionalidad (constante de Hubble) y actualmente se estima entre 71 y 80 km/s, notoriamente diferente de las estimaciones iniciales16 de Hubble debido a las imprecisiones en la determinación de las distancias. Esta discrepancia no es una mera afinación del cálculo. Una vez más la ciencia teje su tapiz para representar la naturaleza y un error en un dato se propaga a todo aquello que se apoya en ese dato. Esta situación hace endeble al conocimiento científico pero a la vez, el hecho de que las nuevas tecnologías sigan mostrando que hay una correlación entre la velocidad de alejamiento y la distancia de las galaxias a pesar de que las mediciones de distancia y de velocidad se han perfeccionado, nos hace persistir en 15Milton Humason (1891-1972) suspendió sus estudios secundarios y se quedó a trabajar como arriero de mulas durante la construcción del Observatorio del Monte Wilson. Se casó con la hija de uno de los ingenieros del Observatorio quien al tiempo lo invitó a cubrir una vacante de cuidador allí mismo. Demostrando ser muy diestro fue ascendido a ayudante y de ese modo trabajó con Hubble en la determinación del espectro de más de 600 galaxias. En 1947 fue nombrado Secretario de los observatorios Monte Wilson y Monte Palomar y en 1957 recibe un Doctorado Honoris Causa en Suecia. 16La relación publicada en 1929 indica un valor de 530 km/s por millón de parsecs. Un parsec es la distancia a la cual la distancia Tierra-Sol se vería bajo un ángulo de un segundo de arco y equivale a casi 31 billones de km, o bien unos 3,26 años luz. nuestra sensación de haber acertado en que esta relación está allí afuera y que no es solo el fruto de la casualidad de los datos que hemos recopilado. Una novedad revolucionaria aparece entonces en el horizonte de la investigación. La dinámica de nuestro mapa denuncia un estado de cosas totalmente asombroso. Mientras que era esperable que cada galaxia tuviera mayor o menor rapidez y que sus velocidades se repartieran entre las que se alejan y las que se acercan como ocurre entre las moléculas de un gas, todas las galaxias formaban, en conjunto, cierto patrón. El panorama era desconcertante: presenciamos la huída colectiva y coordinada de todas las galaxias que hemos podido medir. Hubble nos hizo ver que era necesario construir telescopios más potentes. Después de todo, había todo un universo para explorar más allá de nuestra galaxia. Cuando se le preguntó qué esperaba observar con esos nuevos telescopios respondió que tenía la esperanza de encontrar algo inesperado. 3. Teoría del big bang Del corrimiento al rojo de las galaxias al universo en expansión Los pasos siguientes parecen más o menos sencillos. Sin embargo daremos esos pasos con cautela. El panorama de la fuga en masa de las galaxias y la correlación que se encuentra entre su distancia y su velocidad nos recuerda el panorama que podría fotografiarse desde el centro de un estadio en el que ha finalizado un encuentro deportivo. Los espectadores que vuelven a sus casas caminando más rápidamente, al cabo de unos minutos serán los que estén más alejados del estadio. Los espectadores que caminan más lento no se habrán alejado tanto del estadio como lo han hecho los primeros. Se puede comprender fácilmente que cuanto más alejado está un espectador del estadio, tanto más rápido tiene que haber caminado desde la finalización del encuentro. Lo mismo ocurriría con la dispersión de las esquirlas de una granada. Así se comprende que no todas las esquirlas viajan juntas sino ordenadas en velocidad, lo cual puede apreciarse como una distribución que va desde esquirlas lejanas muy rápidas hasta esquirlas más lentas ubicadas en zonas más cercanas al centro de la explosión. Estos dos análogos nos impulsan a pensar que nuestra galaxia está ubicada en el centro de una explosión de la que se desprendieron las demás galaxias. Esta idea habría sido muy tentadora y habría constituido un nuevo tipo de geocentrismo, salvo que ahora el papel central era el de nuestra galaxia y no el de nuestro planeta. Sin embargo aquí la precisión de las mediciones y la presencia para esa época de la teoría de la relatividad nos protegió de semejante galactocentrismo. Las velocidades de alejamiento de las galaxias no solamente cumplen con la “ley de Hubble” sino que desde cualquier galaxia que se hicieran las mediciones se obtendría el mismo panorama de alejamientos. Es decir que no se trata de que todas las galaxias se alejen de la nuestra sino que todas las galaxias se alejan de todas las demás. Este panorama entonces nos estimula a buscar mejores analogías. Tomemos ahora el caso de un globo moderadamente inflado. Pintemos marcas en el globo de manera que parezca un globo a lunares. Tomando como punto de referencia cualquiera de estas marcas, los lunares vecinos se encuentran a cierta distancia sobre la superficie del globo. Ahora inflemos un poco más el globo. El resultado será que los lunares vecinos se han alejado. ¡Pero este alejamiento de los lunares vecinos le ocurre a todos y cada uno de los lunares del globo! Este resultado se obtiene porque el globo se ha expandido, se ha estirado en cada punto de su superficie. Esta analogía parece un poco mejor ya que rescata tanto el alejamiento de los vecinos como la ausencia de una marca privilegiada que pudiera asociarse con el centro de la expansión. Pues entonces la conjetura que los científicos han preferido es la de que el universo está en expansión. No se trata de que las galaxias viajen a grandes velocidades por el espacio, aunque eso puede ocurrir también. Se trata de que el espacio mismo se está expandiendo y las galaxias ubicadas en cada lugar son las marcas que nos permiten medir la velocidad de esta expansión.17 Cada vecino ve un panorama equivalente. Desde cada punto del universo se ve este mismo espectáculo dinámico y se puede llegar a los mismos cálculos. Nada especial ocurre cerca nuestro, solo que nos hemos dado cuenta de ello. En este punto los científicos se hicieron las preguntas típicas: ¿Siempre ha estado en expansión el universo? ¿Si ahora se expande, cómo fue en el pasado? Si viéramos este panorama en reversa, como pasando una película hacia atrás, ¿qué veríamos en la pantalla? La respuesta a esta última pregunta no se hizo esperar. Al invertir el sentido del tiempo, todo aquello que se aleja resulta acercarse de modo que la película nos mostraría cómo las galaxias se irían aglutinando al estrecharse las distancias entre ellas. A medida que se desarrolla la película veríamos acercarse primero las galaxias más cercanas y más tarde las más lejanas, hasta aglutinarse toda la materia y la energía en un punto único del espacio que habría dado lugar a una gran explosión. Y de allí el nombre de big bang. Del mismo modo que la filmación detallada de una explosión al observarla en reversa mostraría cómo todos los restos de la explosión se reúnen en el punto de la explosión, así los científicos imaginaron que todo el material que está desparramado en el universo en expansión se reuniría en un punto. La misma trama del espacio se comprimiría hasta que todo el espacio disponible se redujera a un punto. Ese punto sería el comienzo de todo lo existente en el universo. Sería el comienzo del universo mismo. Espacio, tiempo y espacio-tiempo Un detalle importante viene a complicar la intuición en este momento. ¿Qué relación hay entre el espacio y el tiempo? Al pasar esa película hacia atrás estaríamos viendo lo que ocurrió en el pasado. Pero a su vez, estaríamos viendo cómo se compacta el mismo espacio en ese punto. ¿Podríamos pensar entonces que ese punto explota en determinado momento de un tiempo que venía transcurriendo? En ese caso seguramente querremos preguntar qué había antes de la explosión, cuál fue la causa de la explosión y toda una serie de preguntas relativas a momentos previos. El detalle importante es que espacio y tiempo ya no están desacoplados. Más bien el problema debe enfocarse como el surgimiento del espacio-tiempo y no como el surgimiento del espacio en el tiempo. Una pista para comprender este acoplamiento es la siguiente. Todo aquello que vemos en el cielo no es más que una imagen que se generó tiempo atrás en los objetos que hoy observamos. Por ejemplo, al ver un atardecer estamos viendo el Sol tal como era hace unos 7 minutos. Esto es una consecuencia directa de que la luz no 17Las distancias a las galaxias pueden tener un error importante pero parece ser que el universo se expande entre un 5 y un 10 % cada mil millones de años (Hawking 1996). tiene velocidad infinita. Cada imagen se toma su tiempo en ir desde el origen hasta nuestro ojo. Lo mismo ocurre con la luz de cualquier frecuencia, no solo la luz visible.18 Toda imagen que tomemos de un objeto mostrará cómo era el objeto cuando la luz partió de él. Del mismo modo que cuando tomamos una fotografía con flash de nuestra amiga, lo que queda grabado en la memoria de la cámara es la imagen de cuando la luz del flash se reflejó en el rostro de nuestra amiga. En el caso de las fotos no nos parece que quede registrada una imagen ‘antigua’ de nuestra amiga, y lo mismo para el caso de la puesta de sol. Pero al tratarse de objetos lejanos en la galaxia, la imagen es bastante vieja. Por ejemplo, la estrella más cercana está a unos 4 años luz. Eso indica que la luz tarda 4 años en llegar a la Tierra. Por lo tanto, la imagen que tomamos de ella en una fotografía tiene 4 años de atraso. La imagen que registramos de la galaxia de Andrómeda tiene un atraso de 2 millones y medio de años. Es decir que vemos la imagen de cómo era Andrómeda hace 2,5 millones de años. Pero ¿existe la posibilidad de saber cómo es Andrómeda ahora? La respuesta afirmativa es desalentadora: sí, lo sabremos dentro de 2,5 millones de años. La única respuesta sincera y correcta que podemos dar hasta ahora es que no hay manera de saber hoy cómo es Andrómeda hoy. Dicho de otro modo, no podemos esperar que la ciencia nos provea esta información. Y esto nos tiene que hacer reflexionar. ¿Qué significa para un científico que las cosas sucedan de tal modo que es imposible realizar ciertas mediciones? Aquí la comunidad puede dividirse. Algunos podrán decir que tiene sentido hablar de objetos que son inmedibles o de procesos que son indetectables, pero ése no sería el espíritu por el cual la ciencia se ha diferenciado de la religión o el mito. La ciencia ha aceptado que aquello inmedible e indetectable no puede formar parte de sus teorías. No se trata de tomar partido por la inexistencia de unicornios, ángeles o demonios. Se trata de que la ciencia no se ocupe de ellos. Algunos científicos han sostenido que lo que no es medible no existe. Tengo una enorme envidia por su sabiduría en la que al no poder medir algo obtienen inmediata información sobre su inexistencia. Lamentablemente otros pensamos que si algo no es detectable, sencillamente la ciencia no debe ocuparse de ello, aunque esta situación, justamente por no poder tener ningún registro del asunto, no nos provee información sobre la existencia o inexistencia de tales objetos y procesos tan huidizos. Lo que seguramente no haremos ni unos ni otros es discutir sobre tales objetos indetectables, ya que cualquiera podría sostener cualquier afirmación sin correr riesgos de verse en problemas con los datos. Y si hay algo que ha sido de interés en la ciencia, con mayor o menor importancia según la discusión de que se trate y los actores involucrados, han sido los datos. Pues bien, entonces tenemos el siguiente problema: el objeto “Andrómeda hoy” es inmedible, indetectable, incognoscible. A cambio tenemos como objeto de estudio a “Andrómeda hace 2,5 millones de años”. No hay objetos existentes en el espacio sino en el espacio-tiempo. Los objetos están situados en un lugar y en un instante. 18Lo mismo ocurre con las comunicaciones entre la Tierra y las sondas espaciales. En particular, al enviar la sonda Pathfinder al planeta Marte se desarrolló un software particular para que la misma sonda “tome decisiones” frente a dificultades en el terreno ya que la imagen que nos enviara la sonda tardarían alrededor de 7 minutos y las órdenes para modificar el movimiento de la sonda tardarían en llegar otros 7 minutos: 14 minutos son demasiado tiempo para la orden de frenado desde la Tierra si la imagen era la de un precipicio. Estamos malacostumbrados a nombrar objetos en lugares sin hacer mención del instante gracias a que suelen persistir con muchas de sus características intactas o moderadamente similares durante cierto tiempo. Pero no es cierto que podamos conocerlos si no aclaramos en qué lugar y tiempo se encuentran. Por lo tanto, cuanto más lejos enfocamos nuestros telescopios o radiotelescopios tanto más antigua es la imagen y por lo tanto esas imágenes proveen información de cómo eran las cosas hace miles de millones de años. Cuanto más lejos enfocamos tanto más joven es el universo que vemos. Otra pista importante para reconocer la conexión entre el espacio y el tiempo la provee la teoría de la relatividad. A finales del siglo XIX se quiso medir la velocidad de la Tierra respecto del presunto material en el que se transmitía la luz. Dado que la luz tiene características ondulatorias19 los científicos pensaron que sería como el resto de las ondas: una perturbación en cierto medio elástico. Como las ondas de sonido consisten en la vibración del aire, la luz, pensaron, debería ser una perturbación en el éter luminífero. Si las ondas de luz viajan por el éter y la Tierra se desplaza en su órbita, entonces en diferentes tramos de su trayectoria la suma de velocidades de la luz y de la Tierra daría resultados diferentes. En eso justamente consistía el problema de la aberración estelar que hemos graficado en la figura 3. La aberración estelar parece ser una evidencia de que la Tierra se mueve respecto de un éter en reposo. Sin embargo todos los intentos de medir la velocidad de la Tierra respecto del presunto éter fueron en vano. Los resultados indicaban que la velocidad de la luz no se sumaba a la de la Tierra sino que la luz siempre viajaba con la misma velocidad sin importar el marco de referencia desde donde se midiera esa velocidad. Este resultado produjo consecuencias muy importantes en la manera en que comenzamos a comprender los fenómenos asociados con el movimiento. Si al tomar una fotografía con flash la velocidad del destello es la misma sin importar si estamos quietos o en movimiento, entonces lo que antes era intuitivamente una suma de velocidades ahora acarreará una modificación de las distancias y las duraciones. La velocidad de la luz en el vacío no se suma con la velocidad de la fuente ni con la velocidad del observador. Su valor parece ser una constante universal. Como consecuencia de ello la gran novedad es que la simultaneidad depende del sistema de referencia y lo mismo ocurre con las longitudes. Cada lector puede ahora prever que también las duraciones se ven modificadas. Efectivamente se realizaron mediciones que confirman la diferencia predicha por la teoría. Los fenómenos tienen duraciones diferentes según la velocidad del sistema de referencia.20 19La luz tiene características de partícula y también de onda. Es habitual sostener que no pueden registrarse ambos tipos de características al mismo tiempo. Sin embargo en la actualidad se están realizando experimentos para lograr que una vez confinado un fotón en una caja de resonancia interactúe consigo mismo en forma de partícula. Esto se pretende lograr al dividir el fotón en uno que resuena como onda y otro que rebota entre dos espejos como partícula. 20Como ejemplo citemos que el tiempo de vida media del muón medido para muones de baja velocidad (obtenidos en laboratorio) es menor que el tiempo de vida media de los muones que viajan a altas velocidades y la diferencia coincide con la predicha por la teoría para los niveles de precisión actuales. Para coronar esta situación la teoría de la relatividad general predice en total acuerdo con las observaciones que la luz viaja por los caminos más cortos, tal como ya lo afirmaban las teorías anteriores, pero que esos caminos están modificados por la cantidad de masa presente en las inmediaciones.21 La luz que nos llega de las estrellas ha recorrido una trayectoria como lo haría una pelota de golf que rueda por una lomada. Los rayos de luz al pasar cerca de una gran concentración de masa se desvían como si la distribución de masa funcionara como una lente. Espacio, tiempo, distribución de masa y trayectoria de la luz están enlazados. Por este motivo si tuviéramos un mapa que además diera cuenta de la distribución de masa en el espacio podríamos anticipar si el espacio es cerrado, abierto o plano. En un universo cerrado la trayectoria para la luz está atrapada en el espacio como un meridiano que constituye una geodésica de la superficie terrestre de modo que el espacio posible para ser recorrido por la luz es finito aunque sin límites (igual que al circunvalar la Tierra). Nuestro mapa, para ser completo, debería informarnos entonces también sobre la distribución de masa en el espacio. Dicho esto podemos retomar el problema de la expansión y de cómo se vería una película rodando hacia atrás en el tiempo. El resultado sería que todas estas galaxias ubicadas en puntos del espacio-tiempo se aglutinarían en un punto. Ese punto corresponde al punto en el que habría surgido la materia, el espacio y el tiempo y desde ese punto el universo comenzó a expandirse. Ese punto constituye el origen de nuestro universo. El big bang es el origen del espacio-tiempo y de toda la energía contenida en él. No tiene sentido preguntarnos por instantes previos al big bang como no tiene sentido preguntarnos qué hay al sur del polo sur. En el big bang solo hay un entorno hacia el futuro porque allí surge el tiempo. En el polo sur solamente hay un entorno en dirección al norte, porque allí toda trayectoria se aleja del sur. A partir de esa gran explosión la energía inicial (que es toda la que hay en el universo hoy) comenzó a ocupar más y más espacio de modo que a medida que transcurría el tiempo la energía en cada porción del espacio descendía. Los científicos creen que la forma en que se manifestaba tal energía en las primeras etapas no debía ser tal como se presenta ahora en forma de partículas y radiación sino que solo podría haber habido radiación. A medida que el espacio se expandía, la energía se ‘desparramaba’ de modo que su densidad disminuía. Habrá llegado un momento en que la energía por unidad de volumen era suficientemente baja como para que las partículas y antipartículas que se formaran a partir de esa energía no se volvieran a transformar en radiación. En ese momento las partículas comenzaron a ser estables. Dicho de otro modo, los choques entre fotones crearon partículas, y estas partículas chocaban con menos energía que la necesaria para desintegrarse en fotones. De este modo una vez creadas las partículas, parte sustancial de ellas permaneció sin transformarse en radiación. Sin embargo aquella época prolífica de creación de partículas no duró para siempre. El espacio siguió expandiéndose y con ello la energía por unidad de volumen siguió bajando, la 21Gracias a este efecto podemos detectar agujeros negros que no emiten radiación pero que nuclean tal cantidad de masa en una región del espacio que son capaces de actuar como lentes convergentes gravitatorias. Cuando observamos las imágenes de dos quasars gemelos con procesos simultáneos apartados por un pequeño ángulo creemos que en realidad se trata de dos imágenes de un mismo quásar cuyas señales luminosas han sido deflectadas por algún agujero negro que se halla entre el quásar y la Tierra. Véase Turner 1988. temperatura siguió bajando. Esto significó que los choques entre fotones ya no fueron tan energéticos y entonces ya no se crearon tantas partículas como antes. El Universo había obtenido un equilibrio entre la radiación existente y las partículas que de ella habían surgido. Es aquí donde se hace evidente que nuestro conocimiento de las características de las partículas, la manera en que aparecen cuando hay gran concentración de energía,22 la manera en que decaen unas en otras cuando chocan entre ellas o que decaen espontáneamente al cabo de distintas duraciones y los modos de interacción que se establecen entre ellas, son todas cuestiones cruciales para comprender los procesos cosmológicos. Y ya que no hemos podido estar allí para ver todo aquello, qué mejor que reproducirlo del modo más similar posible. Por este motivo los científicos se lanzan a la construcción de enormes aceleradores de partículas. En ellos, las partículas son aceleradas a velocidades cercanas a la de la luz y son dirigidas hacia un blanco, otra partícula, para producir choques tan energéticos como los que suponemos deben haber tenido lugar en esas primeras etapas de nacimiento de las partículas. Es así que creemos estar reproduciendo etapas tempranas del big bang cuando llevamos a cabo experimentos en los aceleradores de partículas. Con la aparición de las partículas con masa en reposo y su persistencia en el tiempo se hizo preponderante la fuerza de atracción gravitatoria. Esto provocó que las partículas se fueran agrupando en grandes nubes y a su vez, que esas nubes siguieran compactándose por la fuerza atractiva hasta formar galaxias y estrellas. También esa fuerza de atracción hace que las distintas partes masivas del Universo se atraigan de modo que se reduzca en parte el efecto expansivo del espacio. La pregunta que la ciencia se hace todavía es si la atracción gravitatoria podrá reunir nuevamente toda la masa colapsando hacia un punto en un big crunch, o si la expansión no tendrá freno y los cuerpos se alejarán unos de otros indefinidamente hasta nunca más interactuar.23 ¿Pero tenemos alguna prueba de que haya habido una explosión así, más allá de que encaja perfectamente con la expansión que se concluye a partir del corrimiento al rojo? Dicho con más detalle. Hemos visto que todas las galaxias registradas muestran corrimiento al rojo. Creemos que este corrimiento al rojo indica que las galaxias se alejan de la nuestra. Hemos calculado que este efecto se registraría del mismo modo desde cualquier otra galaxia. Esto nos llevó a conjeturar que el universo está en expansión. Y si está en expansión debe haber explotado alguna vez. Hasta aquí parece no haber escapatoria a que las cosas ocurrieron como lo sugiere la teoría del big bang. Entonces, ¿por qué pedir otras evidencias? ¿Por qué pedir predicciones exitosas si ya hemos obtenido explicaciones exitosas? ¿Por qué esperar que la 22No olvidemos que las partículas con masa tienen una energía equivalente dada por la relación tan conocida que debemos a Einstein: E = m · c2. Según esta relación podemos prever que en caso de concentrarse toda esa energía en un punto, podrá crearse una partícula con exactamente esa masa en reposo (estrictamente se pueden crear pares de partículas de modo de conservarse otras magnitudes como la carga, el espín, etc.). De igual modo las partículas pueden desaparecer como tales y dejar en su lugar esas cantidades de energía. 23Para el caso de producirse un big crunch se ha especulado sobre si esa concentración daría pie a un nuevo big bang y así sucesivamente en un universo de existencia cíclica. Sin embargo esta idea pasa por alto que el instante inicial cuenta como una singularidad en la que los nexos causales se desvanecen y un siguiente big bang no tendría conexión con el anterior. explicación propuesta para el corrimiento al rojo también sea fructífera en explicar otros fenómenos? Si las cosas no podrían haber sido diferentes dados los datos de que disponemos, ¿para qué necesitamos otra confirmación? La respuesta es que no es cierto que los datos indiquen ineludiblemente que hubo una explosión y por eso precisamente sería de mucho valor contar con evidencias adicionales sobre la presunta explosión. Además, el valor predictivo de una teoría es una de sus cartas credenciales. No son bien vistas las explicaciones que solo indican cómo ocurrieron las cosas ya registradas pero que no pueden decir algo más sobre lo que todavía no hemos registrado. No es una condición imprescindible que una teoría tenga predicciones, pero es deseable que las tenga y, obviamente, que éstas se cumplan. Más adelante abordaremos brevemente el problema de que los datos son compatibles con otras interpretaciones. Ahora abordaremos el problema de cómo se consiguió esa evidencia adicional. Radiación cósmica de fondo En 1964, Arno Penzias y Robert Wilson, dos radioastrónomos norteamericanos, estaban intentando medir la radiación de microondas de nuestra propia galaxia en direcciones alejadas del centro galáctico. La técnica para esta investigación era apuntar la antena del radiotelescopio directamente al cielo en esas direcciones y tratar de registrar una señal muy débil ya que la mayor intensidad proviene del centro galáctico y no del resto. La tarea de ajuste y calibración de la relación señal ruido es crucial al tratarse de señales cuya intensidad está en el orden de la intensidad del ruido. Esta calibración involucra calcular la cantidad de radiación que ingresa debido a la atmósfera para poder descontarla. Esta radiación depende del espesor de atmósfera que se encuentra en la dirección a la que apuntamos la antena de manera que el ruido es menor en dirección directamente vertical que en las demás direcciones. Pues bien, Penzias y Wilson sintonizaron el detector para hacer el relevamiento en cierta frecuencia y el detector marcó cierta intensidad. Obviamente necesitaban distinguir qué cantidad era identificada como señal y qué otra cantidad como ruido. Todo detector marca algo aunque no haya nada para ser detectado y lo asociamos con el ruido. Un receptor de televisión muestra algo en la pantalla aun cuando no se trata de la señal de una emisora. Este ruido no se confunde con la señal de la emisora. Cuando la señal de la emisora es muy mala, vemos en la pantalla un poco de la imagen que nos envía la emisora y un poco de ruido (en forma de lluvia en los pixeles de la pantalla). Si la relación señal ruido es mala, podremos igual detectar de qué programa se trata, pero cuando el nivel de la señal y la del ruido es del mismo nivel, será difícil distinguir qué estamos viendo. De forma similar Penzias y Wilson debían distinguir cuánto de lo que el detector mostraba era ruido y cuánto era señal. Para ello orientaron el detector en diferentes direcciones esperando poder encontrar la variación asociada al espesor de la atmósfera, pero en todas direcciones la señal era la misma. Para que podamos apreciar la situación imaginemos que queremos detectar el 24 smog del aire con unos prismáticos. Subimos a la terraza de nuestro edificio y orientamos nuestros prismáticos hacia el norte. Vemos que el aire está turbio. Luego 24Recordemos que “smog” es una palabra acuñada como condensación de las palabras smoke (humo) y fog (niebla). miramos con los prismáticos hacia el sur y vemos una nube idéntica. Movemos los prismáticos en una dirección u otra, y el smog sigue allí. ¿Qué haríamos? La respuesta más probable es que revisaríamos y limpiaríamos los prismáticos. Muy bien. Penzias y Wilson revisaron la antena y encontraron que dos pichones pasaban la noche allí y que estaba sucia. Se ocuparon de desalojarlos y limpiar la antena.25 Sin embargo, luego de limpiar la antena el detector seguía indicando la misma señal. ¿Qué haríamos si luego de limpiar los prismáticos seguimos viendo la misma nube en todas direcciones? Ahora la respuesta más sensata es cambiar de prismáticos. Penzias y Wilson hicieron lo que habitualmente hace cualquier científico: pedir que otros investigadores con otros instrumentos prueben con las mismas configuraciones para ver qué detectan. Así fue y los demás detectores marcaron lo mismo. Si todos los prismáticos muestran la nube, entonces parece que hemos descubierto una nube. La lógica subyacente para confiar en los instrumentos de detección parece ser la misma ya se trate de un científico o de un usuario de prismáticos. Lo que habían estado registrando no era la radiación de la galaxia sino una radiación que viene de cualquier parte del espacio. Esta radiación cósmica de fondo fue inmediatamente interpretada como la radiación remanente de aquella explosión originaria. Penzias y Wilson se habían topado por casualidad con la evidencia extra que necesitaba la teoría para reforzar sus cartas credenciales. El big bang que había producido el universo en expansión había dejado una radiación remanente y por ser la radiación que quedó en el espacio mismo no era de extrañarse que fuera uniforme. Sus características eran las mismas sin importar hacia dónde apuntáramos el radiotelescopio. Ahora una nueva evidencia fortalecía la hipótesis del big bang. El Universo se había estado expandiendo y con ello la temperatura había ido bajando. Era de esperar que el Universo tuviera una radiación típica de la temperatura a la que había llegado en la actualidad y ésa era la radiación de fondo. Como una brasa ardiente irradia calor en varias frecuencias (a veces en color rojo también), el Universo ya bastante enfriado irradia en la frecuencia que Penzias y Wilson detectaron. El Universo irradia en una frecuencia típica de los cuerpos que se encuentran a aproximadamente 270 grados centígrados bajo cero.26 Esto solo quiere decir que así como el Sol irradia en frecuencias que nos indican temperaturas de miles de grados, el Universo contiene radiación en frecuencias e intensidades tales que corresponderían a esas temperaturas tan bajas. La teoría había tenido su refuerzo. 25Según parece los pájaros volvían a refugiarse allí y entonces fue necesaria “una solución un poco más drástica” al problema (véase el relato en Weimberg 1997). 26Con un poco más de precisión, la temperatura que corresponde a esta radiación es de 2,736 ± 0,017 °K, es decir poco menos que tres grados sobre el cero absoluto (Peebles 1993: p. 131). Como mencionamos en nota 12, la distribución de intensidades de radiación para cada frecuencia es típica de la temperatura del cuerpo que irradia. Hay una correlación entre su temperatura y en qué frecuencia el cuerpo irradia con mayor intensidad. De aquí que podamos decir que el patrón de intensidades y frecuencias de la radiación cósmica de fondo equivale a la radiación de un cuerpo que estuviera a la temperatura de 3° K. Sin embargo, como ya hemos señalado anteriormente, los éxitos y fracasos de una teoría solo pueden evaluarse a la luz de la precisión de los datos. Lo que con cierta precisión puede ser un éxito, con mayor precisión puede ser un fracaso, y viceversa. Las predicciones de la teoría de Newton acerca de las posiciones de los planetas eran exitosas hasta que aumentamos suficientemente la precisión como para notar una discordancia entre los datos y lo esperado. Para el caso del big bang, que existiera una radiación uniforme que viniera del espacio era evidencia adicional de que había ocurrido una explosión, pero que fuera tan homogénea chocaba con otra característica del universo: las galaxias no se distribuyen de manera homogénea sino que se ubican como en surcos o hebras de materia separadas por espacios vacíos de materia. Entonces, ¿esta radiación de fondo reforzaba la teoría del big bang o la ponía en aprietos? A la caza de las inhomogeneidades Cuando se propuso la idea de que toda la energía estaba concentrada en un punto en el momento de la explosión y que el espacio comenzó a expandirse de forma homogénea, apareció uno de los obstáculos para la teoría del big bang. ¿Cómo podría el espacio expandirse de forma homogénea y a su vez dar como resultado que en algunas zonas hubiera galaxias y en otras no? Debía haber alguna inhomogeneidad desde el comienzo. Pero la radiación del fondo cósmico parecía ser estrictamente uniforme no importando a qué zona del espacio apuntáramos los radiotelescopios. Con la intención de investigar en forma más detallada esta radiación, se creó un satélite especialmente diseñado para analizar tales frecuencias. En marzo de 1992, el COBE (Cosmic Background Explorer: explorador del fondo cósmico) registró y envió a Tierra numerosas informaciones y datos de microondas que confirmaban la idea de que hubo pequeñas inhomogeneidades desde tiempos remotos y que estas diferencias mínimas pudieron dar lugar a que hubiera zonas con materia y zonas sin materia.27 Este descubrimiento resolvió una de las dificultades que había enfrentado la teoría, y al hacerlo dio un nuevo impulso a la misma. Sin embargo vale la pena señalar que este episodio deja al desnudo una característica muy poco visible de la ciencia divulgada y enseñada como producto terminado y es la incapacidad de la comunidad científica para decidir de manera inequívoca sobre el apoyo o el abandono de una teoría en ausencia de éxitos asombrosos o fracasos rotundos. Y esta característica es la que le da su dimensión de aventura humana. Por fortuna las teorías científicas en ocasiones tienen grandes éxitos y de ese modo los científicos sienten que ha valido la pena seguir investigando de acuerdo a tales teorías. Otras veces las teorías enfrentan grandes problemas, sus afirmaciones no se ven respaldadas por los datos y así es bastante simple tomar la decisión de abandonarlas. Sin embargo la historia de la ciencia muestra que estos casos tan claros son la excepción más que lo habitual. Es moneda corriente que los datos respalden las teorías hasta que cierta información muestra un desajuste importante. A partir de allí la comunidad tiene sobre sus hombros la nada fácil tarea de decidir si seguir trabajando para encontrar qué otro factor fue responsable del desajuste y de ese modo asumir una posición de defensa de la teoría, o bien, elegir abandonar esta 27Incluso en la inspección cartográfica de la distribución de galaxias se encuentran mayores inhomogeneidades a gran escala. Véase Landy 1999. teoría por entender que el desajuste es el indicio de su inadecuación empírica. En ambos casos podríamos equivocarnos. Podríamos estar tratando con una teoría falsa y sin embargo seguir buscando qué ha ocurrido como para explicar por qué la teoría, a pesar de ser adecuada (creemos), ha tenido una falla predictiva. En el otro extremo, podríamos abandonar prematuramente una buena teoría porque no hemos prestado suficiente atención a qué otras cuestiones podrían estar en juego al momento de realizar los cálculos de la predicción científica. Estos dos posibles errores amenazan sistemáticamente a los investigadores y no parece haber solución. Para coronar el panorama digamos también que hay episodios que muestran cuán acertado fue defender las teorías frente a algunos datos adversos y también hay casos que muestran que hubo teorías tan arraigadas que sus anomalías fueron relegadas a un segundo plano durante mucho tiempo. Por ejemplo la teoría gravitatoria fue defendida cuando frente a las anomalías en la órbita de Urano se propuso que debía existir algún otro planeta que perturbaba el movimiento de Urano de modo que tal perturbación explicaría por qué éste no se encontraba en los lugares que debía frecuentar según los mejores cálculos de la teoría. La propuesta de que un planeta hasta el momento desconocido era el responsable de la aparente falla de la teoría rindió sus frutos. Años más tarde se descubrió un planeta cuya presencia explicaba perfectamente lo ocurrido. Neptuno había nacido en el catálogo de planetas gracias a una falla en la predicción y a una decisión de los científicos de buscar otro responsable de la falla que no fuera la teoría. Si no se hubiera descubierto ningún factor perturbador, seguramente la teoría habría caído.28 Por el contrario, el modelo geocentrista en el que todo el cosmos gira en torno a la Tierra fue defendido durante un tiempo aparentemente excesivo frente a la cantidad de datos adversos que enfrentó. Es cierto que finalmente se abandonó, pero la pregunta que queda pendiente es cuántos recursos se utilizan para defender teorías que finalmente resultaron falsas. El caso que nos ocupa se enmarca en el mismo tipo que el del descubrimiento de Neptuno o de los neutrinos. Si la teoría del big bang es correcta debería observarse radiación remanente de aquella explosión. Encontramos esa radiación pero su distribución uniforme se contrapone con la distribución inhomogenea de masa en el Universo. Entonces se propone que la radiación de fondo debe tener inhomogeneidades, que parece uniforme debido que la sensibilidad y precisión de los métodos utilizados no permite detectar diferencias más pequeñas. Por lo tanto se sugiere que realicemos una investigación detallada del fondo de radiación cósmica pero con una mejor tecnología. Se inicia el proyecto de poder obtener esta información sin la perturbación del ruido de la atmósfera, es decir, se necesita llevar los detectores al espacio exterior. Se construye el COBE y finalmente se obtienen los datos que coinciden con lo esperado. ¡Y toda esta aventura para levantar la contradicción toma unos 28 años! Los resultados del COBE fueron los esperados por los defensores de la teoría y entonces retrospectivamente parecen haber sido bien empleados esos años y esos recursos. Pero tiene que haber sido difícil sostener esta decisión en los tiempos 28Precisamente fue la teoría la que cayó en desgracia cuando una situación similar se presentó al medir con precisión las posiciones de Mercurio en su órbita, tal como hemos señalado anteriormente. intermedios. La ciencia, no menos que otras actividades humanas, requiere de las decisiones de los actores involucrados y este caso muestra claramente cómo se han comprometido en tratar de dilucidar si la teoría podía sobrellevar los datos adversos. La radiación de fondo y el espacio absoluto Luego de tanta incertidumbre sobre la homogeneidad o inhomogeneidad, finalmente se ha hecho un relevamiento de alta precisión de la radiación de fondo y dio por resultado que la radiación es altamente isotrópica,29 tal como aparecía en un principio y con variaciones pequeñas, tal como era necesario para explicar la distribución inhomogénea de masa. Sin embargo hay una variación de aproximadamente 0,1 % distribuida de forma elipsoidal de manera que en una determinada dirección el cielo parece irradiar en una temperatura un poco más alta y en la dirección opuesta, un poco más baja. Este resultado es interpretado como el efecto Doppler, no ya de las galaxias vecinas o lejanas sino el producido por el movimiento nuestro a través del espacio isótropo. Recordemos que el efecto Doppler se produce cuando la fuente de radiación y el detector están en movimiento uno respecto de otro. De este modo, si la Tierra se mueve respecto del universo en su totalidad, deberá observarse un corrimiento “al rojo” mirando en una dirección y un corrimiento equivalente pero “hacia el azul” en la dirección contraria. La proa apunta en esta última dirección y la popa, en la dirección en que la radiación de fondo está desplazada al rojo. Luego de todos los cambios conceptuales, del abandono del éter luminífero en el que la luz presuntamente se transmitía, llegamos a un estado del arte en el que podemos medir la velocidad de la Tierra respecto del universo completo,30 ¡como si la radiación de fondo cósmico nos indicara la existencia de un espacio en reposo absoluto! Hasta ahora este resultado se interpreta como el movimiento de la Tierra debido a la diferencia neta en el campo gravitatorio debido a una distribución inhomogénea de masa, aunque muy bien podría ser una diferencia en la radiación misma y, en ese caso, no indicaría el movimiento de los aparatos receptores sino una propiedad de aquello que estamos detectando. Como siempre, la aventura de la interpretación de los datos no es tarea sencilla ni acabada y este caso es uno de los campos de investigación todavía abiertos. 4. Efecto horizonte y escenario inflacionario: un triángulo amoroso entre cosmología, astrofísica y física de partículas Hemos encontrado las inhomogeneidades que necesitábamos para confirmar el big bang y compatibilizar la teoría con la distribución inhomogénea observada de materia. Pero concentrémonos en la parte homogénea: ¿cuán homogéneo aparece el panorama en diferentes direcciones de observación? Si observamos en una determinada dirección y enfocamos más y más lejos, vemos zonas más y más antiguas del universo. Vemos cómo ‘era’ el universo en 29Es decir que su intensidad y características no depende de la dirección en la que apuntemos el radiotelescopio. Estas variaciones son del orden de una parte en 105, tal como se espera de la distribución de masa en el espacio. 30Según diferentes mediciones la velocidad de nuestro sistema respecto del fondo de radiación es de entre 300 y 700 km/s (Peebles 1993: p. 153). aquellas primeras etapas. Ahora bien, mirando en una dirección y en la opuesta, podremos observar galaxias que se alejan tan rápidamente de nosotros que a su vez no pueden haber interactuado entre ellas. La luz de una de ellas no ha tenido tiempo de llegar a la otra. Habrá entonces imágenes de galaxias que todavía no han llegado a la nuestra. Por lo tanto existe un horizonte de observación, más allá del cual no podemos tener información. Incluso podría haber imágenes que jamás nos llegaran en el futuro. Dado que las partículas no pueden viajar a más que la velocidad de la luz o bien a la velocidad de la luz si son partículas sin masa, entonces cada punto del espacio delimita un ‘cono de pasado’ fuera del cual los eventos que ocurran no pueden haber sido causalmente relevantes. Un ejemplo sencillo es que lo que ocurre a la misma hora en el polo norte y en el polo sur no puede ser uno la causa de lo otro. No habría habido ninguna información que llegara de un punto a otro de modo instantáneo. De un modo similar, si ayer falló un satélite de comunicación a las 12:30 hs y nuestros registros indican que a las 12:25 hs tuvo lugar una tormenta solar, esta tormenta no pudo haber sido la causa de la falla en el satélite pues la información de la tormenta y con ella sus capacidades de causar algo, deben haber llegado 7 minutos más tarde, es decir a las 12:32 hs. De ese modo, aun cuando visto desde el sistema de referencia ubicado en la mitad entre el Sol y la Tierra la tormenta solar tuvo lugar antes que la falla del satélite, no pudo ser su causa. La tormenta solar aun siendo previa a la falla no está suficientemente atrás en el tiempo como para que sea causa de la falla. La tormenta solar está fuera del cono de pasado de la falla del satélite y por el mismo motivo la falla del satélite está fuera del cono de futuro de la tormenta (ver figura 7). Figura 7. La inclinación indica la velocidad de la señal luminosa y es la inclinación de menor pendiente posible; toda señal viajará con inclinaciones más cercanas a la vertical (algo en reposo estará representado por una línea vertical, es decir no cambia su posición a medida que transcurre el tiempo). La señal proveniente de la tormenta solar (A) llega a la posición del satélite (C) luego de que ha ocurrido la falla (B). A y B son eventos desconectados causalmente aun cuando A ha ocurrido antes que B en este marco de referencia. Habría, por lo tanto, zonas causalmente desconectadas dentro del universo a lo largo de toda su historia. Teniendo en cuenta esta limitación surge naturalmente la pregunta de por qué encontramos zonas distantes del universo que no han estado causalmente conectadas y sin embargo tienen las mismas características. Una primera propuesta podría ser adjudicarles una causa común, pero esta estrategia no da los frutos esperados. Estas zonas desconectadas, para poder tener una causa común, deberían tener algún episodio o evento común en el pasado. Para ello, y dada su gran distancia, precisamos que el pasado sea mucho más duradero de lo que la misma teoría nos dice que fue. Esto es, si estas dos zonas desconectadas tuvieron un evento común en su pasado, ese evento tiene que ubicarse muy atrás en el tiempo y no hay suficiente tiempo hacia atrás porque antes de llegar a ese presunto instante común nos topamos con la gran explosión, el instante inicial. Para dar solución a este problema se ha propuesto que hubo alguna etapa en la que tales zonas pudieron interactuar, luego de lo cual el universo se expandió a un ritmo notablemente superior de modo exponencial, dando como resultado de esa inflación, zonas aparentemente desconectadas pero que han podido emparejarse térmicamente. Esta etapa inflacionaria del universo debería haber ocurrido de tal modo que se conjeturan ciertas características para la interacción entre campos, espacio aparentemente vacío y partículas.31 Una vez más, el estudio de las partículas y la interacción entre campos de fuerzas puede echar luz sobre si esta conjetura va por buen camino. Precisamente la conjetura proviene de imaginar novedades en las interacciones entre campos y entre partículas en alguna etapa de la expansión: ¿Qué pudo haber dado lugar a un cambio drástico en el modo en que el espacio se expandía en aquellos primeros instantes? Y ¿cuándo tuvo que tener lugar esa etapa de expansión? Es conocido por los físicos que existen episodios que cambian la manera en que un sistema alcanza el equilibrio de modo que se produce una transición de fase y así pueden distinguirse diferentes etapas en la evolución del sistema. Veamos un ejemplo. Cierto día mi amigo y colega, Jorge Paruelo, toma una botella plástica con agua que tenía en el freezer y me convida para aliviar el calor de nuestras discusiones de verano. El agua no se había congelado, pero al servir el primer vaso, tanto el agua en el vaso como en la botella se congeló como si un efecto dominó se extendiera desde la zona del pico de la botella hacia ambos extremos. La física explica este episodio señalando que el enfriamiento del agua ha sido suficientemente rápido y de ese modo las moléculas no han tenido tiempo de acomodarse para formar cristales de hielo. Si el agua tiene impurezas es altamente probable que comiencen a formarse los cristales de hielo en esos puntos, pero si no hay tales perturbaciones el proceso puede requerir más tiempo y que la temperatura baje todavía más. Es muy probable que el agua que Jorge sacó del freezer estuviera a punto de congelarse ya que tenía temperaturas suficientemente bajas. De otro modo 31Fue Alan Guth quien en 1980 propuso esta idea que posteriormente fue desarrollada por Andrei Linde y Paul Steinhardt de modo independiente. Véase Guth y Steinhardt 1984 y Linde 1995, que constituyen descripciones accesibles y de primera mano de esta propuesta. Se ha avanzado en la justificación de esta propuesta de modo que no aparezca como un agregado ad hoc aunque esta justificación implica nuevas dificultades de interpretación. Véase Bojowald 2008 para este fin. no se habría congelado fuera del freezer. Pero necesitaba una pequeña perturbación para un ordenamiento molecular más estable. Esa perturbación provino de inclinar la botella. En este relato encontramos que el agua líquida no tiene simetría 32 mientras que al solidificarse obtiene direcciones en la que se orientan los diferentes ejes de los cristales de hielo, aun cuando en diferentes regiones del agua se hayan generado cristales con diferente alineación. El agua al congelarse pierde la simetría que tenía para adquirir un ordenamiento distinto. Pasa de no tener direcciones privilegiadas a tenerlas, aunque fuera diferente en distintas regiones. No tener direcciones privilegiadas es equivalente a tener la mayor de las simetrías: simetría esférica (toda dirección es equivalente a otra). Al congelarse el agua se rompe esa simetría y el modo en lo que desencadena esa pérdida es aleatorio: una pequeña perturbación. Del mismo modo una esfera magnetizada que está por encima de cierta temperatura, tiene simetría esférica porque la orientación atómica y molecular no ha adquirido un orden debido a la intensa vibración de sus átomos. La esfera, por encima de esa temperatura, no se comporta como un imán. Pero al enfriarse, sus dominios magnéticos se orientarán todos en una misma dirección, aunque cuál sea esa dirección solo depende de alguna perturbación ínfima. Cualquier dirección podría ser la dirección final en la que la esfera tiene sus polos magnéticos alineados. Pero será alguna de ellas, o quizás tenga regiones con alineamientos diferentes. Al pasar de un estado al otro la esfera sufre una transición de fase y deja de ser una esfera desmagnetizada para ser un imán esférico. La simetría se rompe y aparecen novedades. Pues bien, según la idea de que hubo una etapa inflacionaria, tal etapa debe haber ocurrido previamente a una transición de fase, luego de la cual ciertas simetrías aparecen pero antes de la cual no se cumplen. Un caso particular es la de que según las teorías previas, la radiación pudo formar pares de partículas de materia-antimateria pero nuestras observaciones parecen indicar que las galaxias están hechas de materia y no de antimateria. De este modo el balance ha sido roto en algún momento para dar predominio de la materia por sobre la antimateria. Tampoco parece verosímil que haya zonas con antimateria ya que en las zonas intermedias en las que materia y antimateria interactuaran, se aniquilarían dejando como rastro la radiación equivalente y podríamos detectar esa radiación como una luminosidad debida aparentemente a nada. Si no atribuimos este desbalance a ciertos procesos deberíamos atribuirlo a las meras condiciones iniciales, cargando más y más el preciso inicio con condiciones cada vez más específicas. En cambio, la propuesta de que pudiera haber procesos que dan como resultado diferentes desbalances parece ser más tentadora. En este punto vale la pena señalar que si se otorga mucha importancia a las condiciones iniciales aparece el argumento de cuán poco probable era que se dieran exactamente las condiciones que se dieron en el big bang como para que el universo evolucionara como lo hizo, dando lugar al surgimiento de la vida y la conciencia. Aparece la tentación de proponer que hubo un diseñador que sintonizó específicamente tales condiciones. Por otra parte para condiciones muy poco probables que han ocurrido y dado lugar al surgimiento de la conciencia, es evidente que aparecerá la pregunta de cómo ha sido posible tal situación. En este sentido un 32Dejamos de lado que la dirección vertical está privilegiada por el campo gravitatorio. universo tan poco probable aun sin diseñador hace inevitable que sus seres inteligentes se pregunten cómo ha sido posible. Una de las respuestas más sofisticadas que tenemos a mano es que todas las versiones de universo existen en paralelo, pero nosotros existimos en éste y los otros se nos aparecen como universos posibles.33 Retomando la propuesta inflacionaria, sin darle gran relevancia a las condiciones iniciales, en un comienzo debería haber habido una gran cantidad de energía confinada a un espacio muy reducido pero en expansión y en ese espacio habría ciertos campos de valor nulo, que al bajar la temperatura por la expansión, podrían tomar valores no nulos apareciendo así regiones del espacio que los físicos llaman “falso vacío”. Por efectos cuánticos este falso vacío podría interactuar con su entorno y constituir la perturbación que desencadene la transición de fase con la ruptura de la simetría al bajar la temperatura del universo al valor crítico.34 Este campo, llamado “campo de Higgs,” sería responsable de la aparición de una presión de repulsión que diera lugar a la expansión exponencial duplicando el diámetro del universo cada 10-34 segundos. Esta etapa constituye la era inflacionaria del universo que lo llevó a aumentar su tamaño en un factor 1050 en una fracción de 1032 segundos liberando la energía contenida en ese falso vacío y dando lugar a una gran producción de partículas. A partir de allí la expansión continúa al ritmo que surge de las estimaciones de la teoría normal o estándar del big bang. De este modo la propuesta da una solución a los problemas de horizonte mostrando que las regiones que hoy parecen haber estado tan separadas de modo que parece inexplicable que coincidan en sus características, en realidad son regiones que tuvieron oportunidad de interactuar y correlacionarse previamente a la era inflacionaria. La versión estándar contaba con la confirmación de la radiación de fondo, con la corroboración de la existencia de inhomogeneidades, con la acertada coincidencia entre la previsión de la proporción de elementos livianos como el hidrógeno y el helio que deberían haber aparecido luego en la era de formación de partículas pero enfrentaba los problemas de horizonte y el problema de compatibilizar los cálculos con las observaciones acerca de si el universo es cerrado, abierto o plano. El agregado de la era inflacionaria viene a resolver estos últimos dos problemas conservando las virtudes de la teoría estándar.35 33Estas dos maneras de tratar el tema corresponden al Principio Antrópico fuerte y débil respectivamente. Véase Kaku 1996, Davis 1992 y Wolf 1990. 34Será más eficaz remplazar estos falsos vacíos por el rol desencadenante que puedan tener ciertas regiones que ya hayan perdido la simetría para inducir a las vecinas a hacerlo como lo indicamos en el ejemplo del agua sobreenfriada o en el de la esfera con regiones magnetizadas al bajar su temperatura. 35En cuanto al problema del universo plano las ecuaciones de evolución para la era inflacionaria hacen que, nuevamente sin importar demasiado las condiciones iniciales, el parámetro de curvatura del espacio por su distribución de masa se acerque rápidamente a la unidad, lo cual indica un espacio plano. Esto resuelve la aparente contradicción en el modelo estándar según el cual, si este parámetro no era extremadamente cercano a la unidad en el comienzo, se habría apartado muchísimo luego de la expansión de modo que no sería explicable que actualmente las observaciones den resultados compatibles con un espacio plano en la escala cósmica aun cuando hay curvatura en una escala local. Al leer este relato nos damos cuenta de que parte de la clave para apoyar esta teoría está en la existencia del campo de Higgs y con él, la partícula de Higgs cuya interacción con el resto de las partículas elementales es responsable de que algunas de ellas posean masa. El modelo estándar de la física de partículas describe las interacciones entre las partículas elementales que forman todo tipo de material que observamos. Ha tenido los contundentes éxitos de predecir la existencia de diferentes partículas que se han detectado posteriormente.36 Sin embargo, la predicción de la existencia del bosón de Higgs, que vendría a completar el panorama tanto de la cosmología como de la interacción elemental, no ha sido todavía verificada. La manera en que podemos generar partículas es mediante el choque de partículas aceleradas a altas velocidades para hacer coincidir en un punto del espacio toda esa energía. De este modo la última respuesta acerca de la existencia de cada partícula predicha está en manos de los detectores de rayos que llegan del espacio o bien de los detectores organizados en varias capas alrededor del lugar en que chocan las partículas en un acelerador o colisionador de partículas. Si disponemos de aceleradores que no pueden lograr muy altas velocidades para partículas muy pesadas entonces la energía disponible para ese choque será poca. Es así como colisionadores más potentes pueden dar respuestas que no han podido obtenerse con los anteriores aceleradores. Es sencillo: no utilices un pequeño anzuelo para atrapar un gran pez. La ecuación E = m · c2 indica la energía necesaria para crear masa. Recordando que las partículas aparecen de a pares, no es tarea sencilla buscar partículas con masas cada vez mayores. El desafío sigue adelante. La teoría necesita que la partícula de Higgs exista para poder dar coherencia a los datos, hacer consistentes las etapas que se han conjeturado como era inflacionaria, era de creación de partículas, etc. Es necesaria también para completar la descripción de cómo interactúan las partículas elementales entre ellas. Si la partícula a la que queremos cazar es muy masiva, deberemos disponer de grandes aceleradores, generar choques muy energéticos e interpretar los resultados para decidir si refuerzan nuestras creencias o las ponen en riesgo. Lo que ya sabemos es que cada nuevo acelerador brinda no solamente el dato que necesitábamos para decidir sobre las teorías sino también una catarata nueva de información que impulsa nuevamente a la construcción de teorías que les sirvan de marco explicativo. La ciencia experimental y la teórica parecen jugar un ping-pong en la historia de la construcción del conocimiento. La cosmología espera confirmar sus teorías con los experimentos de la física de partículas mientras que las observaciones de las explosiones de supernova brindan a los astrofísicos un escenario de acelerador de partículas natural, aunque ocasional y sin el control de variables de la experimentación.37 36Por ejemplo ha predicho la existencia de los quarks top y charm, los bosones W y Z, y el gluón como partícula virtual que mantiene unidos a los quarks al componer otras partículas. 37Mientras que la aparición de hidrógeno, helio y otros átomos livianos pudo haber ocurrido luego de la etapa en la que la radiación generó partículas, se cree que los elementos intermedios como el carbono y el oxígeno, por ejemplo, se crean por fusión en el interior de las estrellas y, finalmente, los núcleos de elementos pesados como el oro y la plata, se han formado por fusión entre núcleos por efecto de la onda de choque de la explosión de supernovas. Una triple unión de especialidades, cada una de ellas con sus técnicas y saberes subsidiarios para poder decir que registran algo, enfrentan un mismo objetivo: de qué está hecho el universo y cuáles son los procesos que han tenido lugar. La hipótesis de una era inflacionaria, sin saber si ha dado en el blanco, ha brindado un rumbo para la investigación que permite dar coherencia no ya al conocimiento sino a la propia investigación básica. Sin embargo, la propuesta de un escenario inflacionario, aun dando solución a los primeros problemas de horizonte, abren la posibilidad de los mismos problemas para episodios ubicados respectivamente en el pasado de cada una de esas zonas. De este modo el escenario inflacionario no puede tomarse como una solución general y definitiva para el problema de la coincidencia de características entre zonas desconectadas causalmente aun habiendo brindado otros logros adicionales.38 Quizás la solución a los problemas de horizonte provenga de adjudicar las coincidencias a las condiciones iniciales del big bang, aun cuando tal atribución haga parecer improbable que el universo haya sido determinado desde el comienzo por las condiciones iniciales tanto más que por las interacciones. O quizás las teorías tengan todavía que dar un giro inesperado, tanto en lo que respecta a las interacciones entre partículas y entre campos como a una descripción general del cosmos, de manera que estos problemas parezcan no ser tan cruciales como lo parecen en el presente. Los resultados de los nuevos aceleradores de partículas pueden marcar la dirección de este próximo giro. 5. Otras interpretaciones Son pocos los científicos que no están convencidos de que la teoría del big bang sea adecuada. Algunos de ellos se inclinan a favor del modelo de Universo Estacionario.39 Este modelo describe un universo en expansión continua tal cual la que se infiere a partir del corrimiento al rojo de las galaxias, pero con la particularidad de que la densidad de partículas del Universo permanece constante. Esto significa que al expandirse el espacio se deberán crear partículas de modo de mantenerse la cantidad de materia por unidad de volumen (en forma global). Según este modelo, el Universo se expandiría y a la vez se crearía materia de modo que una zona del espacio siempre presentaría el mismo aspecto no importa en qué época nos fijáramos. Con ello se puede sostener la idea de que el Universo no fue creado ni que apareció en algún instante. En este modelo descriptivo preguntarse a partir de cuándo existe el Universo se responde fácilmente: existió siempre y siempre existirá con el mismo aspecto. La expansión y la creación de partículas en el vacío funcionan conjuntamente dando un balance en el que se mantiene constante la densidad de partículas. El modelo estacionario da perfecta cuenta del alejamiento de las galaxias pero tuvo que enfrentar una acomodación al descubrirse la radiación de fondo que corroboraba fuertemente la teoría del big bang. Dado que según el modelo estacionario no hubo explosión inicial, ¿de dónde venía esta radiación de fondo? Se sugirió que tal radiación podía provenir de las nubes de polvo existentes en el Universo que absorberían la radiación de las estrellas y la reemitirían en la frecuencia 38John Earman (1995) aborda esta dificultad con bastante detalle. 39Sus representantes más conocidos son Fred Hoyle y Chandra Wickramasinghe. observada del fondo cósmico. Sin embargo no queda explicado totalmente el hecho de que la radiación de fondo no varía en las distintas direcciones de observación. Otro ajuste sería sostener que la distribución de estrellas y de polvo interestelar es homogéna. Pero más tarde, al encontrar las pequeñas inhomogeneidades se debería agregar que la distribución de estrellas y polvo es así de inhomogénea. De este modo la teoría del universo estacionario “sobrevivió” al descubrimiento de Penzias y Wilson pero no sin ajustes. De un modo más drástico se ha puesto en duda que el corrimiento al rojo sea producto del alejamiento. Esto es ni más ni menos que sostener que hay otros procesos que competirían con el efecto Doppler. Si los fotones sufrieran un efecto de ‘envejecimiento’ por el cual cuanto más tiempo han estado viajando tanto más ha disminuido su frecuencia, tendríamos un panorama exactamente igual al de la ley de Hubble pero sin absolutamente ninguna expansión. Los fotones que han viajado durante más tiempo son los que provienen de las galaxias más alejadas y por lo tanto mostrarán mayor corrimiento al rojo arrojando los mismos resultados que nos llevaron a proponer la expansión. Si los fotones tienen un corrimiento al rojo debido al tiempo que hace que fueron emitidos, el universo puede estar constituido de un espacio quieto. Expansión, explosión inicial, era inflacionaria y otras conjeturas habrían sido ideas erradas. Sin embargo, estas propuestas alternativas deberán enfrentar el problema de la articulación entre campos del conocimiento. Ya no es posible sostener una cosmología que no sea consistente con los conocimientos de astrofísica y de la física de partículas. La libertad para la conjetura se estrecha en la medida que el conocimiento se aplica a campos cada vez más vastos. Una característica importante del descubrimiento de los detalles en la radiación de fondo es que los defensores de la teoría del big bang habían anticipado que de ser correcta la teoría deberían encontrarse tales inhomogeneidades, mientras que tales rasgos no se desprendían de la teoría del modelo estacionario. De este modo, al obtener los resultados predichos, la teoría del big bang obtiene credibilidad mientras que los arreglos que sufra la teoría del universo estacionario hacen que su credibilidad descienda. 6. Materia oscura y futuro del universo El panorama parecería casi completo si no fuera por haber dejado de lado ciertos datos. Ya en 1930 se registraba que las velocidades de las galaxias dentro de los racimos indicarían que esos racimos contienen mucha más masa que la que le atribuimos por la luminosidad o la absorción. Y desde 1970 la misma situación se detectó para los movimientos de galaxias espirales. Las velocidades de las estrellas en una galaxia en rotación deberían seguir una distribución en relación a la distancia al centro de la galaxia de un modo similar a cómo los planetas de órbitas externas recorren más lentamente su órbita que los internos. Un buen análogo es la rotación de la espuma del café al revolverlo en la taza. Sin embargo los movimientos de las estrellas alrededor del centro de distintas galaxias estudiadas muestran un patrón de rotación más similar al de un sólido. O bien se proponía algún factor nuevo que fuera responsable de este comportamiento en la rotación o bien las ecuaciones de movimiento newtonianas no eran válidas para describir el movimiento de las galaxias y los racimos de galaxias. La idea de que las estrellas estaban empotradas en grandes distribuciones de masa no se hizo esperar. Las galaxias y los racimos de galaxias muestran que, si las leyes de movimiento son correctas, hay mucha más masa que la que hemos estado estudiando. La situación es la misma que si hubiéramos estado estudiando icebergs sin atender a que la mayor parte del material de que están compuestos está oculta por debajo del agua. El hecho de que hayamos conjeturado la existencia de esta materia oscura solo por sus efectos gravitacionales y no por su interacción con la radiación muestra que no puede tratarse de protones, neutrones y electrones o residuos de estrellas o polvo interestelar o intergaláctico. Debe tratarse de algo que interactúa muy poco con la materia común, aunque contribuye notablemente con su masa. Pareciera que la mayor parte de la materia con masa no está asociada directamente con la emisión o captura de radiación. ¡Hemos estado viendo solo entre un 15 y un 20 por ciento de lo que hay! Este descubrimiento reaviva el interés por la pregunta de si el universo seguirá en expansión indefinidamente hasta una muerte térmica en la que ya no hay interacción, o bien si la masa total existente será suficiente para frenar la expansión, y en todo caso comenzar una etapa de contracción hacia un big crunch.40 La respuesta está escondida en la relación entre la velocidad de expansión y la densidad de masa. Según se espera de la teoría estándar del big bang la expansión, luego de la era inflacionaria habría seguido con un ritmo moderado que disminuye paulatinamente. Es decir, se esperaba que la constante de Hubble fuera decreciendo con el tiempo. Sin embargo a finales del segundo milenio las mediciones de mayor precisión mostraron que la expansión parece estar acelerándose. La pregunta permanece aún hoy sin respuesta aunque son claras las estrategias para la búsqueda de esa respuesta. Por un lado debemos registrar el ritmo de expansión con precisión cada vez mayor y por otro lado debemos comprender de qué está compuesta esa materia oscura para poder contabilizarla junto con la materia conocida. Las partículas que formarían esa materia oscura no han sido todavía descubiertas aun cuando muchas especulaciones han sido ofrecidas. Nuevamente el estudio de explosiones de supernova y de resultados obtenidos en los grandes colisionadores son los caminos a seguir recorriendo. 7. Conclusiones La teoría del big bang cuenta con el apoyo mayoritario de la comunidad científica. Sin embargo el conocimiento en este campo de investigación, lejos de completarse de modo acumulativo, progresivo y definitivo, nos invita una y otra vez a reconsiderar la articulación entre las afirmaciones de la teoría y los conocimientos establecidos en otras áreas. La manera en que esperamos que las teorías estén obligadas a articularse de manera consistente es un requisito básico de la investigación en ciencias naturales de manera que es cada vez es más difícil proponer hipótesis que puedan dar una buena explicación de su objeto de estudio y cumplir con cada una de las restricciones que el resto del conocimiento les impone. 40Una de las incógnitas relacionadas con este tema es cuál es la masa de los neutrinos y cuán abundantes son en el universo; y en un nivel más especulativo todavía, si hay diferentes tipos de neutrinos, unos livianos y otros pesados o si la masa está provista por entidades totalmente nuevas para el zoológico de partículas que conocemos en la actualidad. La teoría estándar ya no es una teoría solamente del origen y desarrollo del cosmos sino que se ha instituido en una teoría de todo lo que hay: espacio, tiempo, energía y materia. Quedan por investigar los aspectos abiertos como lo son si el Universo seguirá en expansión indefinidamente o se volverá a aglomerar la energía en un punto, cuáles fueron las condiciones por las que se formaron las inhomogeneidades desde los albores de la expansión, qué tipo de interacción se da entre partículas como para que unas tengan masa en reposo y otras no, qué porción de la información debe ser atribuida a las condiciones iniciales y cuáles características emergen naturalmente de los procesos que tuvieron lugar, qué otras partículas pueden estar allí afuera para ser descubiertas todavía y de qué modo pueden alterar el panorama global, qué procesos tienen lugar en puntos singulares del espacio-tiempo y de qué modo se pueden conectar porciones aparentemente desconectadas causalmente. Cómo afecta a nuestra visión del cosmos el saber que al crearse pares de partículas que viajen en direcciones opuestas sus comportamientos quedan correlacionados aun cuando los separe una distancia que los desconecta causalmente y tantos otros interrogantes que motorizan la investigación. Hemos recorrido un largo camino desde que en la antigüedad se pensaba al Universo con un tamaño finito y fijo, sin vacío, sin expansión, sin comienzo ni fin, con movimientos circulares eternos y con leyes diferentes para el cielo que para la tierra. En cada etapa de ese camino creíamos haber dado con la teoría adecuada. La aventura de la ciencia es no saber cuál es el camino que todavía nos queda por recorrer y cuáles decisiones tomaremos en cada disyuntiva que los datos planteen a las teorías. También hemos recorrido el camino que va desde la descripción disjunta de regiones del universo a la búsqueda de un panorama completo aplicable a lo macro y a lo micro; un panorama que no solo diga de qué está hecho el universo sino que diga también cómo fue que llegó a estar constituido así. Ya no es posible formular teorías parciales para cada aspecto y tampoco las teorías pueden ofrecer mucho si no se las combina con otras. La red teórica hace que cada teoría se sustente parcialmente en otras y que a su vez, brinde sustento a las nuevas. La articulación entre campos aparentemente diversos hace que cada aporte o modificación repercuta en el panorama completo que tenemos sobre el mundo. La búsqueda de una gran teoría unificada que pueda darnos elegantemente una descripción sencilla de la complejidad existente parece ser un objetivo irresistible. La diversidad que golpea a la puerta de nuestros sentidos, amplificados por los instrumentos de detección que brinda la tecnología, nos invita a preguntarnos por qué el universo es de este modo y no de otro. Ya no nos contentamos con saber qué hay, también queremos comprender por qué ocurrió así y no de otro modo. ¿Por qué el universo en que vivimos tiene estas características y ha resultado ser éste y no otro de entre todos los universos posibles? Intentamos comprender no solamente lo que hay sino también qué otra cosa podría haber habido y por qué no fue. 8. Bibliografía Bojowald, Martín. 2008. “Rebote del universo” Investigación y Ciencia (trad. Español de Scientific American) Núm. 387: 14-19. Davis, Paul. 1992. The Mind of God. The Scientific Basis for a Rational World. Simon & Schuster, New York. Earman, John. 1995. Bangs, Crunches, Whimpers, and Shrieks. Singularities and Acausalities in Relativistic Spacetimes. Oxford University Press, New York. Ferraro, Rafael. 2005. El espacio-tiempo de Einstein. Ediciones Cooperativas, Buenos Aires. Gangui, Alejandro. 2005. El Big Bang. La génesis de nuestra cosmología actual. Editorial Eudeba, Buenos Aires. Guth, Alan y Steinhardt, Paul. 1984. “El universo inflacionario” Investigación y Ciencia (trad. Español de Scientific American) Núm. 94: 66-79. Hacyan, Shahen. 2005. Física y metafísica del espacio y el tiempo. Fondo de Cultura Económica, México DF. Hawking, Stephen y Penrose, Roger. 1996. La naturaleza del espacio y el tiempo. Debate, Madrid. Hawking, Stephen. 1996. Historia del tiempo ilustrada. Crítica, Barcelona. Hoyle, Fred. 1985. El Universo inteligente. Grijalbo, Madrid. Hoyle, Fred y Wickramasinghe, N. C. 1992. Fuerza vital cósmica. La energía de la vida por el universo. Fondo de Cultura Económica, México DF. Jammer, Max. 1954. Concepts of Space. The History of Theories of Space in Physics. Dover, New York. Kaku, Michio. 1996. Hiperespacio. Una odisea científica a través de universos paralelos, distorsiones del tiempo y la décima dimensión. Crítica, Barcelona. Kosso, Peter. 1998. Appereance and Reality. An Introduction to the Philosophy of Physics. Oxford University Press, New York. Landy, Stephen D. 1999. “Cartografía del universo” Investigación y Ciencia (trad. Español de Scientific American) Núm. 275: 4-11. Linde, Andrei. 1995. “El universo inflacionario autorregenerante” Investigación y Ciencia Núm. 220: 16-23. Oerter, Robert. 2005. La teoría de casi todo. El modelo estándar, triunfo no reconocido de la física moderna. Fondo de Cultura Económico, México DF (2008). Peebles, Phillip James Edwin. 1993. Principles of Physical Cosmology. Princeton University Press, Princeton. Penrose, Roger. 2004. El camino a la realidad. Una guía completa de las leyes del universo. Debate, México DF (2007). Quintana G., Hernán. 1998. Espacio, Tiempo y Universo. Universidad Católica de Chile, Santiago de Chile. Sklar, Lawrence. 1994. Filosofía de la física. Alianza Editorial, Madrid (orig. 1992). Turner, Edwin L. 1988. “Lentes gravitatorias” Investigación y Ciencia (trad. Español de Scientific American) Núm. 144: 14-21. Vorontsov-Vel’yaminov. 1987. Extragalactic Astronomy. Hardwood Academic Publishers, Glasgow. Weimberg, Steven. 1997. The First Three Minutes. A Modern View of the Origin of the Universe. Basic Books, Inc. Publishers, New York. Wolf, Fred Alan. 1988. Parallel Universes. The Search for Other Worlds. Simon & Schuster, New York.