Universo singular

Tekst
Z serii: Razón Abierta #2
0
Recenzje
Przeczytaj fragment
Oznacz jako przeczytane
Czcionka:Mniejsze АаWiększe Aa

El estudio físico del universo como un todo es bastante más reciente de lo que parece. Se podría decir que apenas data de un siglo. La filosofía de la naturaleza, la física premoderna y la física newtoniana concedían una dinamicidad, propia o derivada, a los sistemas que habitan nuestro universo, pero, en cierto modo, el universo mismo se consideraba algo estático y dado: bien porque fuese eterno y absoluto en sí mismo, sin origen ni final, como en el caso de la física aristotélica y newtoniana, bien porque la obra de la creación podía considerarse ya terminada, como en el caso de una filosofía de la naturaleza de inspiración judeo-cristiana. Entiéndase bien este último caso: aunque el universo tuviera un principio y un final, estos dependían exclusivamente de Dios (creación y escatología); mientras que entre ambos extremos tendríamos el despliegue de la historia natural y humana en un marco de referencia fijo definido por los límites de nuestro planeta.

Esta visión va a cambiar profundamente durante el siglo XX, gracias a la sinergia entre la nueva teoría física que desbancará la mecánica newtoniana, la teoría de la relatividad, y el asombroso salto en nuestra capacidad de observar el universo merced a mejores telescopios que, a partir sobre todo de la segunda mitad del siglo pasado, será posible incluso mandar al espacio más allá de la atmósfera terrestre, lo que favorecerá la recepción más pura de la luz proveniente de sistemas lejanos. Actualmente, la teoría física del Big Bang es la comúnmente aceptada sobre el origen y evolución del universo. La visión que ofrece dicha teoría es la de un universo en expansión, con enorme potencial para la aparición de nuevos procesos y sistemas gracias especialmente a la formación de estrellas y su capacidad para sintetizar nuevos elementos en su interior. Dichos elementos son parte principal de la diversidad física que vemos en la Tierra y, muy probablemente, en otros planetas.

Esta información es ya enormemente valiosa para una reflexión filosófica sobre la naturaleza, pero la cosmovisión que ofrece el Big Bang implica también una serie de datos y cuestiones menos conocidas en el mundo filosófico. Estas cuestiones profundizan en las razones últimas por las que es posible la existencia de un universo tan especial como el nuestro (Sánchez-Cañizares 2013; 2014a). En este capítulo, dedicaremos una primera sección a una presentación histórico-científica que explique cómo hemos llegado a la teoría del Big Bang: sus soluciones, sus problemas y la aparición de teorías alternativas, a día de hoy puramente especulativas, que intentan ir razonablemente más allá del Big Bang. En una segunda sección, explicaremos con más detalle en qué sentido nuestro universo es especial, abordaremos el problema del ajuste fino de las constantes fundamentales de la física y, sobre todo, el problema de la mínima entropía al comienzo del universo.

1. UNA INTRODUCCIÓN A LA TEORÍA DEL BIG BANG

Conocer, aunque solo sea someramente, la historia de cómo la humanidad ha intentado responder a las grandes cuestiones que se han planteado a lo largo de los siglos es uno de los mejores modos de familiarizarse con dichas cuestiones. Como decíamos, la consideración rigurosamente científica del origen del universo es un problema relativamente nuevo en la historia. Sin embargo, su aparición en el pensamiento humano puede considerarse como muy antigua.

1.1. LA HISTORIA DEL BIG BANG

Aunque nuestros conocimientos sobre la historia humana oral y escrita tienen menos de cinco mil años, se desprende de distintos datos arqueológicos que el hombre tiene preocupación por el mundo en el que vive y se forma ideas sobre el universo desde mucho antes. Podemos afirmar que los rastros se pierden en el tiempo. Cuando el hombre se hizo agricultor, necesitó escrutar los cielos para regular mejor los períodos de siembra y cosecha y así conseguir mayor eficiencia en su nuevo modo de supervivencia. Entonces la observación de la naturaleza, y fundamentalmente del comportamiento cíclico en los movimientos de los cielos, se convirtió en una tarea importante. Esa ocupación le permitió coleccionar durante un par de milenios un conjunto de observaciones que se acumularon paralelamente a las diferentes teorías que se desarrollaron para explicarlos.

1.1.1. El modelo geocéntrico

El primer modelo relativamente completo utilizado para predecir los movimientos celestes es el modelo geocéntrico, que se recuerda asociado al nombre de Claudio Ptolomeo (siglo II d. C.), quien recopiló muchos datos de siglos anteriores. Este modelo presenta un universo con la Tierra en el centro, la luna girando en torno a ella y el resto de los planetas (planeta significa ‘cuerpo errante’) describiendo complicados movimientos sobre un fondo de estrellas supuestamente fijas. Con este modelo se lograba comprender y predecir algunas regularidades de los movimientos celestes, como los eclipses, hasta entonces considerados como acontecimientos misteriosos por la mayoría de la humanidad. Más importante aún es la visión global del universo que ofrece el modelo de Ptolomeo. Se trata de una visión no unificada, donde se yuxtaponen el mundo sublunar —que engloba los cambiantes fenómenos que se dan en la tierra y su atmósfera, «por debajo» de la luna— y el mundo supralunar —en el que tendrían lugar los movimientos estables y sin ningún tipo de degradación de los astros celestes—. El mundo supralunar era, en definitiva, muy diverso del sublunar, y se asociaba a la idea de un universo inmutable y eterno.

Aunque algunos astrónomos habían concebido con anterioridad un modelo heliocéntrico (Aristarco de Samos, en el siglo III a. C.), este no presentaba ventajas evidentes. Por el contrario, parecía natural situar la Tierra como origen de un sistema de referencia absoluto para estudiar los movimientos celestes, debido a la existencia de la fuerza de la gravedad, que hace que todo caiga hacia el centro. La falta de explicación para el origen de esta fuerza, utilizando solo el sentido común, mantendrá durante muchos siglos el modelo geocéntrico como la solución más lógica.

1.1.2. Los modelos heliocéntricos

El cambio de una teoría física por otra suele venir motivado por avances en las mediciones experimentales de los fenómenos. Datos nuevos y más precisos hacen cada vez más complejas las explicaciones mediante la teoría antigua y apuntan hacia un nuevo modelo teórico que permita un esquema de comprensión más sencillo de todo lo que se sabe. Así, hubo que esperar hasta los siglos XVI y XVII para asistir a la sustitución del modelo geocéntrico por el modelo heliocéntrico gracias a las extraordinarias observaciones astronómicas de Tycho Brahe (1546-1601) y a las contribuciones teóricas de Nicolás Copérnico (1473-1543), Johannes Kepler (1571-1630) y Galileo Galilei (1564-1642).

Los modelos heliocéntricos —cada vez más refinados para tener en cuenta que las órbitas de los planetas no eran circulares (Copérnico), sino elípticas (Kepler)— pasaron a describir mejor los nuevos datos experimentales. No obstante, aún adolecían de un problema fundamental. Podían entenderse simplemente como hipótesis matemáticas que permitían cuadrar mejor los cálculos y las predicciones, pero no estaba claro si se referían a cómo se dan verdaderamente los fenómenos en la realidad.3 Para ello era necesario tener una teoría más profunda —no solamente cinemática, sino dinámica— que explicara qué fuerzas entre los planetas podían dar lugar a ese tipo de órbitas elípticas en torno al sol. En esa tesitura, el modelo heliocéntrico tenía soporte racional y disfrutaba de observaciones experimentales adecuadas, pero hasta los trabajos de Isaac Newton (1642-1727) dicho modelo no pudo considerarse como lo que actualmente se denomina una teoría científica.

Es Isaac Newton quien unifica la mecánica celeste y la mecánica sobre la Tierra —el mundo sublunar y el mundo supralunar— mediante una explicación común. Es decir, algo que ya es, propiamente hablando, una teoría física. En su trabajo, se abandona definitivamente la idea de la dualidad de mundos y se relacionan las observaciones astronómicas con las del movimiento terrestre. Newton formula sus tres leyes de la mecánica (ley de inercia, de la aceleración y de acción-reacción) para explicar el movimiento a partir de las fuerzas que actúan sobre un móvil. Estas tres leyes, junto con la ley de gravitación universal (la atracción entre dos cuerpos es proporcional a sus masas e inversamente proporcional al cuadrado de la distancia entre ellos), son capaces de explicar, con una aproximación extraordinaria, los movimientos de todos los astros que observamos en el universo. Las leyes de Newton se pueden expresar matemáticamente y, con dichas ecuaciones, se pueden realizar predicciones sobre fenómenos futuros, susceptibles de ser comprobadas experimentalmente. La mecánica celeste y universal de Newton se convierte en el paradigma del moderno método científico y produce la primera gran unificación de la física, que durará casi dos siglos.

Ahora bien, la mecánica newtoniana dará lugar a profundas reflexiones sobre el significado y la validez de los conceptos de espacio y tiempo. Para presentar su nueva teoría, Newton ha introducido la antigua idea de espacio concebida por Euclides: un lugar vacío, isótropo y homogéneo, en el cual reside o aparece la materia. En el espacio absoluto no existe un lugar privilegiado para situar un sistema de referencia, ya sea el centro de la Tierra, el Sol o cualquier otro punto del universo. Para Newton, el espacio y el tiempo están desacoplados entre sí y están desacoplados del resto de las magnitudes físicas. El espacio y el tiempo del universo físico permanecen infinitos e inmutables. El universo newtoniano no tiene necesidad de un origen en el espacio o en el tiempo.

 

1.1.3. La aparición de la teoría de la relatividad

Habrá que esperar hasta las primeras décadas del siglo XX para ver cambiar radicalmente esta concepción del universo, gracias a la teoría de la relatividad de Albert Einstein (1879-1955), que publica la versión especial en 1905 y la versión general en 1915. La teoría especial de la relatividad mantiene la constancia de la velocidad de la luz con independencia del estado de movimiento del observador que la está midiendo (algo tremendamente opuesto a nuestras percepciones habituales), de manera que la medida del espacio y del tiempo ha de ser relativa; debe cambiar según el estado de movimiento del observador. La teoría general de la relatividad (la extensión de la teoría a la dinámica) considera al espacio y al tiempo como variables fundamentales de la naturaleza que han de entrar en las ecuaciones que gobiernan todos los procesos físicos. Ya no son simples parámetros absolutos que hay que tener en cuenta solo para describir dónde y cuándo suceden los fenómenos. Ellos mismos pertenecen al ámbito de los fenómenos. De esta forma, la teoría de Einstein no habla del espacio y del tiempo por separado, desacoplados entre sí y del resto del mundo. El espacio-tiempo tiene una geometría (unas leyes de medida) que cambia dependiendo de la presencia de cuerpos masivos. La presencia de masa curva la geometría del espacio-tiempo, de tal manera que los movimientos de los cuerpos debidos a la interacción gravitatoria no provienen de fuerzas que se ejercen a distancia, sino de la curvatura del espacio-tiempo en que se hallan inmersos. Esta curvatura se puede imaginar como la que produciría un cuerpo suficientemente pesado situado en medio de un colchón elástico deformando la superficie plana a su alrededor y atrayendo hacia sí otros cuerpos más pequeños.

Por primera vez en la historia de la ciencia, el espacio y el tiempo entran en las ecuaciones de Einstein con el mismo rango lógico que otras magnitudes físicas, como la energía o la velocidad. De hecho, las ecuaciones de la relatividad pueden entenderse como un sistema acoplado en que la materia-energía modifica las propiedades geométricas del espacio-tiempo y el espacio-tiempo modifica las propiedades dinámicas de la materia-energía. La teoría de Einstein ha sido validada en varias ocasiones mediante la observación de fenómenos físicos que la mecánica de Newton era incapaz de resolver o explicar. Por ejemplo, la relatividad fue capaz de predecir con exactitud la variación del perihelio de Mercurio, que cambia una centésima de grado cada siglo. La teoría también predijo el valor de la desviación que se produce en un haz de luz al pasar cerca de una estrella de gran masa (una medición que realizó Arthur Eddington en 1919) y el cambio de la frecuencia de los movimientos periódicos de un reloj atómico a causa de la gravedad. En la actualidad, todos los sistemas GPS han de tener en cuenta este efecto.

La mecánica de Newton no fue desplazada en la física del día a día. De hecho, se sigue utilizando con gran éxito para la mayoría de los cálculos donde las velocidades de los cuerpos son mucho más pequeñas que la de la luz, donde conservan su rango aproximado de validez. Pero sí fue absorbida dentro de una teoría más general, la de Einstein. Y este hecho va a cambiar la manera de entender el universo, pues ya no tiene sentido tratar el espacio y el tiempo como realidades absolutas e invariables. La teoría de la relatividad pasaría a ser el nuevo marco para abordar la descripción científica global de todo el universo.

Con la relatividad general quedaron firmemente sentadas las bases sobre las cuales deberían construirse los nuevos modelos cosmológicos. Einstein, como todos los grandes científicos anteriores, continuó creyendo en un universo estático e inmutable. Sin embargo, al aplicar su modelo a todo el cosmos, fue consciente de que, en algún momento, se produciría el colapso del universo por causa de la gravedad, ya que dicha fuerza tiene siempre un carácter atractivo. Ese efecto había de ser equilibrado de alguna manera en sus ecuaciones para no llegar a un absurdo. Con este fin, el padre de la nueva teoría incluyó en sus ecuaciones un término repulsivo que contrarrestara la atracción gravitatoria. Denominó a dicho término la constante cosmológica y ajustó su valor exactamente para obtener un universo estable. No obstante, cuando algunos años más tarde se comprobó experimentalmente la expansión del universo (es decir, que el universo no es estático), Einstein consideró que introducir la constante cosmológica había sido el mayor error de su vida». Lo que resulta aún más curioso es que, hoy día, dicha constante es necesaria en las ecuaciones para poder describir la expansión acelerada del universo atestiguada por los datos experimentales actualmente disponibles, como veremos más adelante.

1.1.4. Un universo dinámico

Pero la ciencia no es una empresa meramente individual y se beneficia de muchas contribuciones. Si bien la primera hipótesis de un universo no estático parece corresponder al holandés Willem de Sitter (1872-1934) —quien plantea en 1917 que su curvatura debe crecer—, será entre 1922 y 1924 cuando el científico ruso Aleksandr Fridman (1888-1925) publique dos artículos en los que considera soluciones dinámicas a las ecuaciones de Einstein para todo el cosmos. En efecto, si se abandona la hipótesis de un universo estático, las ecuaciones relativistas admiten infinitas soluciones, en las cuales la distancia entre dos puntos cualesquiera del espacio-tiempo puede ir variando en función del tiempo. Surgen muchas posibilidades que permiten considerar un universo en evolución, de modo que la literatura científica se enriqueció notablemente con estas aportaciones.

La clasificación más sencilla de las posibles soluciones conduce a tres alternativas para el universo, dependiendo de la relación entre la inercia de la expansión y la interacción gravitatoria: un universo cerrado, un universo abierto o un universo plano. En un universo cerrado, la gravedad es más fuerte que la fuerza expansiva. En este caso, la expansión progresa hasta un punto en el cual la gravedad comienza a imponerse y causa la contracción del universo, que acabaría implotando sobre sí mismo. Por el contrario, si la inercia de la expansión es superior a la interacción gravitatoria, el universo es abierto y estará en expansión permanente. El universo plano es un caso límite entre las dos posibilidades anteriores; en esta situación, la expansión y la gravedad se compensan exactamente, de modo que el universo crece hasta alcanzar de modo asintótico una dimensión constante. Las mediciones actuales presentan pruebas evidentes a favor de un universo en expansión.

No obstante, resulta especialmente notable que, en los tres casos citados, la teoría de la relatividad siempre apunta a una singularidad en el origen del tiempo: un momento en el cual las magnitudes físicas relevantes se hacen infinitas o dejan de estar bien definidas. Si consideramos hacia atrás la historia del cosmos, todo parece apuntar a que el universo debió partir de un estado muy simple, de altísima concentración de materia y energía. Con esta constatación, la ciencia moderna comenzó a considerar por primera vez con su método el problema de un origen para el universo, para el mismísimo espacio-tiempo; una cuestión largamente enraizada en el pensamiento filosófico y teológico.

Fue el sacerdote y científico belga Georges Lemaître (1894-1966) el primero en formular lo que hoy se conoce como teoría del Big Bang. Además de desarrollar de manera independiente las soluciones cosmológicas dinámicas de la teoría de la relatividad, relacionó sus resultados con los incipientes resultados experimentales sobre la velocidad de desplazamiento de las galaxias lejanas (hablaremos de ello enseguida), lo que consideraba como un indicio evidente de la expansión del universo. Lemaître presentó en un artículo de 1931 la atrevida hipótesis de una evolución del universo a partir de un átomo primitivo. Según esta teoría, el universo debió comenzar a partir de una especie de átomo elemental, extremadamente denso, que fue creciendo mediante una gigantesca explosión, de modo que los diversos fraccionamientos y reagrupamientos sucesivos de la materia y energía allí contenida habrían dado lugar al cosmos que observamos hoy. No se trata de una explosión en el sentido habitual del término, mediante la que el espacio se va llenando a lo largo del tiempo con los fragmentos de un estallido. El mismo espacio-tiempo del universo se va agrandando, estirando, análogamente a como se hincha la superficie de un globo, sin que nada físico exista fuera de ese proceso de inflamiento.

La teoría de Lemaître tuvo en sus comienzos una mala acogida por algunos de los físicos más importantes de la época, que la veían como poco atractiva. Parecía dar pie a que dentro de la ciencia se introdujesen subrepticiamente la filosofía y la teología para hablar de una causa primera o de una creación. De hecho, el nombre popular de Big Bang fue acuñado por Fred Hoyle (1915-2001), quien utilizó por primera vez el término de modo irónico para referirse al modelo. Sin embargo, Lemaître siempre fue muy claro respecto de lo que pretendía con su teoría, y distinguía con claridad entre la búsqueda científica del origen del universo que observamos y la reflexión filosófico-teológica sobre la existencia de este. Durante la primera mitad del siglo XX, la teoría del Big Bang hubo de competir con otros modelos cosmológicos sobre la evolución del cosmos, como el universo estacionario con creación continua de materia del mismo Hoyle y de Dennis Sciama (1926-1999). La teoría del Big Bang fue enriqueciéndose durante estos años con mejoras y refinamientos teóricos y hubo de esperar la confirmación de varios resultados experimentales para su establecimiento como teoría estándar del origen del universo. Pasamos ahora a mencionar los más importantes.

1.2. EL BIG BANG Y SU RESPALDO EXPERIMENTAL

La contrastación de una teoría científica con los experimentos es esencial para el avance de la ciencia, de modo que se puedan aceptar o rechazar los modelos propuestos según su acuerdo o desacuerdo con los resultados obtenidos. Una consecuencia de lo que acabamos de decir es que el avance de la ciencia suele implicar tanto a la parte teórica como a la experimental y, necesariamente, el progreso tecnológico de los aparatos de medida.

1.2.1. El desplazamiento hacia el rojo de la luz emitida por las galaxias

La cosmología física no es ajena a este escenario. Así, gracias a la mejora en el diseño y la construcción de los telescopios, la calidad de los datos astronómicos disponibles aumentó notablemente durante las primeras décadas del siglo XX. Entre 1920 y 1930, los telescopios de Mount Wilson en California permitieron situar correctamente las nebulosas lejanas más allá de la Vía Láctea y, también, medir la diferencia entre la longitud de onda esperada y la realmente medida en la luz que provenía de dichas nebulosas. Las primeras observaciones al respecto se debieron a Vesto Slipher (1875-1969), pero en 1923 Edwin Hubble (1889-1953) concluyó que esas nebulosas lejanas en espiral, que por entonces se observaban en el límite de resolución, eran en realidad conjuntos de estrellas, es decir, galaxias como nuestra Vía Láctea. Un hecho que clarificó enormemente el panorama de evidencias experimentales astronómicas.

Estos resultados resultaron posteriormente claves para la consolidación de la teoría del Big Bang. ¿Qué información proporcionaba recibir una longitud de onda desplazada hacia el rojo? Que la fuente que emite esa luz está alejándose respecto de la Tierra. Se trata del conocido efecto Doppler: análogamente a como la frecuencia de la sirena de una ambulancia se hace más grave al alejarse el vehículo de nosotros, la luz de las galaxias lejanas llega a la tierra con una frecuencia menor (más grave) —y por tanto una longitud de onda mayor—4 de la que debería corresponderle.5 Además, las observaciones de Hubble en 1929 mostrarían que este efecto es directamente proporcional a la distancia que media entre la fuente de luz en cuestión y nuestro planeta. Es lo que se conoce como ley de Hubble, y es un primer indicio de que el mismo universo se halla en expansión. Siguiendo con la analogía del espacio-tiempo que se estira como la superficie de un globo, se pueda pensar en las galaxias como manchas en dicha superficie. Al inflar el globo, las manchas de la superficie se separan más rápidamente cuanto más lejos están unas de otras.

 

La ley de Hubble tiene entonces dos posibles explicaciones. O bien la Tierra se halla en el centro de una gran explosión de galaxias —algo insostenible, si se acepta el principio copernicano que rechaza la existencia de puntos privilegiados del espacio-tiempo—; o bien el universo se está expandiendo uniformemente, independientemente del lugar en que nos encontremos para observar dicha expansión. Dicho de otra manera, la velocidad relativa de alejamiento de las galaxias entre sí es proporcional a la distancia a la que se encuentran. Todas se ven alejándose entre sí.

Los datos de Hubble fueron rápidamente considerados como un apoyo evidente a la expansión del universo. Al verificarse la ley de Hubble, los científicos estaban midiendo nada más y nada menos que el ritmo de dicha expansión. Ahora bien, si la distancia entre las galaxias ha ido creciendo a lo largo de la historia del universo, todo ha tenido que estar mucho más cerca en el pasado… No obstante, en ese momento no se conocía ninguna interpretación teórica sobre el fenómeno, pues recordemos que la teoría del Big Bang es del año 1931. Los resultados de Hubble apuntaban al modelo de Lemaître, pero no eran aún totalmente decisivos. Hubo que esperar a la medición de la radiación de fondo de microondas (realizada inequívocamente apenas dos años antes de la muerte de Lemaître) para que el Big Bang recibiera el reconocimiento generalizado de la comunidad científica.

1.2.2. El descubrimiento de la radiación de fondo de microondas

En 1948, un antiguo estudiante de Fridman llamado George Gamow (1904-1968) había precisado que el estado primitivo del universo, además de ser extremadamente denso, tenía que haber sido mucho más caliente de lo que se pensaba. Gamow predecía en sus cálculos la existencia de un resto enfriado (a causa de la sucesiva expansión del universo) de radiación primitiva. Se trataría de algo parecido a un fósil de esos primeros instantes que debería estar presente en todos los rincones del universo. Esta radiación es lo que hoy se conoce como radiación de fondo de microondas.

¿Pero qué relación hay entre la magnitud física que se conoce como temperatura y las ondas electromagnéticas que pueblan el universo? ¿Acaso se puede medir la temperatura de la luz con un termómetro? La relación es más sutil de lo que parece. Los científicos sabían desde tiempo atrás que cualquier cuerpo que tiene una temperatura determinada y emite luz en equilibrio al exterior, sin ningún sesgo particular, lo hace según una curva universal que relaciona la cantidad de intensidad emitida con cada longitud de onda. Esta curva es universal en el sentido de que no depende del material, sino de la temperatura a la que se encuentra el cuerpo (es la ley de Planck). Así, por ejemplo, un hierro calentado a poco más de 1000 oC se ve de color rojo (emite preferentemente en la longitud de onda del rojo) y, si se calienta más, se pone blanco (todas las longitudes de onda participan de modo similar en la emisión). ¿Sería posible descubrir una radiación electromagnética en el universo que siguiera la ley de Planck?

Años más tarde, en 1964, dos científicos de la compañía Bell, Arno Penzias (1933-) y Robert Wilson (1936-), mientras estaban calibrando una antena de recepción de un telescopio de microondas, encontraron de modo casual un persistente ruido isótropo de fondo. Era una radiación muy pequeña, correspondiente a un espectro que cumplía perfectamente la ley de Planck para un cuerpo a una temperatura muy baja: en torno a 3 K (-270 oC). Intentaron por todos los medios hallar el origen de dicha radiación contaminante, incluso llegaron a desmontar el equipo. Todo fue inútil. Afortunadamente, alguien recordó que existía una predicción de Gamow sobre la radiación de fondo de un universo dinámico y que, dado el tiempo transcurrido en el universo desde la explosión original y debido a su enorme expansión, esta radiación debería corresponder a una temperatura muy baja. Se había descubierto la radiación de fondo de microondas casi por casualidad.

Hay que decir que esta radiación de fondo no se corresponde estrictamente hablando con los primerísimos instantes del cosmos, sino a lo que se conoce como la época del último scattering (dispersión), en torno a 380 000 años después del Big Bang. En esa época, el universo se ha enfriado lo suficiente para que los núcleos de los átomos y los electrones puedan recombinarse para formar ya átomos estables (sobre todo de hidrógeno), que dan lugar a la materia normal que hoy conocemos. Los fotones que componen la radiación electromagnética no suelen dispersarse al interaccionar con átomos estables, de modo que, en ese momento, el universo se habría hecho transparente a la luz. Y es esa luz la que continúa viajando por todo el cosmos sin impedimento alguno, como una reliquia electromagnética de aquella época. A causa de la expansión del universo, la longitud de onda de los fotones de la radiación de fondo se ha ido estirando hasta entrar en la región de las microondas. Sin embargo, estos fotones conservan la curva universal de la ley de Planck a una temperatura más baja (la curva correspondiente a 2,7 K es la que se mide en la actualidad). La radiación de fondo se podría observar en cualquier parte del universo, como de hecho ocurre, y proviene de todas direcciones con la misma intensidad (no hay ninguna dirección privilegiada).

En resumidas cuentas, la radiación de fondo era una prueba fehaciente de que la termodinámica del cosmos estaba de acuerdo con la termodinámica del Big Bang. Hoy día, esta radiación de fondo es, con diferencia, el dato empírico más importante para la cosmología física. Los telescopios la miden cada vez con más precisión y los científicos analizan la multitud de datos que se recogen para contrastarlos —mediante diversos tratamientos estadísticos muy serios— con las diversas hipótesis cosmológicas que buscan refinar el modelo del Big Bang.

1.2.3. La abundancia relativa de los elementos más ligeros

A grandes rasgos, se puede decir que el 99 % de la materia del universo que vemos está formada por hidrógeno y por helio, los dos elementos más ligeros de la tabla periódica. El 1 % restante corresponde a los elementos más pesados. El hidrógeno es el elemento más abundante, con una abundancia relativa del 75 %, mientras que al helio le corresponde un 24 %. ¿Hay alguna explicación dentro de la teoría del Big Bang para estas proporciones relativas en la abundancia de los elementos?

Sí. Sin entrar demasiado en detalles técnicos, podemos mencionar que la teoría del Big Bang afirma que los núcleos atómicos de los elementos más ligeros se formaron en los primeros segundos de vida del universo. Por ejemplo: si partimos de un universo extremadamente caliente, es lógico suponer que habría una cantidad similar de protones y de neutrones, pues la temperatura sería lo suficientemente grande para que se transformaran continuamente unos en otros, en un equilibrio dinámico. Cuando, a causa de la expansión, la temperatura empieza a disminuir (en torno a decenas de miles de millones de grados), los neutrones —que son ligeramente más pesados que los protones— continúan rompiéndose en partículas más pequeñas, pero ya no hay suficiente temperatura —energía disponible— para que vuelvan a formarse. La población de neutrones decae, mientras que los protones siguen manteniendo su número. Un poco de tiempo más tarde, la temperatura habrá descendido a solo unos cientos de millones de grados, momento en el que el protón y el neutrón se pueden unir para formar el núcleo de un átomo de deuterio (isótopo del hidrógeno), que ya es estable. Y la presencia del deuterio es clave para que, mediante otras reacciones nucleares, puedan empezar a formarse núcleos del átomo de helio. Es lo que se conoce como nucleosíntesis primordial. Si se realizan los cálculos de las proporciones esperadas, teniendo en cuenta la tasa de expansión y enfriamiento del universo prevista por la teoría, se obtienen los números que hoy día observamos.