Granice kosmosu – granice kosmologiiTekst

0
Recenzje
Przeczytaj fragment
Oznacz jako przeczytane
Jak czytać książkę po zakupie
Czcionka:Mniejsze АаWiększe Aa

Łukasz Lamża

GRANICE

KOSMOSU

GRANICE

KOSMOLOGII


Spis treści

Karta redakcyjna

CZĘŚĆ 1. WPROWADZENIE

1. Wstęp

1.1. Struktura książki i ustalenia terminologiczne

2. Kontekst kosmologiczny i filozoficzny

2.1. Fundamentalne parametry teorii fizycznych

2.2. Precyzyjne dostrojenie (fine-tuning) i zasada antropiczna

2.3. Wieloświat

2.4. Podsumowanie

CZĘŚĆ 2. CZĘŚĆ „KOSMOLOGICZNA”

3. Kosmologiczny dobór naturalny (KDN) – wprowadzenie

3.1. Inspiracje

3.2. Prace Smolina oraz dalsze losy jego hipotezy

4. Opis hipotezy KDN

4.1. Wszechświaty się rozmnażają

4.1.1. Informacja w otoczeniu klasycznych osobliwości

4.1.2. Przypadek nieklasyczny

4.2. Istnieje przestrzeń parametrów opisujących wszechświaty – baza dla „genotypu”

4.2.1. Analogie w tradycyjnej fizyce

4.3. Wszechświaty mają różne liczby potomków

4.3.1. Astrofizyczne czarne dziury – ilu potomków ma „nasz” Wszechświat?

4.3.2. Eliminacja „bezpłodnych” wszechświatów

4.4. Reprodukcji towarzyszy niedoskonała transmisja „genotypu”

4.4.1. Zmienne stałe?

4.4.2. Niewielka zmiana „genotypu”

4.5. W populacji wszechświatów następuje ewolucja

4.5.1. Różnice między ewolucją biologiczną a ewolucją wieloświata Smolina

4.5.2. Ewolucja wieloświata według hipotezy KDN

4.5.3. Metody uniknięcia scenariuszy pesymistycznych

4.6. Istnieją sygnatury tego procesu

CZĘŚĆ 3. CZĘŚĆ „FILOZOFICZNA”

5. Przewidywania hipotezy KDN

5.1. Specyfika kosmologii jako nauki dynamicznie się rozwijającej

5.2. Przykładowy argument teoretyczny – masa protonu i neutronu

5.3. Przykładowy test falsyfikacyjny – gwiazdy neutronowe

6. Czarne dziury a Homo sapiens

6.1. Problem z abiogenezą

6.2. Problem z rolą przypadku w biologii ewolucyjnej

6.3. Problem z definicją życia i inteligencji

7. Jak istnieją prawa przyrody?

7.1. Dlaczego teorie kosmologii prowadzą do zagadnienia praw przyrody?

7.2. Prawa przyrody i ich zmienność w fizyce klasycznej i naukach szczegółowych

7.3. Prawa przyrody i ich zmienność w klasycznych teoriach pola

7.4. Prawa przyrody w kosmologii fizycznej

7.4.1. Dynamiczne ustalanie się mas cząstek

7.4.2. Parametry inflacji kosmologicznej

7.4.3. Rozwiązanie ontologicznego problemu identyfikacji

7.5. Zmienność praw przyrody w hipotezie KDN

8. Świat jako organiczna jedność – o zasadzie ceteris paribus

8.1. Zasada ceteris paribus – wprowadzenie

8.2. Zasada ceteris paribus w kosmologii fizycznej i hipotezie KDN

8.3. Współzmienność parametrów fundamentalnych

8.4. Współzależność procesów naturalnych

8.5. Podsumowanie

9. Granice obserwacji w kosmologii

9.1. Bezpośrednia obserwacja wczesnych epok ewolucji Kosmosu

9.1.1. Obserwacje promieniowania elektromagnetycznego

9.1.2. Obserwacje neutrin

9.1.3. Obserwacje pozostałych cząstek

9.1.4. Obserwacje fal grawitacyjnych oraz dokonywane za pośrednictwem „anomalnych” struktur czasoprzestrzennych

9.1.5. Obecna sytuacja kosmologii obserwacyjnej i perspektywy zmian

9.2. Obserwacja w wieloświecie

9.3. Podsumowanie

10. Kosmologiczny dobór naturalny i granice nauki

Aneks

Bibliografia

Przypisy

Katalog wydawniczy

Adiustacja: DAWID SKRABEK / Pracownia BezkropekZ

Projekt okładki: MARIUSZ BANACHOWICZ

Projekt typograficzny: MIROSŁAW KRZYSZKOWSKI

Skład: MELES-DESIGN

Ilustracja na okładce: © Copyright by AlexussK/Shutterstock

© Copyright by Łukasz Lamża & Copernicus Center Press, 2015

ISBN 978-83-7886-144-7

Wydanie I

Kraków 2015

Copernicus Center Press Sp. z o.o.

pl. Szczepański 8, 31-011 Kraków

tel./fax (+48 12) 430 63 00

e-mail: marketing@ccpress.pl Księgarnia internetowa: http://en.ccpress.pl

Konwersja: eLitera s.c.

Wprowadzenie

Dokument chroniony elektronicznym znakiem wodnym

20% rabatu na kolejne zakupy na litres.pl z kodem RABAT20

1. Wstęp

Kosmologia to fascynująca nauka – ale tylko dlatego, że Kosmos jest tak fascynującym miejscem. Coś, co jeszcze sto lat temu mogło wywoływać co najwyżej ironiczny uśmiech, dziś staje się powoli wiedzą powszechną – cały obserwowalny Wszechświat skurczony do rozmiarów pomarańczy, niewidzialna forma energii rozpychająca świat od środka, materia tak gęsta, że jej jedna łyżeczka waży tyle, ile tysiąc piramid z Gizy... Co bardziej odważni fizycy mówią o podróżach w czasie, tunelach czasoprzestrzennych między odległymi galaktykami i miliardach wszechświatów podobnych do naszego. Nie ulega wątpliwości, że tego typu doniesienia to wyzwanie dla ludzkiej wyobraźni. Nic w tym jednak dziwnego – mówimy tu bowiem nie tylko o granicach Kosmosu, ale również o granicach samej kosmologii.

 

Mamy tu bowiem do czynienia z czymś wyjątkowo ekscytującym, co zarazem wywołuje w nas niepokój i nakazuje daleko idącą ostrożność. Dlatego coraz częściej można się spotkać z nieufnością wobec coraz bardziej niesamowitych doniesień „z dalekiego świata”. Czy ktoś tak naprawdę widział Wielki Wybuch albo czarną dziurę – a jeśli nie, to czy kosmologia zasługuje na miano nauki. I nie są to bynajmniej pytania trywialne. W toku najzupełniej normalnego i zdrowego rozwoju nauki – i naszego poznawania niesamowitości i dziwności Kosmosu – również nauka o Kosmosie robi się coraz bardziej niesamowita i dziwna... Dlatego niniejsza książka stawia przed sobą dwa główne cele.

Po pierwsze, przedstawia ona – po raz pierwszy wyczerpująco w języku polskim – jedną ze współczesnych spekulatywnych teorii kosmologicznych, mającą za zadanie wyjaśnić – bagatela! – wartości fundamentalnych parametrów fizyki, na przykład ładunek elektronu, masę cząstek elementarnych czy „siłę” oddziaływań fundamentalnych. Teoria ta, zaproponowana przez amerykańskiego kosmologa L. Smolina, nosi nazwę „kosmologicznego doboru naturalnego” (cosmological natural selection). Jest to bardzo odważna, ale też i niezwykle interesująca propozycja, która balansuje gdzieś na granicy między „twardą” kosmologią a śmiałą spekulacją. Solidne zrozumienie tego, co tak naprawdę proponują kosmolodzy, gdy mówią o wielu wszechświatach, bardzo pomaga w uchwyceniu odpowiedniej perspektywy. Może też zmienić powszechny stosunek do kolejnych „sensacyjnych doniesień” na temat Wszechświata.

Po drugie, zawiera ona szereg rozważań filozoficznych, których zadaniem jest pokazanie, w jaki sposób obecność w „przestrzeni naukowej” tego typu propozycji stawia w nowym świetle nie tylko kosmologię, ale i całą naukę. Najzupełniej standardowe metody i założenia nauk przyrodniczych przestają być czymś „naturalnym”, a zaczynają domagać się krytycznego i filozoficznego osądu – zwłaszcza jeśli zaczyna się je stosować w badaniach dotyczących „obszarów granicznych”. Przychodzi nam bowiem zmierzyć się z obiektami, których obserwacja wydaje się być nie tyle trudna, co wręcz niemożliwa. Nie możemy się jednak obrażać na świat tylko dlatego, że wymyka się naszym obserwacjom. Co więcej, może problemem nie jest sam świat, ale model naukowej obserwacji, któremu trzeba się bliżej przyjrzeć?

Bez względu na to, po której ze stron się opowiemy, istotne jest to, by w obliczu dziwności Kosmosu i kosmologii mieć jednocześnie otwarty i trzeźwy umysł. Z jednej strony warto wiedzieć, które propozycje mają solidne umocowanie w „twardej” kosmologii obserwacyjnej, a które przynależą do spekulatywnego marginesu nauki. Z drugiej jednak powinniśmy mieć na uwadze fakt, że z każdym kolejnym odkryciem naukowym świat będzie się nam wydawał coraz dziwniejszy. Na granicach poznania musi być dziwnie... Dlatego, mając umysł otwarty i trzeźwy, przyjrzyjmy się z bliska granicom Kosmosu i kosmologii.

1.1. Struktura książki i ustalenia terminologiczne

Na początku wszystkich głównych podrozdziałów niniejszej książki znajdują się krótkie streszczenia ich treści. Treść tych streszczeń została powtórzona w Aneksie, który stanowi swego rodzaju podsumowanie całej książki. Rozpoczynających lekturę Czytelników serdecznie zachęcam do zapoznania się najpierw z tym streszczeniem.

Pojawienie się hipotezy wieloświata (multiverse) może powodować potencjalne trudności w zrozumieniu tego, czym jest „wszechświat” (universe), ponieważ w ramach tej hipotezy mówi się o wielu obiektach analogicznych do „naszego” Wszechświata. W rozdziale 2 przedstawione zostało techniczne rozumienie terminu „wszechświat” stosowane we współczesnej kosmologii fizycznej i zakorzenione pojęciowo w ogólnej teorii względności. W ramach kosmologii możliwe jest mówienie o różnego typu „wszechświatach”, które w związku z tym będą w niniejszej pracy zapisywane małą literą, w przeciwieństwie do „naszego” Wszechświata. Podobnie, utrzymywane będzie rozróżnienie między Wielkim Wybuchem, który nastąpił w „naszym” Wszechświecie a hipotetycznymi wielkimi wybuchami pojawiającymi się w teorii wieloświata. Tego typu konwencja zaczyna powoli utrwalać się w polskim piśmiennictwie, wpisując się przy tym w tradycję analogicznych konwencji związanych z innymi pojęciami astronomicznymi, takimi jak „Księżyc” i „księżyc” czy „Słońce” i „słońce”.

2. Kontekst kosmologiczny i filozoficzny

2.1. Fundamentalne parametry teorii fizycznych

Istnieje około 30 parametrów liczbowych, których ustalenie pozwala na całkowite sprecyzowanie dwóch najważniejszych obecnie teorii fizyki fundamentalnej – modelu standardowego cząstek elementarnych oraz modelu kosmologicznego ΛCDM.

Współczesna fizyka opiera się na modelach – do tego stopnia, że uważa się je obecnie za kluczowy element wszystkich nauk przyrodniczych i jedno z ważniejszych zagadnień filozofii nauki (Frigg i Hartmann 2012). Kluczową cechą modeli naukowych, która odpowiedzialna jest za ich wielki sukces i efektywność, jest prosta i „zamknięta” struktura. W przeciwieństwie do modeli, świat przyrody – w takim zakresie, w jakim ujawnia nam się za pośrednictwem obserwacji – jest natomiast tworem o złożonej i „otwartej” strukturze.

Przykładowo, nie ma żadnych wątpliwości, ile typów cząstek elementarnych występuje w tak zwanym „modelu standardowym” (jest ich 61[1]) albo ile typów zasad azotowych występuje w modelu DNA Watsona i Cricka (4[2]). Natomiast lista cząstek elementarnych jako takich jest wciąż otwarta – nikt przecież nie wyklucza, że mogą zostać w przyszłości odkryte nowe ich odmiany, a niektóre rozszerzenia fizyki (supersymetria) wręcz opierają się na takim założeniu! Podobnie, obserwuje się „niestandardowe” zasady azotowe (Pang 2012). Ogólniej można powiedzieć, że w świecie przyrody rzadko jakiś jej element jest tak jednoznaczny i bezwyjątkowy, jak w świecie modeli naukowych, w tym modeli matematycznych. Taka właśnie jest istota modelu – ma on stanowić swoiste uproszczenie rzeczywistej złożoności świata i mieć dzięki temu całkowicie jawną, „przejrzystą” strukturę.

Jedną z konsekwencji takiego stanu rzeczy jest możliwość jednoznacznego wypisania wszystkich występujących w danym modelu parametrów liczbowych. W drugiej połowie XX wieku zaczęła się stabilizować liczba parametrów niezbędnych do całkowitego ustalenia postaci matematycznej dwóch fundamentalnych dla fizyki „modeli standardowych”, nazywanych tak ze względu na ich powszechną akceptację w świecie naukowym. Pierwszym z nich jest wspomniany już model standardowy cząstek elementarnych, czyli teoria opierająca się pojęciowo na kwantowej teorii pola, opisująca mikroskopowe oddziaływania pól i cząstek. Drugim jest model standardowy kosmologii oparty na ogólnej teorii względności, opisujący wielkoskalową dynamikę czasoprzestrzeni. Ze względu na obecność w nim stałej kosmologicznej (Λ, lambda), oraz tak zwanej „zimnej” ciemnej materii (CDM, cold dark matter), model ten czasem określa się skrótem – ΛCDM.

Ze względu na pewną swobodę w wyborze szczegółowej postaci modeli podaje się czasem różną liczbę parametrów liczbowych, które trzeba w nich umieścić „ręcznie” – tak zwanych wolnych parametrów teorii. J. Baez w 2002 roku stwierdził, że model standardowy cząstek elementarnych domaga się 25 parametrów (Baez 2002). Inni autorzy podają podobne liczby – 27 (Mannel 2011) czy 28 (Donoghue 2007). Istnieje również pewna swoboda w szczegółowym doborze składników modelu kosmologicznego (np. modele z inflacją lub bez niej), stąd jako ilość fundamentalnych parametrów kosmologicznych podaje się liczby od 1 do 6 (Baez 2002; Spergel i in. 2003), a nawet implikuje się istnienie dodatkowych parametrów, związanych zwłaszcza z różnymi wersjami hipotezy inflacyjnej (Smolin 1992).

Obok wcześniej wymienionych parametrów liczbowych, które pojawiają się w równaniach jako zmienne matematyczne, jako elementy modeli kosmologicznych, niezbędne ze względów matematycznych, wymienia się czasem liczby typu: ilość wymiarów czasoprzestrzeni Minkowskiego – przestrzennych (Rees 2000), a nawet czasowych (Tegmark 2007) – czy ilość „pokoleń” fermionów (Donoghue 2007). Liczby te nie pojawiają się w równaniach w postaci zmiennych, lecz są „ukryte” w strukturze teorii. Przykładowo, ilość wymiarów przestrzennych i czasowych wprowadzana jest do modelu kosmologicznego poprzez wybór sygnatury użytych tensorów.

Do osobnej kategorii należą takie stałe, jak prędkość światła w próżni lub stała Plancka, które do listy podstawowych parametrów fizyki włączył między innymi M.J. Rees (Rees 2000). Te jednak obecnie zwyczajowo pomija się w równaniach poprzez przyjęcie, że ich wartość wynosi 1. Ten zabieg matematyczny z jednej strony bardzo „oczyszcza” równania, a z drugiej narzuca wybór wymiarowości pozostałych parametrów fizycznych.

Ponadto – co dodatkowo komplikuje sprawę – w literaturze poświęconej analizie wartości tych parametrów często bierze się pod uwagę parametry wynikające wtórnie z parametrów podstawowych, które same nie mają charakteru fundamentalnego. W fizyce cząstek elementarnych przyjęło się mówić na przykład o różnicy masy neutronu i protonu (∆m), choć parametr ten jest pochodny wobec mas kwarków. Podobnie, w kosmologii często dyskutuje się znaczenie stałej Hubble’a, którą można obliczyć z równań modelu ΛCDM. L. Smolin, którego hipoteza będzie omawiana szczegółowo w dalszej części pracy, często skupia swoją uwagę na parametrach, które nie znajdują się na „standardowych” listach fundamentalnych parametrów fizycznych (zob. rozdz. 5).

Podsumowując, do pełnego sformułowania dwóch najważniejszych teorii fizyki fundamentalnej potrzebnych jest więc około 30 parametrów liczbowych, których wartości nie wynikają z teorii, ale muszą być określane poprzez pomiary instrumentalne. Parametry te wzbudzają zrozumiałe zainteresowanie, ponieważ – pomijając już same równania – ustalenie ich wartości prowadzić by mogło do ostatecznego sprecyzowania dynamiki wszechświata[3]. Znaczenie tych liczb bardzo dobrze pokazuje przywoływane czasem (np. Davies 1996, 46) wyobrażenie Boga siedzącego za konsolą, na której znajduje się 30 pokręteł służących do ustalania wartości poszczególnych parametrów – wystarczy tylko wybrać ich wartości i wcisnąć wielki czerwony przycisk, aby „stał się świat”[4]. Zainteresowanie tym tematem wzrosło niebywale, gdy okazało się, że w wielu przypadkach nawet niewielka zmiana wartości parametru mogłaby, jak się wydaje, doprowadzić do dramatycznych konsekwencji fizycznych – jest to osławiony problem „precyzyjnego dostrojenia” (fine-tuning).

2.2. Precyzyjne dostrojenie (fine-tuning) i zasada antropiczna

Zauważono, że w wielu przypadkach nawet niewielka zmiana wartości fundamentalnych parametrów teorii fizycznych prowadzi do poważnych zmian w strukturze świata opisywanego przez te teorie. W szczególności, tylko w bardzo wąskim zakresie wartości teorie te są niesprzeczne z istnieniem człowieka – wiąże się to z tak zwaną zasadą antropiczną.

Matematyczne „zbiegi okoliczności” pojawiały się w teoriach naukowych od samego początku istnienia zmatematyzowanych nauk przyrodniczych (wyczerpujący przegląd historyczny znajduje się w: Barrow i Tipler 1986, 219–287). W kontekście współczesnych teorii kosmologicznych jako jeden z pierwszych zwrócił na to uwagę R.H. Dicke (Dicke 1957), komentując bardzo szczególną wartość parametru ε (stanowiącego miarę ubytku masy czterech protonów przy wytworzeniu jednego atomu helu), proponując od razu „rozwiązanie”, które później określono jako zasadę antropiczną:

Intensywność promieniowania gwiazdy zmienia się proporcjonalnie do ε-7 i przy znacząco większych wartościach ε niż wartość obecna wszystkie gwiazdy byłyby [już] zimne. To wykluczyłoby istnienie człowieka, który mógłby rozważać ten problem. [...] Gdyby zaś parametr ten miał obecnie znacznie wyższą wartość, intensywna emisja promieniowania we wcześniejszych epokach doprowadziłaby do zamienienia całego wodoru w cięższe pierwiastki, ponownie uniemożliwiając powstanie człowieka (Dicke 1957, 363; cyt. za: Barrow i Tipler 1986, 246).

 

Barrow i Tipler zaproponowali następującą definicję tak zwanej słabej zasady antropicznej:

Zaobserwowane wartości wszelkich parametrów fizyki i kosmologii nie są tak samo prawdopodobne, lecz przyjmują wartości ograniczone wymaganiem, aby istniały [we Wszechświecie] miejsca, w których może rozwinąć się życie oparte na węglu, oraz aby Wszechświat był wystarczająco stary, by takie faktyczne życie zdążyło powstać (Barrow i Tipler 1986, 16).

Zbadajmy bliżej kwestię „precyzyjnego dostrojenia” parametrów fundamentalnych, przyglądając się dwóm typowym przykładom podawanym w literaturze – precyzyjnemu dostrojeniu tak zwanych stałych sprzężenia decydujących o „sile” oddziaływań fundamentalnych (rys. 1a) oraz mas cząstek elementarnych (rys. 1b).


Rys. 1. Zjawiska fizyczne występujące przy różnych wartościach parametrów fundamentalnych: a) stałej sprzężenia oddziaływania elektromagnetycznego (nazywanej także stałą struktury subtelnej) oraz stałej sprzężenia silnego oddziaływania jądrowego; b) masy elektronu oraz różnicy mas kwarku dolnego i górnego

Źródło: na podstawie (Tegmark 2007, 110; Hogan 2007, 225)

Rysunek 1a ilustruje efekt, jaki przyniosłoby przyjęcie odmiennych wartości stałych sprzężenia oddziaływań fundamentalnych (o stałych sprzężenia będzie też mowa w podrozdz. 7.4). Przykładowo, podniesienie wartości stałej sprzężenia oddziaływania silnego nawet o niewielką wartość spowodowałoby tak zwaną „katastrofę diprotonową”, a więc taką sytuację, w której wszystkie nukleony związane byłyby w jądrze o budowie pp, czyli 2He. Jądro to jest niestabilne w „naszym” Wszechświecie, jednak odrobinę nawet silniejsze oddziaływania pomiędzy protonami doprowadziłyby do uczynienia z tego jądra najbardziej stabilnej konfiguracji nukleonów. Skutkiem ubocznym katastrofy diprotonowej byłoby więc niepojawienie się we Wszechświecie człowieka, który zbudowany jest wszak z pierwiastków cięższych od helu[5].

Rysunek 1b przedstawia wynik podobnego rozumowania przeprowadzonego dla dwóch parametrów określających masy cząstek elementarnych. Przykładowo, sektor wykresu opisany jako „świat protonów” zawiera punkty reprezentujące takie proporcje mas cząstek, przy których – ze względu na niestabilność jądra deuteru – nie powstałyby w ogóle żadne jądra atomowe cięższe od protonu. Skutkiem tego typu ewentualności również byłoby niepojawienie się na świecie człowieka.

Jeśli wrócimy do hipotezy, iż fundamentalne parametry fizyki są w jakimś sensie „swobodne”, a więc że ich wartości nie są konieczne (lub, równoważnie, że mogłyby być inne), w pełni ujawni się kwestia „precyzyjnego dostrojenia” tych parametrów. W pewnych przypadkach nawet minimalna zmiana wartości prowadziłaby do dramatycznych konsekwencji, co dobrze ilustruje rysunek 1a. Ponadto, jeśli przyjmiemy, że parametry fundamentalne mogłyby hipotetycznie przyjmować dowolną wartość, podzbiór wartości zgodnych z występowaniem we wszechświecie życia jest miary zero[6].

Istnieją w zasadzie trzy „standardowe” grupy odpowiedzi na problem precyzyjnego dostrojenia parametrów fizyki (zob. np. Barrow i Tipler 1986, 1–23):

• przypadek,

• interwencja Boga,

• konieczność.

Pierwsza z tych odpowiedzi jest zdecydowanie najprostsza i ucina wszelką dalszą dyskusję. Świat mógłby być inny, jednak – szczęśliwie dla nas – po prostu nie jest. Jest to opcja odpowiednia dla osób, dla których filozoficznie satysfakcjonująca jest kosmogonia – czyli teoria powstania świata – oparta na łucie szczęścia. Ze względu na jej wyjątkową prostotę jest w pewnym sensie zaskakujące, że cieszy się ona tak małym powodzeniem – wydaje się, że największą wadą tej odpowiedzi jest to, iż nie da się za bardzo na jej temat filozofować. Stanowi ona domknięcie łańcucha wyjaśnień naukowych za pomocą czegoś, co w filozofii określa się czasem jako brute fact – brutalny (lub nagi) fakt.

Druga z tych odpowiedzi wiąże się z koniecznością połączenia kosmologii z teologią, nawet jeśli najzupełniej rudymentarną. W kontekście teologii mówi się o „argumencie z precyzyjnego dostrojenia” (fine-tuning argument), który wymienia się dziś jednym tchem obok klasycznych „dowodów na istnienie Boga” (np. Plantinga 2007; Ratzsch 2010); argument ten określa się czasem wręcz jako „najbardziej przekonujący spośród znanych obecnie argumentów za istnieniem Boga” (Collins 2000). Działanie Boga – mimo że wiąże się ono ze znaczącym rozszerzeniem dyskusji poza teren kosmologii fizycznej – jest wymieniane jako „naturalna” alternatywa dla argumentów kosmologicznych (Polkinghorne 2008, 100–127). W ramach nauk przyrodniczych hipoteza Boga jest jednak „ciałem obcym” i albo zostaje przemilczana, albo od razu jawnie wykluczona (Smolin 1992).

Trzecia ewentualność jest filozoficznie interesująca, jednak domaga się dalszych wyjaśnień – dlaczego konieczne jest, aby wartości parametrów fundamentalnych były właśnie takie a nie inne? Istnieje znaczna liczba różnych rozwiązań tego problemu, które znów można schematycznie podzielić na dwie podgrupy – bez wieloświata i z wieloświatem.

Przekonanie, że istnieje tylko jeden wszechświat (nasz Wszechświat) o tylko jednym zestawie parametrów fundamentalnych, a wartości tych parametrów są konieczne, można spróbować obronić na kilka sposobów. Po pierwsze, można próbować wykazać, że parametry te nie są aż tak „swobodne”, jak by się to wydawało. Na początku XX wieku modne było poszukiwanie formuł matematycznych opartych między innymi na stałych matematyki, z których miałyby ściśle wynikać parametry teorii fizycznych. Najsłynniejszym przykładem były chyba próby A.S. Eddingtona, który chciał w ten sposób wyprowadzić stałą struktury subtelnej oraz kilka innych bezwymiarowych stałych fizyki (Eddington 1935). Choć tego typu pomysły szybko zostały skompromitowane (Born 1944) i są obecnie traktowane wyłącznie jako numerologiczna ciekawostka (Barrow i Tipler 1986, 224–227), do dziś pojawiają się czasem w literaturze filozoficznej (Staruszkiewicz 2008) jako wyraz tęsknoty za pełnym zakorzenieniem fizyki w matematyce.

Nieco bardziej wyrafinowane teoretycznie są próby wywiedzenia wartości parametrów z wewnętrznych właściwości teorii fizycznych, a więc próby pokazania, że teorie te są strukturalnie zgodne wyłącznie z pewnego typu zawężoną przestrzenią możliwych wartości. Argument tego typu można na przykład zastosować do stałych określających wymiarowość czasoprzestrzeni Minkowskiego oraz ilość wymiarów czasowych i przestrzennych. Przykładowo, można pokazać (Tegmark 1997), że przy przyjęciu 4 wymiarów przestrzennych nie da się uzyskać stabilnej mechaniki orbitalnej, przy przyjęciu 2 lub więcej wymiarów czasowych rozmaitość czasoprzestrzenna posiada anomalną strukturę przyczynową[7]. Jeszcze bardziej subtelne argumenty bywają przywoływane w celu zawężenia realistycznie dostępnych wartości parametrów fizycznych (Tegmark 2007; Donoghue 2007). Jest to bardzo interesująca strategia badawcza, jednak wydaje się mieć ona ograniczone znaczenie dla wyjaśniania całości znanego nam bogactwa parametrów teorii fizycznych.

2.3. Wieloświat

Jednym ze sposobów na wyjaśnienie problemu precyzyjnego dostrojenia parametrów jest postulowanie istnienia dużej liczby wszechświatów, w których parametry te przyjmują różne wartości – na tyle dużej, żeby istnienie wszechświata podobnego do naszego stało się wysoce prawdopodobne.

Na koniec pozostają do omówienia propozycje opierające się w zasadzie na argumencie statystycznym. Jeśli bowiem przywołamy wystarczająco dużą liczbę wszechświatów o wszelkich możliwych zestawach parametrów fundamentalnych, istnienie w tej zbiorowości – nazywanej „wieloświatem” – wszechświata o właściwościach sprzyjających powstaniu życia stanie się wysoce prawdopodobne lub wręcz „prawie pewne”. Jeśli zaś choćby jeden wszechświat ma odpowiednie właściwości, pozostaje uznać, że jest to właśnie nasz Wszechświat.

Historycznie pierwsze próby użycia hipotezy wieloświata do wyjaśnienia problemu precyzyjnego dostrojenia nie zawierały żadnych realistycznych przepisów kosmologicznych na generowanie poszczególnych wszechświatów czy informacji o ich wzajemnych relacjach – były to propozycje czysto statystyczne. Przykładowo, B. Carter, któremu przypisuje się pierwsze użycie określenia „zasada antropiczna” (Barrow i Tipler 1986, 21–22; Heller 2008b, 45), opisał wieloświat po prostu jako „zbiorowość wszechświatów” (an ensemble of universes), gdzie termin „zbiorowość” ma ścisły sens statystyczny. W takim rozumieniu wieloświat nie posiada żadnej fizycznej „tożsamości”, jest tylko określeniem na zabieg statystyczny mający uzasadnić tezę, że Wszechświat nie wymaga precyzyjnego dostrojenia. Jak zostało to już zasygnalizowane wcześniej, jest chyba wyłącznie kwestią filozoficznego „gustu”, czy preferowany powinien być model kosmologiczny z jednym wyjątkowym wszechświatem, czy też model z nieprzeliczalną ilością wszechświatów o dowolnych właściwościach (Heller 2008b, 46).

Dziwaczne na pozór założenie, jakoby miały istnieć wielkie ilości wszechświatów, staje się odrobinę bardziej uzasadnione, jeśli wyniknie ono z konkretnej hipotezy kosmologicznej zawierającej mechanizm powstawania tychże wszechświatów. Przede wszystkim, warto zauważyć, że hipoteza wieloświata wydaje się przynajmniej odrobinę mniej dziwaczna, jeśli zwróci się uwagę na techniczny sens terminu „wszechświat” w fizyce. Jak już powiedziano wcześniej, kosmologia jest obecnie nauką opierającą się na modelach matematyczno-fizycznych, przez co sam termin „wszechświat” ma również status terminu technicznego – może być najogólniej rozumiany jako obszar czasoprzestrzeni opisywany przez któreś z kosmologicznych rozwiązań równań pola Einsteina.

W telegraficznym skrócie – równania pola sformułowane przez Einsteina zawierają w sobie „przepis” na geometrię przestrzeni. Jest to elastyczne narzędzie matematyczne i można za jego pomocą wyrazić wiele różnych możliwości – nieskończoną, płaską, pustą przestrzeń; przestrzeń zakrzywioną jak piłka; przestrzeń rozszerzającą się albo statyczną; przestrzeń globalnie wirującą... i tak dalej. Każda z tych ewentualności jest osobnym rozwiązaniem równań pola. Te rozwiązania, które opisują obiekt geometryczny „nadający się” do zastosowań kosmologicznych, określa się jako rozwiązania kosmologiczne.

W tym sensie najprostszym sposobem powołania do życia wieloświata jest pokazanie, że matematycznie niesprzeczne jest opisanie konfiguracji czasoprzestrzeni, w której występuje wiele takich obszarów, które my zwykliśmy określać jako „wszechświaty”. Propozycje tego typu, nieokreślane jeszcze terminem „wieloświat”, pojawiały się w istocie od najwcześniejszych lat istnienia ogólnej teorii względności w ramach hipotezy wszechświata cyklicznego (np. Tolman 1934; Heller 2008a). Wszechświat cykliczny to taki wszechświat, który rozpoczyna się od wielkiego wybuchu, po fazie ekspansji zaczyna ponownie się „kurczyć” („wielki kolaps”), zaś ukoronowaniem fazy kolapsu jest „odbicie” i kolejna faza ekspansji. Omawiana w rozdziale 4 propozycja Smolina jest właśnie szczególną odmianą tego typu rozumowania, gdzie nie tylko globalny kolaps, ale także lokalny kolaps grawitacyjny – który zwykle interpretuje się jako proces prowadzący do powstawania czarnych dziur – prowadzi do wyłonienia się nowego ekspandującego obszaru czasoprzestrzeni. Można więc powiedzieć, że kosmologia fizyczna jest strukturalnie „otwarta” na hipotezę wieloświata.

Istnieją także zupełnie innego typu hipotezy, które można wykorzystać w celu utworzenia zbiorowości statystycznej odpowiedniej dla rozwiązania problemu precyzyjnego dostrojenia. Wiążą się one z hipotezą inflacji kosmologicznej, czyli fazy bardzo intensywnej ewolucji czasoprzestrzeni we wczesnym stadium ewolucji wszechświata (w fazie, gdy wiek wszechświata wynosił ok. 10-35–10-33 s). W niektórych wersjach tej hipotezy, w których za inflację odpowiedzialne jest nowego typu pole fizyczne – pole inflatonowe – występują samowzmacniające się lokalne niejednorodności „tempa” inflacji prowadzące do wyłaniania się częściowo odrębnych od siebie obszarów czasoprzestrzeni (Linde 1982; Guth 2007, zob. też podrozdz. 7.4.2). Można pomyśleć o tych obszarach jako o tych miejscach na nadmuchiwanym baloniku, w których guma jest cieńsza – będą one rozciągały się szybciej od obszarów sąsiednich, tworząc w skrajnym przypadku wystające „bańki”.