Moda, wiara i fantazja we współczesnej fizyce Wszechświata

Tekst
0
Recenzje
Przeczytaj fragment
Oznacz jako przeczytane
Jak czytać książkę po zakupie
Czcionka:Mniejsze АаWiększe Aa

Mimo to, pod pewnym istotnym względem teoria Einsteina jest tak naprawdę bardzo prosta – być może nawet prostsza (czy też bardziej „naturalna”) niż teoria Newtona. Ogólna teoria względności opiera się na matematycznej teorii geometrii riemannowskiej (lub, mówiąc ściślej, o czym będzie też mowa w §1.7, pseudoriemannowskiej) 4-rozmaitości o dowolnej krzywiźnie (zob. też §A.5). Nie jest to dziedzina matematyki, którą łatwo przyswoić, ponieważ wymaga wcześniejszego zrozumienia, czym jest tensor i jaką rolę pełnią tego typu wielkości, a także jak się konstruuje obiekt tensorowy R, znany jako tensor krzywizny Riemanna, z tensora metrycznego g, który wyznacza geometrię. Następnie po dokonaniu kontrakcji i zwężania możliwe jest skonstruowanie tensora Einsteina G. Mimo wszystko, zasadnicze idee geometryczne kryjące się za tym formalizmem można pojąć ze względną łatwością, a gdy tylko faktycznie zrozumie się pojęcia opisujące zakrzywioną geometrię, okazuje się, że istnieje tylko bardzo ograniczona rodzina możliwych (lub też możliwych do przyjęcia) równań, które po wypisaniu będą spójne z założonymi wymaganiami fizycznymi i geometrycznymi. Pośród tych możliwości najprostsza jest ta, która prowadzi do słynnego równania pola Einsteina, G = 8πγT (gdzie T to tensor energii-pędu materii, a γ to stała grawitacyjna Newtona, podana zgodnie z definicją przyjętą przez Newtona, tak że człon „8π” nie stanowi w istocie komplikacji, a jedynie wynika ze sposobu, w jaki postanowiliśmy zdefiniować γ).

Istnieje jeszcze jedna drobna, i wciąż bardzo prosta, potencjalna modyfikacja równania pola Einsteina, która nie wpływa na zasadnicze właściwości tego modelu, a mianowicie dołączenie stałego parametru Λ, określanego jako stała kosmologiczna (którą Einstein wprowadził w 1917 roku z powodów, jakie później uznał za nieuzasadnione); po jej dodaniu równanie Einsteina przyjmuje postać G = 8πγT + Λg. Wielkość Λ określa się dziś powszechnie jako ciemną energię, być może dlatego, aby możliwe było uogólnienie teorii Einsteina tak, aby Λ stała się zmienną. Istnieją jednak poważne ograniczenia natury matematycznej, które utrudniają przeprowadzenie takiej modyfikacji, a w §3.1, §3.7, §3.8 i §4.3, w których Λ będzie odgrywać kluczową rolę, ograniczę się do przypadków, gdy Λ nie jest zmienną. Stała kosmologiczna będzie bardzo istotna również w rozdziale 3 (oraz §1.15). Dostępne obecnie dane obserwacyjne zdecydowanie wskazują na faktyczną fizyczną obecność stałej kosmologicznej Λ, o niewielkiej (oraz, jak się zdaje, stałej) wartości dodatniej. Dowody wskazujące na to, że Λ > 0 – funkcję taką może pełnić też inna forma „ciemnej energii” – są dziś bardzo silne i coraz liczniejsze, od kiedy Perlmutter [Perlmutter i in. 1999], Riess [Riess i in. 1998] i ich współpracownicy przeprowadzili pierwsze obserwacje, które ostatecznie doprowadziły do przyznania Nagrody Nobla z fizyki w 2011 roku dla Saula Perlmuttera, Briana P. Schmidta i Adama G. Riessa. Fakt, że Λ > 0, ma konsekwencje wyłącznie dla opisów największej skali kosmologicznej, a obserwacje ruchów astronomicznych w bardziej lokalnej skali można skutecznie opisywać przy pomocy oryginalnej, prostszej postaci równania Einsteina: G = 8πγT. Dziś wiemy, że równanie to pozwala na modelowanie zachowania się obiektów astronomicznych pod wpływem grawitacji z niebywałą dokładnością, zaś potwierdzana obserwacyjnie wartość stałej Λ nie ma większego znaczenia przy badaniu dynamiki w tej skali.

Największe znaczenie historyczne, jeśli chodzi o stosowanie równań Einsteina, przypada podwójnemu układowi PSR1913+16, składającemu się z dwóch gwiazd neutronowych, z których jedna jest pulsarem i wysyła w niezwykle regularnych odstępach impuls elektromagnetyczny możliwy do zarejestrowania na Ziemi. Ruch tych dwóch obiektów wokół wspólnego środka masy, spowodowany wyłącznie przez wzajemne oddziaływania grawitacyjne, modeluje się za pomocą ogólnej teorii względności z wielką precyzją, którą można oszacować jako jedną część na 1014, sprawdzaną na przestrzeni około 40 lat. Okres ten odpowiada mniej więcej 109 sekund, tak więc precyzja rzędu 1:1014 oznacza poziom zgodności pomiędzy obserwacjami a teorią wynoszący około 10–5 (jednej stutysięcznej) sekundy w tym okresie – a jest to, co niezwykłe, właśnie tyle, ile zmierzono. W ostatnich latach bada się również i inne układy [Kramer i in. 2006], w których występuje jeden lub nawet dwa pulsary, co może pozwolić na znaczące zwiększenie poziomu dokładności pomiarów, jeśli będzie się je obserwować przez tak długi czas, jak PSR1913+16.

Nazywanie tej wielkości, 1014, miarą potwierdzonej obserwacjami precyzji ogólnej teorii względności, jest jednak pod pewnymi względami wątpliwe. W rzeczywistości masy i parametry orbitalne obu składników układu musiały zostać wyznaczone na podstawie ich zaobserwowanego ruchu, a nie z teorii lub niezależnych obserwacji. Porównywalną precyzję można uzyskiwać już w teorii grawitacji Newtona.

Tutaj interesuje nas jednak sama teoria grawitacji; w pierwszym przybliżeniu teoria Einsteina zawiera w sobie wnioski płynące z teorii Newtona (na przykład Keplerowskie orbity eliptyczne), jednak dostarcza szeregu poprawek (między innymi przewiduje ruch peryhelium), a ponadto przewiduje występowanie utraty energii przez układ: tak masywny układ w ruchu przyspieszonym powinien tracić energię, emitując fale grawitacyjne – zmarszczki czasoprzestrzeni, stanowiące grawitacyjny odpowiednik fal elektromagnetycznych (światła), które są z kolei emitowane przez naładowane elektrycznie ciała poruszające się ruchem przyspieszonym. Zaskakującym dalszym potwierdzeniem istnienia tego typu promieniowania grawitacyjnego jest ogłoszone niedawno [Abbott i in. 2016] bezpośrednie wykrycie tego promieniowania przez detektor fal grawitacyjnych LIGO, będące przy okazji znakomitym bezpośrednim dowodem na prawdziwość kolejnego przewidywania ogólnej teorii względności: istnienia czarnych dziur, o których będzie mowa najpierw w §3.2, a potem pod koniec rozdziału 3 oraz w §4.3.

Należy podkreślić, że precyzja tych pomiarów znacząco wykracza – o czynnik rzędu 108 (tj. sto milionów) lub więcej – ponad to, co można było obserwacyjnie uzyskać w czasach Einsteina, gdy sformułował on swoją teorię grawitacji. Można uznać, że potwierdzona obserwacjami dokładność teorii grawitacji Newtona wynosi mniej więcej 1:107. Poziom precyzji ogólnej teorii względności, wynoszący 1:1014, istniał już w świecie przyrody, jeszcze zanim Einstein sformułował swoją teorię. A jednak ta dodatkowa precyzja (większa o czynnik rzędu stu milionów), o której Einstein nie miał prawa wiedzieć, nie mogła odgrywać żadnej roli w procesie formułowania tej teorii. Ten nowy matematyczny model przyrody nie był więc wyłącznie konstrukcją stworzoną ad hoc w celu uzyskania jak najlepszej zgodności z danymi obserwacyjnymi; ta konstrukcja matematyczna była w bardzo wyraźnym sensie już obecna w strukturze świata samego w sobie. Ta matematyczna prostota, lub elegancja, czy jakiegokolwiek słowa chcemy tu użyć, jest autentyczną częścią „sposobu bycia” przyrody; nie jest więc tak, że to tylko nasze umysły są szczególnie wrażliwe na matematyczne piękno.

Z drugiej strony, gdy próbujemy świadomie posłużyć się kryterium matematycznego piękna przy formułowaniu naszych teorii, możemy zostać z łatwością wyprowadzeni na manowce. Ogólna teoria względności jest z pewnością bardzo piękną teorią, jak jednak w ogólności określać poziom elegancji teorii fizycznych? Różne osoby mają różne preferencje estetyczne. Nie jest wcale oczywiste, że pogląd jednej osoby na temat elegancji teorii pokryje się z poglądem kogoś innego, albo że sądy estetyczne danej osoby powinny mieć pierwszeństwo nad innymi, gdy przychodzi do oceny danej teorii fizycznej. Ponadto wewnętrzne piękno teorii nie zawsze jest oczywiste od początku jej istnienia; czasem zostaje ujawnione dopiero później, gdy głębia jej struktur matematycznych staje się jasna dzięki dalszym badaniom matematycznym. Dobrym przykładem jest dynamika Newtonowska. Znaczna część tkwiącego w teorii Newtona piękna została ujawniona wiele lat po jej powstaniu za sprawą prac wielkich matematyków, takich jak Euler, Lagrange, Laplace czy Hamilton (o czym świadczą choćby nazwy dla wielu kluczowych elementów współczesnej fizyki teoretycznej: równanie Eulera-Lagrange’a, operator Laplace’a, lagranżjan, hamiltonian). Rola, jaką pełni trzecia zasada dynamiki Newtona – głosząca, że każdej akcji towarzyszy równa, ale przeciwnie skierowana reakcja – zajmuje centralne miejsce w Lagrange’owskim sformułowaniu fizyki współczesnej. Nie zdziwiłoby mnie, gdyby okazało się, że piękno często przypisywane potwierdzonym współczesnym teoriom fizycznym miało zwykle do pewnego stopnia charakter post hoc. Sam sukces teorii fizycznej, zarówno obserwacyjny, jak i matematyczny, może znacząco przyczyniać się do walorów estetycznych przypisywanych później tej teorii. Wszystkie te rozważania wydają się prowadzić do wniosku, że opinie na temat zalet pewnej proponowanej teorii fizycznej oparte na sądach estetycznych mogą być problematyczne lub przynajmniej niejednoznaczne. Nie ulega wątpliwości, że pewniejszą metodą jest wyrabianie sobie opinii na podstawie ich zgodności z bieżącymi danymi obserwacyjnymi oraz ich zdolności przewidywania.

Rzecz w tym, że – skoro już mowa o potwierdzeniu obserwacyjnym – często kluczowe eksperymenty nie mogą zostać przeprowadzone, jak jest to choćby w przypadku niebywale wysokich energii, które, jak się zwykle twierdzi, należałoby nadać pojedynczym cząstkom – znacznie wyższych od energii uzyskiwanych w obecnych akceleratorach cząstek (zob. §1.10) – aby przeprowadzić porządny test eksperymentalny jakiejkolwiek teorii grawitacji kwantowej. Nawet skromniejsze propozycje eksperymentów mogą być nierealne, ze względu na ich koszt lub trudności czysto techniczne. Nawet w przypadku bardzo udanych eksperymentów często bywa tak, że zebrana zostaje wielka ilość danych, a problem jest innego typu: a mianowicie, jak wyłowić kluczowe informacje z tego zalewu danych. Taka sytuacja z pewnością występuje w fizyce cząstek, gdzie akceleratory cząstek wytwarzają dziś olbrzymie ilości danych, ale również powoli w kosmologii, gdzie współczesne obserwacje mikrofalowego promieniowania tła (CMBR, cosmic microwave background radiation) również dostarczają ogromnej ilości danych (zob. §3.4, §3.9 i §4.3). Zwykle uważa się, że większość tych danych nie dostarcza specjalnie pożytecznych informacji, a po prostu potwierdza coś, co już wiadomo, a o czym dowiedzieliśmy się z wcześniejszych eksperymentów. Potrzeba wielu złożonych procedur statystycznych, aby wydobyć drobną pozostałość – będącą nowym zjawiskiem, którego poszukują fizycy doświadczalni – mogącą potwierdzić lub sfalsyfikować określoną propozycję teoretyczną.

 

Chciałbym tu zauważyć, że stosowane procedury statystyczne mogą być ściśle dopasowane do określonych ram teoretycznych i skonstruowane tak, aby wydobyć z danych dokładnie ten dodatkowy efekt, którego istnienie teoria ta przewiduje. Jest bardzo możliwe, że radykalnie odmienna propozycja, różniąca się znacząco od tego, co jest dziś modne, może pozostawać nieprzetestowana, mimo że informacje pozwalające na jej potwierdzenie lub obalenie są ukryte w istniejących danych, ponieważ stosowane przez fizyków procedury statystyczne są przystosowane ściśle dla celów bieżącej teorii. Uderzający przykład tego typu zjawiska zostanie omówiony w §4.3. Nawet wtedy, gdy jest jasne, w jaki konkretnie sposób można by wydobyć tego typu kluczowe dla danej teorii informacje ze zgromadzonego już zasobu godnych zaufania danych, sama wymagana długość czasu pracy komputera niezbędna do faktycznego przeprowadzenia tych analiz może stanowić potężną barierę, zwłaszcza gdy występuje konkurencja ze strony bardziej modnych projektów badawczych.

Jeszcze większe znaczenie może mieć fakt, że same eksperymenty są zwykle niebywale kosztowne, a sposób ich zaprojektowania odpowiada zwykle potrzebom wyznaczanym przez strukturę konwencjonalnych teorii. Każdy, kto wysuwa propozycję teoretyczną, która znacząco odbiega od konsensusu naukowego, może mieć trudność ze zdobyciem środków niezbędnych dla jej odpowiedniego przetestowania. Bądź co bądź, aby powstał kosztowny sprzęt eksperymentalny, jego budowa musi zostać zatwierdzona przez grono uznanych ekspertów, ci zaś najprawdopodobniej brali udział w powstawaniu bieżącego paradygmatu teoretycznego.

Przyjrzyjmy się, jak zjawiska te ilustruje Wielki Zderzacz Hadronów (LHC, Large Hadron Collider) w szwajcarskiej Genewie, którego budowę ukończono w 2008 roku. Znajduje się tam tunel o długości 27 km, przebiegający pod terytorium dwóch krajów (Francja i Szwajcaria). Pierwsze eksperymenty przeprowadzono tam w 2010 roku. Dziś pośród osiągnięć zrealizowanych w LHC znajduje się między innymi wykrycie cząstki Higgsa, która odgrywa wielką rolę w fizyce, zwłaszcza w kontekście uzyskiwania masy przez słabo oddziałujące cząstki. Nagrodę Nobla z fizyki w 2013 roku otrzymali wspólnie Peter Higgs i François Englert w uznaniu ich wkładu w przełomowe prace prowadzące do przewidzenia istnienia i parametrów tej cząstki.

Jest to z pewnością wspaniałe osiągnięcie i nie mam zamiaru pomniejszać jego znaczenia – które nie ulega wątpliwości. A jednak LHC dobrze ilustruje omawiane przeze mnie kwestie. Sposób, w jaki analizuje się wysokoenergetyczne zderzenia pomiędzy cząstkami, wymaga budowy niezwykle kosztownych detektorów, które konstruowane są z myślą o pozyskiwaniu informacji istotnych ze względu na dominującą teorię fizyki cząstek. Nie jest łatwo uzyskać za ich pomocą informacje mające znaczenie dla niekonwencjonalnych idei na temat cząstek fundamentalnych i ich oddziaływań. W ogólności znacznie trudniej jest uzyskać finansowanie dla propozycji, które drastycznie odbiegają od dominujących poglądów, i mogą pojawić się poważne trudności z poddaniem ich solidnym testom eksperymentalnym.

Kolejny problem wynika z tego, że doktoranci poszukujący odpowiedniego problemu mającego stanowić temat ich pracy doktorskiej, zwykle są poważnie ograniczeni przez ugruntowane poglądy na to, co uznaje się za odpowiedni temat badawczy. Młodzi naukowcy pracujący w niekonwencjonalnych obszarach badawczych, nawet jeśli uzyskają stopień doktorski, mogą mieć trudności z późniejszym znalezieniem pracy na uniwersytecie, bez względu na to, jak są utalentowani i wykształceni oraz jak oryginalne są ich koncepcje. Liczba stanowisk jest ograniczona, a zdobycie finansowania nie jest łatwe. Naukowcy prowadzący programy badawcze są zwykle zainteresowani przede wszystkim dalszym rozwojem idei, które oni sami dotychczas promowali, te zaś z wyższym prawdopodobieństwem mieszczą się w granicach tych działów fizyki, które są modne. Nawet promotor zainteresowany rozwojem idei znajdującej się poza głównym nurtem może czuć opór przed zachęcaniem swoich studentów do pracy przy tego typu koncepcji, wiedząc o tym, jakim utrudnieniem będzie to później dla tego studenta, gdy przyjdzie mu walczyć na konkurencyjnym rynku pracy, na którym osoby mające doświadczenie z modnymi ideami mają wyraźną przewagę.

Ta sama prawidłowość występuje przy poszukiwaniu finansowania dla projektów badawczych. Propozycje mieszczące się w modnych obszarach badawczych częściej uzyskują pozytywne oceny (zob. również §1.12). Mechanizm jest znów ten sam: wnioski są oceniane przez uznanych ekspertów, ci zaś z dużym prawdopodobieństwem są aktywnymi twórcami aktualnie modnych obszarów badawczych, a bardzo często zaliczają się wręcz do grona twórców tej teorii. Projekty znacznie odbiegające od tego, co stanowi w danym momencie powszechnie akceptowaną normę, nawet jeśli są dogłębnie przemyślane i wysoce oryginalne, najprawdopodobniej nie uzyskają wsparcia finansowego. Nie jest to przy tym wyłącznie kwestią ograniczonych środków, ponieważ wpływy mody wydają się być szczególnie znaczące w Stanach Zjednoczonych, gdzie dostępność pieniędzy na badania naukowe pozostaje względnie wysoka.

Trzeba oczywiście przyznać, że większość niemodnych propozycji badawczych ma niewielką szansę na rozwinięcie się do postaci udanej teorii – znacznie mniejszą niż jest to w przypadku propozycji modnych. W przeważającej większości przypadków radykalnie nowa perspektywa teoretyczna ma niewielką szansę na przekształcenie się w akceptowalną teorię. Należy podkreślić, że, jak to było z ogólną teorią względności, każda tego typu radykalnie nowa perspektywa musi być zgodna z tym, co zostało już wcześniej ustalone eksperymentalnie. Jeśli tak nie jest, to odrzucenie niepoprawnej idei może nie wymagać przeprowadzania żadnych kosztownych eksperymentów. W kwestii natomiast propozycji teoretycznych, które są zgodne z przeprowadzonymi wcześniej eksperymentami i w przypadku których nie ma dziś perspektywy na potwierdzenie lub obalenie doświadczalne – być może z opisanych wyżej powodów – wydaje się, że musimy zdać się na spójność matematyczną, ogólną „stosowalność” tej teorii oraz jej walory estetyczne, gdy przychodzi do wyrabiania sobie opinii na temat ich wiarygodności i tego, czy mają one duże znaczenie dla całości fizyki. To właśnie w tego typu sytuacjach czynnik mody nabiera przesadnego znaczenia, potrzebna jest więc wielka czujność, aby modny charakter danej teorii nie przyćmił nam osądu na temat tego, czy jest ona rzeczywiście wiarygodna.

1.2. Niektóre modne teorie fizyczne z przeszłości

Jest to szczególnie istotne w przypadku teorii, które mają za zadanie sięgać samych fundamentów rzeczywistości fizycznej, jak choćby współczesna teoria strun. Musimy się wystrzegać przypisywaniu tym teoriom zbyt dużej wiarygodności wyłącznie dlatego, że są modne.

Zanim jednak przejdziemy do omawiania teorii współczesnych, warto wspomnieć o niektórych modnych niegdyś teoriach naukowych, których dziś nie traktuje się poważnie. Jest ich wiele i jestem przekonany, że większość czytelników nie słyszała o większości z nich, już choćby z tego samego powodu, że jeśli dziś nie bierze się ich na poważnie, to nie są one częścią standardowych programów nauczania; o ile, oczywiście, nie studiowaliśmy historii nauki. Większość fizyków nie specjalizuje się jednak w tej dziedzinie. Pozwolę sobie wspomnieć zaledwie kilka najlepiej znanych przykładów.

W starożytnej Grecji wyłoniła się teoria, zgodnie z którą tzw. bryły platońskie (czyli wielościany foremne) należy wiązać z uznawanymi wówczas za elementarne składnikami substancji materialnych, zgodnie z Rys. 1-1. Ogień reprezentowany jest więc przez czworościan foremny, powietrze przez ośmiościan, woda przez dwudziestościan, a ziemia przez sześcian. Gdy później do listy tej dodano również eter (firmament, lub kwintesencję), z którego miałyby być zbudowane ciała niebieskie, uznano, że reprezentuje go dwunastościan foremny. Wydaje się, że pogląd ten rzeczywiście sformułowali starożytni Grecy i że można go faktycznie określić jako modną w owych czasach teorię.


Rys. 1-1: Pięć żywiołów znanych w starożytnej Grecji: ogień (czworościan foremny, tetraedr), powietrze (ośmiościan foremny, oktaedr), woda (dwudziestościan foremny, ikosaedr), ziemia (sześcian, heksaedr) i eter (dwunastościan foremny, dodekaedr).

Początkowo występowały tylko cztery żywioły – powietrze, woda, ziemia i ogień – i ten zbiór pierwotnych składników świata wydawał się dobrze odpowiadać czterem znanym wówczas w pełni regularnym – foremnym – wielościanom. Gdy później odkryto istnienie dwunastościanu foremnego, teorię należało rozwinąć, aby znalazł się w niej partner dla tej dodatkowej bryły! Do systemu wprowadzono więc niebiańską substancję, z której miały być zbudowane doskonałe rzekomo ciała, takie jak Słońce, Księżyc i planety, a także kryształowe sfery, do których ciała te miałyby być przytwierdzone – substancja ta miałaby przy tym podlegać zupełnie innego typu prawom niż te działające na Ziemi, np. być zdolna do wiecznego ruchu, podczas gdy znane nam z Ziemi przedmioty mają uniwersalną tendencję do zwalniania i, ostatecznie, zatrzymywania się. Być może historia ta mówi nam również coś nawet o współczesnych, znacznie bardziej wyrafinowanych propozycjach teoretycznych: wszystkie bowiem teorie, choć początkowo przedstawia się je w rzekomo zamkniętej i ostatecznej postaci, bywają znacząco modyfikowane, zaś oryginalna doktryna naciągana zostaje w niewyobrażalnym początkowo stopniu, w obliczu nowych faktów obserwacyjnych lub teoretycznych. Z tego, co wiem, starożytni Grecy uważali, że prawa rządzące ruchem gwiazd, planet, Księżyca i Słońca rzeczywiście znacząco różniły się od praw rządzących procesami zachodzącymi na Ziemi. Dopiero Galileusz, poprzez swoje zrozumienie względności ruchu, oraz Newton, za sprawą swojego prawa powszechnego ciążenia – będąc pod silnym wpływem Keplerowskiego opisu orbit planet – doprowadzili nas do zrozumienia, że ciała niebieskie pozostają pod wpływem tych samych praw, co te znajdujące się na Ziemi.

Kiedy pierwszy raz usłyszałem o tych starożytnych greckich teoriach, uznałem je za czystą romantyczną fantazję niemającą żadnego matematycznego (a co dopiero fizycznego) uzasadnienia. Dopiero nieco później dowiedziałem się, że u podstaw tych idei leży znacznie bogatsza struktura teoretyczna niż mi się początkowo zdawało. Niektóre spośród tych wielościanów mogą zostać pocięte na kawałki, które następnie można poskładać, tworząc inne (przykładowo, dwa sześciany można podzielić tak, że z powstałych elementów da się złożyć dwa czworościany i ośmiościan). Można powiązać to z zachowaniem fizycznym i na tej podstawie stworzyć model geometryczny pozwalający opisać dozwolone przemiany pomiędzy poszczególnymi żywiołami. Kryje się więc tu przynajmniej pewnego rodzaju odważne i pomysłowe przypuszczenie na temat istoty substancji materialnych, które w owym czasie nie było tak naprawdę nierozsądne – w czasach, kiedy tak niewiele wiadomo było o rzeczywistej naturze i zachowaniu się substancji fizycznych. Była to wczesna próba odnalezienia podstaw dla opisu rzeczywistych przedmiotów fizycznych, oparta na poszukiwaniu eleganckiej struktury matematycznej – a więc bardzo w duchu tego, do czego zmierzają i dziś fizycy teoretyczni. Ponadto konsekwencje tego modelu można było testować w odniesieniu do rzeczywistego zachowania przedmiotów fizycznych. Jest oczywiste, że w grę wchodziły tu również kryteria estetyczne; idee te z pewnością podobały się Platonowi. Nie trzeba chyba jednak wyjaśniać, że szczegóły tego modelu nie przetrwały próby czasu – w przeciwnym razie na pewno nie zarzucilibyśmy tak matematycznie atrakcyjnej propozycji!

 

Przyjrzyjmy się jeszcze kilku tego rodzaju przypadkom. Ptolemejski model ruchu planetarnego – w ramach którego Ziemię uznawano za nieruchomą i znajdującą się w centrum Kosmosu – cieszył się wielkim powodzeniem i przez wiele wieków nie udało się go podważyć. Ruchy Słońca, Księżyca i planet opisywano w jego ramach za pomocą epicykli: ruchy planet wyjaśniano poprzez nałożenie jednorodnego ruchu po okręgu na drugi ruch tego typu. Choć sama struktura musiała być dość skomplikowana, aby zapewniała odpowiednią zgodność z obserwacjami, nie była też pozbawiona swoistej matematycznej elegancji, a ponadto pozwalała na dokonywanie całkiem dobrych przewidywań przyszłego ruchu planet. Warto wspomnieć, że epicykle mają autentyczne racjonalne uzasadnienie, jeśli dokona się analizy ruchu z punktu widzenia nieruchomej Ziemi. Ruchy, które faktycznie obserwujemy z powierzchni naszej planety, wynikają ze zsumowania obrotu Ziemi wokół osi (stąd występuje postrzegany obrót niebios wokół osi łączącej bieguny Ziemi) z sumarycznym pozornym ruchem Słońca, Księżyca i planet, ograniczonego z grubsza do płaszczyzny ekliptyki, który z naszej perspektywy wydaje się być zbliżony do ruchu po okręgu wokół innej osi. Z całkowicie racjonalnych powodów geometrycznych nasze obserwacje ruchu ciał niebieskich mają w sobie coś z natury epicykli – ruch po okręgu nałożony na inny ruch po okręgu – nie ma więc nic nierozsądnego w uznaniu, że idea ta rozciąga się również na ruchy wszystkich planet.

System astronomii oparty na epicyklach cechuje się ponadto bardzo interesującą geometrią, a sam Ptolemeusz był świetnym geometrą. W swoich dziełach astronomicznych stosował eleganckie twierdzenie geometryczne o wielkiej mocy, którego mógł być odkrywcą, jako że teraz nosi jego imię. (Twierdzenie to głosi, że jeśli cztery punkty A, B, C i D na płaszczyźnie leżą na obwodzie koła – uporządkowane w tej właśnie kolejności – to odległości pomiędzy nimi spełniają warunek AB · CD + BC · DA = AC · BD.) Teoria Ptolemeusza stanowiła standardowy model ruchu planetarnego przez mniej więcej 1400 lat, dopóki nie została zastąpiona, a następnie całkowicie obalona, za sprawą wspaniałych prac Kopernika, Galileusza, Keplera i Newtona, i dziś jest uważana za całkowicie niepoprawną. Z pewnością można ją jednak określić jako modną teorię, była też przy tym wyjątkowo skuteczna i przez czternaście stuleci (od połowy drugiego do połowy szesnastego wieku) dość blisko tłumaczyła wszystkie obserwacje ruchu planet (dzięki temu, że od czasu do czasu wprowadzano odpowiednie poprawki), do czasu pojawienia się pod koniec XVI wieku bardziej precyzyjnych pomiarów wykonanych przez Tychona Brahe.

Kolejna słynna teoria, której dziś nie uznajemy, choć była bardzo modna przez ponad sto lat pomiędzy rokiem 1667 (kiedy została zaproponowana przez Joshuę Bechera) a 1778 (kiedy została obalona przez Antoine’a Lavoisiera), to flogistonowa teoria spalania. Wedle tej teorii każde palne ciało fizyczne zawiera w sobie substancję określaną jako flogiston, zaś proces spalania polega na uwolnieniu flogistonu do atmosfery. Teoria flogistonowa tłumaczyła większość znanych wówczas faktów dotyczących spalania, jak choćby ten, że gdy spalanie następuje we względnie niewielkim, szczelnie zamkniętym pojemniku, po pewnym czasie ustaje, nawet jeśli nie cały materiał palny został zużyty – zjawisko to tłumaczono nasyceniem się powietrza w pojemniku flogistonem, co oznaczało niemożliwość przyjęcia większej jego ilości. Zakrawa na ironię, że Lavoisier sam był odpowiedzialny za powstanie kolejnej modnej, acz fałszywej teorii, a mianowicie tej, że ciepło jest substancją materialną, którą określał terminem cieplik. Teorię tę obalił w 1798 roku hrabia Rumford (Sir Benjamin Thompson).

W każdym spośród tych dwóch głównych przypadków sukces teorii może zostać wyjaśniony przez jej bliskie pokrewieństwo z bardziej zadowalającym modelem, który go zastąpił. W przypadku dynamiki Ptolemeusza możliwe jest przejście do heliocentrycznego obrazu Kopernika za sprawą prostej transformacji geometrycznej. Polega ona na odniesieniu wszystkich ruchów do Słońca, traktowanego jako centralny obiekt układu planetarnego, a nie Ziemi. Z początku, gdy wszystko opisywano przy pomocy epicykli, nie przynosiło to istotnej różnicy – poza może tą, że model heliocentryczny miał bardziej systematyczny charakter; ruch orbitalny był szybszy w przypadku planet znajdujących się bliżej Słońca [Gingerich 2004; Sobel 2011] – na tym etapie te dwie teorie były więc zasadniczo równoważne. Kiedy Kepler opracował swoje trzy prawa eliptycznego ruchu planet, sytuacja zmieniła się radykalnie, ponieważ geocentryczny opis tego typu ruchu nie miał żadnego sensu geometrycznego. Prawa Keplera stanowiły klucz do bardzo precyzyjnego i mającego szeroki zakres stosowalności Newtonowskiego prawa powszechnego ciążenia. Nawet biorąc to pod uwagę, dziś nie musimy wcale uważać perspektywy geocentrycznej za tak niepoważną, jak sądzono w dziewiętnastym wieku, jeśli spojrzymy na nią w świetle zasady ogólnej kowariantności właściwej dla Einsteinowskiej ogólnej teorii względności (zob. §1.7, §A.5 i §2.13), która pozwala nam na używanie nawet bardzo niewygodnych układów współrzędnych (jak choćby geocentrycznego, w którym położenie Ziemi nie zmienia się w czasie) i traktowanie ich jako dopuszczalne. Również teorię flogistonu można uznać za zgodną ze współczesną wiedzą na temat spalania, w ramach której palenie się jakiegoś materiału zwykle wiąże się z pobieraniem tlenu z atmosfery; o flogistonie można pomyśleć po prostu jako o „antytlenie”. Dzięki temu możliwe jest uzyskanie w miarę spójnego tłumaczenia pomiędzy teorią flogistonową a dzisiejszym konwencjonalnym opisem naukowym. Model flogistonowy stracił na popularności, gdy precyzyjne pomiary masy podczas spalania dokonane przez Lavoisiera wykazały, że flogiston musiałby mieć ujemną masę. Sam „antytlen” nie jest jednak całkowicie absurdalną koncepcją z punktu widzenia współczesnej fizyki cząstek, w której każda występująca w przyrodzie cząstka (wliczając w to również cząstki złożone) powinna posiadać swą antycząstkę – „atom antytlenu” jest więc w całkowitej zgodzie ze współczesną fizyką. Nie miałby jednak ujemnej masy!

Czasem zdarza się tak, że teorie, które na jakiś czas wypadły z obiegu, mogą wrócić do łask za sprawą późniejszego rozwoju nauki. Przykładem tego jest idea, którą zaproponował lord Kelvin (William Thompson) około 1867 roku, zgodnie z którą atomy (uważane wówczas za elementarne cząstki materii) są złożone z mniejszych struktur podobnych do węzłów. Pomysł ten spotkał się wówczas ze sporym zainteresowaniem i skłonił matematyka J.G. Taita do podjęcia się systematycznego badania węzłów. Teoria Kelvina nie prowadziła jednak do żadnych wyraźnych przewidywań odpowiadających faktycznym procesom w skali atomowej, została więc niemal całkowicie zapomniana. W ostatnich latach podobne idee zaczęły jednak ponownie spotykać się z zainteresowaniem, głównie za sprawą ich powiązań z teorią strun. Również czysto matematyczna teoria węzłów przeżyła swój renesans, poczynając mniej więcej od 1984 roku, kiedy to ukazały się wpływowe prace Vaughana Jonesa, sięgające korzeniami teoretycznych aspektów kwantowej teorii pola [Jones 1985; Skyrme 1961]. Edward Witten [1989], posługując się metodami teorii strun, opracował później nowego rodzaju kwantową teorię pola (zwaną topologiczną kwantową teorią pola), która w pewnym sensie korzysta z owych nowych wyników z zakresu matematycznej teorii węzłów.