Moda, wiara i fantazja we współczesnej fizyce Wszechświata

Tekst
0
Recenzje
Przeczytaj fragment
Oznacz jako przeczytane
Jak czytać książkę po zakupie
Czcionka:Mniejsze АаWiększe Aa

Należy przy tym pamiętać, że samo uporządkowanie elementów na diagramie to jeszcze nie wszystko. Konieczna jest także wiedza na temat energii i pędów wszystkich cząstek biorących udział w tym procesie. Można uznać, że dla wszystkich cząstek zewnętrznych (zarówno będących „na wejściu”, jak i „na wyjściu”) są one znane, jednak energie i pędy cząstek pośrednich (lub wewnętrznych) mogą przyjmować różne wartości zgodne z ogólnym wymaganiem, aby energie i pędy sumowały się w każdym węźle; pęd zwykłej cząstki to prędkość razy masa, zob. §A.4 i §A.6. (Pęd ma tę ważną własność, że jest zachowywany, tak że przy każdym zderzeniu pomiędzy cząstkami całkowity pęd cząstek „wchodzących” – zsumowany w sensie dodawania wektorów – musi być równy pędowi cząstek „wychodzących”.) Choć więc idea superpozycji sama w sobie może wydawać się skomplikowana, wymagając od nas analizy szeregu coraz bardziej złożonych diagramów będących członami takiej superpozycji, procedura ta w istocie jest znacznie bardziej skomplikowana, ponieważ w ogólnym przypadku występuje nieskończenie wiele różnych dozwolonych wartości energii i pędów dla „wewnętrznych” cząstek w danym oddziaływaniu, które są zgodne z wartościami dla cząstek „zewnętrznych”.

Nawet więc dla pojedynczego diagramu Feynmana, dla którego znamy listę cząstek wchodzących i wychodzących, możemy spodziewać się konieczności zsumowania nieskończonej liczby tego typu procesów. (Formalnie, sumowanie to przybiera formę ciągłego całkowania, a nie dyskretnego dodawania – zob. §A.7, §A.11 i Rys. A-44 – ale to rozróżnienie nie jest w tej chwili istotne.) Tego typu sytuacja przydarza się, gdy diagramy Feynmana posiadają zamkniętą pętlę, jaka pojawia się choćby w dwóch przykładowych diagramach na Rys. 1-5.

Jeśli diagram ma postać drzewa, jak te na Rys. 1-4 i 1-6, na którym nie występują zamknięte pętle, wartości wewnętrznych energii i pędów okazują się wynikać jednoznacznie z wartości zewnętrznych. Diagramy o topologii drzewa nie reprezentują jednak prawdziwej kwantowej natury procesów z udziałem cząstek elementarnych; do tego konieczne jest uwzględnienie również zamkniętych pętli. Problem z zamkniętymi pętlami polega na tym, że ilość energii-pędu zawartego w danej pętli nie jest niczym ograniczona, a dodawanie ich prowadzi do rozbieżności.

Przyjrzyjmy się temu nieco bliżej. Jednym z najprostszych diagramów z zamkniętą pętlą jest ten przedstawiony na Rys. 1-5(a), gdzie następuje wymiana dwóch cząstek. Problem pojawia się, ponieważ, choć w każdym węźle na diagramie wartości energii i trzech składowych pędu muszą się odpowiednio zsumować (tj. suma na wejściu musi być równa sumie na wyjściu), ograniczenie to nie dostarcza wystarczającej liczby równań, aby wewnętrzne wartości tych parametrów zostały jednoznacznie ustalone. (Dla każdej z czterech składowych energii-pędu osobno występują trzy niezależne równania, ponieważ każdy z czterech węzłów jest źródłem jednego równania wyrażającego zasadę zachowania, ale jedno jest nadmiarowe i powtarza ono jedynie ogólne prawa zachowania dla całego procesu. Każdy składnik diagramu jest jednak źródłem czterech niezależnych niewiadomych, jedna na każdą linię wewnętrzną – jest więc niewystarczająco wiele równań, aby ustalić wartości niewiadomych, zaś nadmiarowość ta musi zostać zsumowana.) Zawsze można też dodać (lub odjąć) tę samą wartość energii-pędu do wszystkich elementów pętli. Wszystkie te nieskończenie liczne możliwości, w których występują coraz to wyższe i wyższe wartości całkowitej energii-pędu, trzeba następnie zsumować, i to właśnie jest potencjalnym źródłem rozbieżności.

Widzimy więc, że bezpośrednie stosowanie reguł teorii kwantowej rzeczywiście może z dużym prawdopodobieństwem prowadzić do pojawiania się nieskończoności. Nie oznacza to jednak, że „prawidłową” odpowiedzią na obliczenia dokonywane w ramach kwantowej teorii pola jest rzeczywiście ∞. Warto pamiętać o szeregach rozbieżnych omówionych w §A.10, gdzie czasem możliwe jest przypisanie szeregowi skończonej wartości, choć proste zsumowanie jego elementów prowadzi do odpowiedzi „∞”. Choć sytuacja z QFT nie jest ściśle taka sama, występują tu pewne charakterystyczne podobieństwa. Istnieje wiele technik obliczeniowych opracowanych na przestrzeni lat przez ekspertów od QFT, których zadaniem jest eliminacja nieskończonych wyników. Tak, jak to jest w przypadkach wspomnianych w §A.10, jeśli będziemy postępować sprytnie, czasem uda nam się odkryć „prawdziwą” skończoną odpowiedź, której nie bylibyśmy w stanie uzyskać, po prostu „sumując człony”. Specjaliści od QFT są często w stanie wycisnąć skończony wynik z silnie rozbieżnych wyrażeń, choć wiele ze stosowanych przez nich procedur ma znacznie bardziej zawiły charakter niż prosta metoda przedłużania analitycznego, omówiona w §A.10. (W §3.8 omówione zostały niektóre interesujące pułapki, do których mogą prowadzić nawet najprostsze procedury.)


Rys. 1-7: Rozbieżności podczerwone występują, gdy wyemitowanych zostaje nieograniczenie duża liczba „miękkich” fotonów.

Warto w tym momencie zwrócić uwagę na główną przyczynę wielu tych rozbieżności – tych określanych jako rozbieżności ultrafioletowe. Problem wyłania się, ponieważ w zamkniętej pętli nie ma ograniczenia na skalę energii i pędu, które mogą w niej krążyć, a rozbieżność pojawia się za sprawą wkładu od coraz to wyższych energii i pędów, które trzeba włączyć do całkowitej sumy. Zgodnie z mechaniką kwantową bardzo wysokie energie wiążą się z bardzo krótkimi czasami. Wynika to w zasadzie ze słynnego równania Maxa Plancka E = hv, gdzie E to energia, v to częstotliwość, a h to stała Plancka. Wysokie energie odpowiadają więc dużym częstotliwościom, a więc małym odstępom czasowym pomiędzy kolejnymi oscylacjami. Na tej samej zasadzie również bardzo duże wartości pędu odpowiadają bardzo małym odległościom. Jeśli wyobrazimy sobie, że w bardzo małych skalach czasowych i przestrzennych coś dziwnego przydarza się czasoprzestrzeni (co, w istocie, większość fizyków uważa za skutek włączania mechaniki kwantowej do opisu zjawisk grawitacyjnych), to może występować pewnego rodzaju efektywna linia „odcięcia” wyznaczająca górną granicę dozwolonych wartości energii-pędu. Zgodnie z tym rozumowaniem, w jakiejś przyszłej teorii czasoprzestrzeni, w której przy bardzo małych czasach i odległościach występują dramatyczne modyfikacje względem obrazu klasycznego, wynikające z obecności zamkniętych pętli w diagramach Feynmana, obliczenia QFT, dziś rozbiegające się, mogą prowadzić do skończonych rezultatów. Te czasy i odległości powinny być znacznie mniejsze od tych, które mają znaczenie dla procesów opisywanych przez dzisiejszą fizykę cząstek; zwykle podaje się, że są one zbliżone do rzędów wielkości typowych dla teorii grawitacji kwantowej, a więc czasu Plancka wynoszącego ok. 10–43 s oraz długości Plancka rzędu 10–35 m (jest o nich mowa w §1.1), a więc mniejszych o ok. 10–20 od skal mających znaczenie dla procesów cząsteczkowych.

Należy wspomnieć, że istnieją również w QFT inne rozbieżności, określane jako rozbieżności podczerwone. Występują one po drugiej stronie skali, przy szczególnie małych energiach i pędach, związanych więc z olbrzymimi czasami i odległościami.


Rys. 1-8: Dla rozbieżnych diagramów tego typu dokonuje się renormalizacji ładunku.

Problem nie wynika tu z obecności zamkniętych pętli, lecz z faktu, że diagramy Feynmana podobne do tego na Rys. 1-7 zawierają nieograniczoną liczbę miękkich fotonów (tj. fotonów o bardzo niskich energiach) wyemitowanych w trakcie zachodzenia danego procesu, których sumowanie prowadzi znów do rozbieżności. Rozbieżności podczerwone uważane są zwykle przez specjalistów od QFT za mniej poważne niż ultrafioletowe i istnieje szereg sposobów na zamiecenie ich pod dywan (przynajmniej tymczasowo). W ostatnich latach ich znaczenie zaczyna być jednak traktowane poważniej. W niniejszej książce nie będę zajmował się szczegółowo tym problemem i skoncentruję się zamiast tego na pytaniu, w jaki sposób traktuje się rozbieżności ultrafioletowe – wynikające z obecności zamkniętych pętli w diagramach Feynmana – w standardowej QFT i jakie rozwiązanie tego problemu może przynieść teoria strun.

Szczególne znaczenie ma w tym kontekście standardowa w QFT procedura renormalizacji. Spróbujmy przyjrzeć się, jak ona działa. Zgodnie z wieloma bezpośrednimi obliczeniami QFT uzyskuje się nieskończonej wielkości czynnik skali pomiędzy czymś, co określa się jako goły ładunek cząstki (np. elektronu), a jej ładunkiem „ubranym”[3], z których tylko ten drugi faktycznie mierzy się eksperymentalnie. Jest tak, ponieważ wkłady od dodatkowych procesów w diagramie Feynmana (jak np. te przedstawione na Rys. 1-8) zwykle prowadzą do obniżania się faktycznie zmierzonej wartości ładunku. Problem tkwi w tym, że wkład ten w przypadku Rys. 1-8 (i wielu innych podobnych diagramów) wynosi: „nieskończoność” – występują w nim zamknięte pętle. Okazuje się więc, że goły ładunek musiałby być nieskończony, aby zaobserwowany („ubrany”) ładunek miał rzeczywistą, skończoną wartość. Zasadnicza filozofia procedury renormalizacji polega na uznaniu, że QFT może nie być całkowicie słuszna przy najmniejszych odległościach, czyli tam, gdzie pojawiają się rozbieżności, zaś pewna nieznana jeszcze modyfikacja tej teorii dostarczy nam niezbędnej granicy „odcięcia” zapewniającej uzyskiwanie skończonych wyników. Procedura ta polega więc na rezygnacji z prób policzenia faktycznej wartości owych czynników skali (dla ładunku i innych parametrów, jak choćby masa); zamiast tego zbiera się wszystkie tego typu nieskończone czynniki liczbowe wynikające ze stosowania formalizmu QFT, łącząc je ze sobą w wygodne pakiety, które następnie pomija się, przyjmując za to obserwowaną wartość gołego ładunku (masy i itd.) zgodną z wynikami eksperymentalnymi. Co niezwykłe, w przypadku „porządnych” kwantowych teorii pola określanych jako renormalizowalne, procedura ta może zostać przeprowadzona systematycznie, co pozwala na uzyskiwanie skończonych wyników przy większości obliczeń w QFT. Parametry takie, jak wartość ładunku „ubranego” (oraz masy itd.), uzyskuje się na podstawie danych obserwacyjnych, a nie z odpowiedniej teorii; wartości te później prowadzą do wyłonienia się wspomnianych już wcześniej ok. trzydziestu parametrów, które należy „ręcznie” umieścić w modelu standardowym na podstawie eksperymentów.

 

Po przyjęciu tego typu procedur QFT często dostarcza nam bardzo precyzyjnych przewidywań liczbowych. Przykładowo, istnieje w QFT standardowe już dziś obliczenie momentu magnetycznego elektronu. Większość cząstek zachowuje się jak małe magnesiki (niezależnie od posiadanego – lub nie – ładunku elektrycznego), a moment magnetyczny cząstki jest miarą siły tego magnesu. Dirac jako pierwszy przewidział wartość momentu magnetycznego elektronu na podstawie swojego fundamentalnego równania tej cząstki (o którym była mowa w §1.1) i późniejsze precyzyjne pomiary eksperymentalne niemal dokładnie potwierdziły jego oszacowanie. Okazuje się jednak, że konieczne jest dokonanie korekty tej wartości, ze względu na występowanie dodatkowych procesów przewidywanych przez QFT. Obliczenia te dały wynik 1,001159652... razy wyższy od „czystej” wartości podanej przez Diraca. Wartość tego mnożnika wynikająca z obserwacji to 1,00115965218073... [Hanneke i in. 2011]. Zgodność jest niebywała – lepsza niż ustalenie odległości między Nowym Jorkiem a Los Angeles z dokładnością do grubości ludzkiego włosa, jak zauważył Richard Feynman [1985]! Wynik ten stanowi spektakularne potwierdzenie renormalizowanej kwantowej teorii pola dla elektronów i fotonów (zwanej elektrodynamiką kwantową, ang. quantum electrodynamics, QED), w której elektrony opisuje się zgodnie z teorią Diraca, a fotony wedle równań elektrodynamiki Maxwella (zob. §1.2), a ich wzajemne oddziaływania określają standardowe równania H.A. Lorentza, które opisują reakcję naładowanej cząstki na obecność pola elektromagnetycznego. Ten ostatni element w kontekście teorii kwantowej wynika z procedur cechowania przedstawionych przez Hermanna Weyla (§1.7). Widać więc, że teoria i obserwacje rzeczywiście zgadzają się z niezwykłą dokładnością, co mówi nam, że w tej teorii obecne jest coś dogłębnie prawdziwego, choć nie jest ona jeszcze całkowicie spójna pod względem matematycznym.

Renormalizację można potraktować jako tymczasowe rozwiązanie i można mieć nadzieję, że w końcu powstanie ulepszona wersja QFT, w której nieskończoności tego typu w ogóle się nie pojawią, dzięki czemu będzie możliwe obliczenie nie tylko skończonych wartości czynników skali, ale i samych gołych wartości – a stąd także wartości mierzonych eksperymentalnie – ładunku, masy itd. dla poszczególnych cząstek. Nie ulega wątpliwości, że nadzieja, iż tego typu doskonalszą wersją QFT jest właśnie teoria strun, stanowi ważny bodziec dla jej rozwoju. Istnieje jednak znacznie bardziej skromne podejście do problemu, które dotychczas okazało się być znacznie skuteczniejsze, polegające po prostu na potraktowaniu stosowalności procedury renormalizacyjnej do danej teorii jako kryterium tego, które modele są najbardziej obiecujące w ramach konwencjonalnej QFT. Okazuje się, że tylko niektóre kwantowe teorie pola można renormalizować – tak zwane renormalizowalne QFT – inne zaś nie. Renormalizowalność uważa się więc za potężne kryterium selekcji w poszukiwaniach najbardziej obiecującej QFT. W rzeczywistości okazało się (głównie dzięki pracom Gerardusa ‘t Hoofta z 1971 roku i późniejszym [‘t Hooft 1971; ‘t Hooft i Veltman 1972]), że posługiwanie się symetrią takiego rodzaju, jaka jest potrzebna przy teoriach cechowania wspomnianych w §1.3, jest niezwykle pomocne przy tworzeniu renormalizowalnych kwantowych teorii pola, a fakt ten stanowił potężny bodziec przy formułowaniu modelu standardowego.

1.6. Pierwotne fundamentalne idee teorii strun

Przyjrzyjmy się teraz, w jaki sposób wiąże się z tym wszystkim teoria strun. Jak pamiętamy z poprzedniego rozdziału, problem rozbieżności ultrafioletowych wynika z tego, że procesy kwantowe zachodzą w bardzo małych skalach czasowych i przestrzennych. Można więc powiedzieć, że problem związany jest z tym, że obiekty materialne uważa się za złożone z cząstek, przy czym sądzi się, że cząstki elementarne zajmują punkt w przestrzeni. Można oczywiście potraktować punktowy charakter gołej cząstki po prostu jako nierealistyczne przybliżenie, jeśli jednak cząstkę potraktuje się dla odmiany jako obiekt w jakimś sensie rozciągnięty w przestrzeni, to również pojawia się pewien problem. Tym razem związany jest on z pytaniem, w jaki sposób można by właściwie opisać tego typu obiekt, nie odwołując się do jeszcze mniejszych składników, z których miałby być złożony.

Ponadto w przypadku każdego modelu, w którym występuje skończonych rozmiarów obiekt w przestrzeni zachowujący się jak jedna całość, pojawia się zawsze delikatna kwestia potencjalnego konfliktu z teorią względności (w której występuje skończona granica prędkości rozchodzenia się sygnałów).


Rys. 1-9: (a) Linia świata zwykłej (punktowej) cząstki jest krzywą w czasoprzestrzeni; (b) w teorii strun staje się ona dwuwymiarową „rurką” świata (lub: powierzchnią świata).

Teoria strun oferuje innego typu rozwiązanie. W jej ramach twierdzi się, że elementarne składniki materii nie są przestrzennie 0-wymiarowe, jak cząstka punktowa, ani 3-wymiarowe, jak rozmyty rozkład w przestrzeni, ale 1-wymiarowe, jak krzywa. Choć może się to wydawać dość dziwne, powinniśmy pamiętać, że z 4-wymiarowej perspektywy czasoprzestrzeni nawet cząstka punktowa nie jest klasycznie opisywana po prostu jako punkt, ponieważ jest to (przestrzenny) punkt, który trwa w czasie – jego opisem czasoprzestrzennym jest w rzeczywistości 1-wymiarowa rozmaitość (zob. §A.5), określana jako linia świata cząstki (Rys. 1-9(a)). Powinniśmy więc myśleć o opisywanej przez teorię strun krzywej jako o 2-rozmaitości, albo powierzchni, w czasoprzestrzeni (Rys. 1-9(b)), którą określa się jako strunowa powierzchnia świata.

Moim zdaniem najbardziej atrakcyjną właściwością teorii strun (a przynajmniej w oryginalnej postaci tej teorii) jest fakt, że te 2-wymiarowe historie strun – powierzchnie świata – można w pewnym sensie potraktować jako powierzchnie Riemanna (ale zob. §1.9, zwłaszcza Rys. 1-30, ze względu na kwestię obrotu Wicka). Powierzchnia Riemanna, opisana nieco bliżej w §A.10, jest to zespolona powierzchnia o jednym wymiarze (przy czym należy pamiętać, że jeden wymiar zespolony odpowiada dwóm wymiarom rzeczywistym). Jako przestrzeń zespolona uczestniczy zaś w magii liczb zespolonych. I rzeczywiście, powierzchnie Riemanna wykazują wiele aspektów tej magii. Fakt zaś, że te powierzchnie (tj. krzywe zespolone) odgrywają rolę na poziomie budowy świata, na którym dominującą rolę odgrywają liniowe, wyrażone poprzez liczby zespolone reguły mechaniki kwantowej, daje nadzieję na subtelne oddziaływanie, a może i harmonijną jedność, pomiędzy dwoma różnymi aspektami fizyki świata mikroskopowego.


Rys. 1-10: (a), (b), (c) Trzy różne diagramy o topologii drzewa, w których zarówno na wejściu, jak i na wyjściu, znajdują się dwie (nieokreślone) cząstki; (d) przypadek, gdy występują zamknięte pętle.


Rys. 1-11: Teoriostrunowe wersje diagramów przedstawionych na Rys. 1-10.

Aby nieco wyraźniej pokazać, jaką rolę odgrywa ta fundamentalna intuicja strunowa, powróćmy do diagramów Feynmana przedstawionych w §1.5. Jeśli przyjmiemy, że linie na tych diagramach reprezentują rzeczywiste linie świata cząstek elementarnych, gdzie o cząstkach tych myślimy jako o punktach w przestrzeni, to węzły reprezentują sobą spotkania pomiędzy cząstkami, przy których odległość między nimi spada do zera. Można sobie wyobrazić, że rozbieżności ultrafioletowe wynikają z punktowego charakteru tych spotkań. Gdyby natomiast elementarnymi obiektami teorii były niewielkie pętle, to ich historie były cienkimi rurkami w czasoprzestrzeni. Zamiast punktowych węzłów, które występują typowo w diagramach Feynmana, można wyobrazić sobie gładkie połączenia pomiędzy takimi rurkami – takie, jakie mógłby wykonać solidny hydraulik. Na Rys. 1-10(a)-(c) narysowałem kilka diagramów Feynmana (dla nieokreślonego rodzaju cząstek) bez pętli (diagramy „drzewowe”), zaś na Rys. 1-10(d) bardziej typowy przypadek, w którym występują zamknięte pętle. Na Rys. 1-11 przedstawiłem to, jak wyglądałby teoriostrunowy odpowiednik tych diagramów. Zniknęły punkty spotkań cząstek, a procesy reprezentowane są na sposób całkowicie gładki. Możemy sobie teraz wyobrazić, że owe powierzchnie z Rys. 1-11, będące historiami strun, to powierzchnie Riemanna, dzięki czemu będziemy mogli badać ich właściwości, odwołując się do pięknej teorii matematycznej opisującej te powierzchnie. Zauważmy zwłaszcza, że zamknięte pętle standardowej teorii Feynmana (będące źródłem rozbieżności ultrafioletowych) prowadzą po prostu do pojawienia się wielospójności w topologii powierzchni Riemanna. Każda zamknięta pętla w diagramie Feynmana prowadzi po prostu do pojawienia się dodatkowego „uchwytu” w topologii naszej powierzchni Riemanna (formalnie, rośnie genus, gdzie genus powierzchni Riemanna to liczba występujących na niej uchwytów). (Przykłady uchwytów topologicznych przedstawiono na Rys. 1-44(a) w §1.16 oraz Rys. A-11 w §A.5).

Zauważmy ponadto, że stany początkowe i końcowe w teorii Feynmana odpowiadają dziurom lub nakłuciom w naszej powierzchni Riemanna, i to w takich miejscach możliwe jest wprowadzenie informacji o energii i pędzie. W niektórych popularnych tekstach na temat topologii powierzchni słowo dziura jest stosowane na określenie tego, co ja nazywam uchwytem. W niespójnych powierzchniach Riemanna, które pojawiają się w teorii strun, występują jednak również dziury (nakłucia) w sensie, w którym tu używamy tego terminu, należy więc zachować ostrożność, aby nie pomylić tych bardzo odmiennych pojęć. W §1.16 będzie mowa o roli, jaką pełnią dziury/nakłucia w powierzchniach Riemanna.

Teraz powinienem chyba opisać pewną określoną motywację dla rozwoju teorii strun, która została pokrótce wspomniana na początku §1.3. Ma ona związek z pewnym znanym z obserwacji aspektem zachowania się hadronów, który stanowił wówczas wielką zagadkę dla fizyków. Na Rys. 1-10(a)-(c) przedstawiłem trzy diagramy Feynmana dla procesów niskiego rzędu, w których zarówno na „wejściu”, jak i na „wyjściu” pojawiają się dwie cząstki – powiedzmy, że są to hadrony. Na Rys. 1-10(a) dwa hadrony łączą się, tworząc kolejny, który natychmiast rozpada się na dwa inne hadrony; na Rys. 1-10(b) pierwotna para hadronów wymienia się hadronem, a stanem końcowym również jest pewna para hadronów. Rys. 1-10(c) przypomina Rys. 1-10(b), przy czym dwa końcowe hadrony są zamienione. Dla określonego początkowego i końcowego zestawu cząstek może okazać się, że dla każdej z tych trzech konfiguracji wewnętrznym hadronem może stać się różnego typu cząstka i należałoby dokonać sumy po wszystkich takich ewentualnościach, aby otrzymać poprawny wynik. Tak rzeczywiście jest, aby jednak otrzymać pełną odpowiedź przy tym rzędzie obliczeń, wydawałoby się, że należy dodać do siebie wszystkie trzy sumy (tzn. sumy uzyskane osobno dla każdej z trzech konfiguracji przedstawionej na Rys. 1-10(a)-(c)). Wydaje się jednak, że wszystkie trzy sumy są identyczne, zamiast więc dodawać je wszystkie do siebie, każda z nich z osobna powinna prowadzić do prawidłowego wyniku!

Patrząc na to z punktu widzenia tego, co powiedzieliśmy wcześniej o poprawnym sposobie posługiwania się diagramami Feynmana, wydaje się to być dosyć dziwne. Wydawałoby się, że konieczne jest dodanie do siebie wkładu pochodzącego od każdej ewentualności, tymczasem sam świat wydaje się nam mówić, że wystarczy odwołać się do jednego z trzech na pozór odmiennie wyglądających procesów przedstawionych na Rys. 1-10(a)-(c), zaś włączenie ich wszystkich doprowadziłoby do poważnego „przeliczenia się”. Jeśli weźmie się pod uwagę pełne sformułowanie QCD, problem ten można zrozumieć, odwołując się do opisu wszystkich tych procesów z udziałem hadronów w odniesieniu do poszczególnych kwarków, z których się one składają – w QCD hadrony uważa się za cząstki złożone, zaś zliczanie niezależnych stanów powinno dokonywać się względem elementarnych kwarków. Jednak w czasach, gdy powstawała teoria strun, nie było jeszcze „porządnego” sformułowania QCD, i bardzo właściwe wydawało się poszukiwanie innych sposobów na rozwiązanie tego problemu (i szeregu innych związanych z nim kwestii). Rys. 1-11(a)-(c) ilustruje sposób, w jaki radzi sobie z nim teoria strun – przedstawione są na nim strunowe wersje wszystkich trzech ewentualności z Rys. 1-10(a)-(c). Zauważmy, że strunowe wersje tych procesów tą topologicznie identyczne. Z punktu widzenia teorii strun trzy procesy przedstawione na Rys. 1-10(a)-(c) nie powinny być więc zliczane osobno, będąc jedynie trzema różnymi sposobami patrzenia na coś, co zasadniczo jest jednym elementarnym procesem.

 

Nie wszystkie diagramy w teorii strun są jednak takie same. Przyjrzyjmy się strunowej wersji Rys. 1-10(d), czyli Rys. 1-11(d), na której pętle obecne w (wyższego rzędu) diagramie Feynmana są reprezentowane przez uchwyty topologiczne historii strun (zob. Rys. 1-44(a),(b) w §1.11 oraz Rys. A-11 w §A.5). Raz jeszcze podejście strunowo-teoretyczne okazuje się mieć doniosłą przewagę. Nie dochodzi tu do wyłaniania się rozbieżnych wyrażeń, które pojawiały się w konwencjonalnej teorii opartej na diagramach Feynmana, gdy obecne w nich były zamknięte pętle. Teoria strun oferuje nam bardzo elegancki sposób patrzenia na pętle, a mianowicie poprzez 2-wymiarowe topologie, z którymi dobrze zaznajomieni są matematycy posługujący się bardzo owocną teorią powierzchni Riemanna (§A.10).

Tego typu rozumowanie stanowiło doskonały intuicyjny powód, aby potraktować poważnie teorię strun. Istniały również nieco bardziej techniczne powody, które przyciągnęły do tej idei szereg fizyków. W 1970 roku Yoichiro Nambu (który otrzymał Nagrodę Nobla z fizyki w 2008 roku za badania nad spontanicznym łamaniem symetrii w fizyce cząstek elementarnych) zaproponował model strunowy, aby wyjaśnić niezwykły wzór opisujący tego typu oddziaływania pomiędzy hadronami, który sformułował ok. dwa lata wcześniej Gabriele Veneziano. Struny Nambu były dość podobne do gumek-recepturek, ponieważ siła, jaką wywierały, rosła wraz ze stopniem rozciągnięcia struny (choć różniły się od zwykłych gumek tym, że siła spada do zera wyłącznie wtedy, gdy długość struny również jest zerowa). Jak więc widzimy, struny miały pierwotnie stanowić teorię oddziaływań silnych i jako takie stanowiły wówczas propozycję nowatorską i bardzo atrakcyjną, zwłaszcza ze względu na to, że QCD nie była jeszcze wówczas w pełni rozwiniętą teorią, dającą się stosować w praktyce. (Kluczowy składnik QCD określany mianem swobody asymptotycznej został opisany później, w 1973 roku, przez Davida Grossa i Franka Wilczka oraz niezależnie przez Davida Politzera, za co otrzymali oni Nagrodę Nobla z fizyki w 2004 roku.) Teoria strun zdawała się być, mnie i wielu innym naukowcom, propozycją, którą warto rozwijać, ale podkreślmy, że pierwotnie idee tej teorii wynikły podczas poszukiwań wyjaśnienia oddziaływań hadronowych (silnych).

Próbując utworzyć porządną kwantową teorię strun, teoretycy napotkali jednak na coś, co określa się mianem anomalii, to zaś zawiodło ich ku bardzo dziwnym terytoriom. Anomalia to coś, co pojawia się, gdy teoria klasyczna – w tym wypadku jest to teoria dynamiczna prostych obiektów struno-podobnych w fizyce klasycznej (Newtonowskiej) – zatraca jakąś swoją kluczową własność, kiedy zastosuje się do niej reguły mechaniki kwantowej, zwykle pewnego rodzaju symetrię. W przypadku teorii strun symetrią tą była podstawowa niezmienniczość ze względu na zmianę pewnego parametru opisującego współrzędne struny. Bez tej niezmienniczości matematyczny opis struny przestawał mieć sens jako teoria strun, przez co kwantowa wersja klasycznej teorii strun nie miałaby sensu jako teoria strun – wszystko za sprawą (anomalnego) złamania niezmienniczości ze względu na zmiany tegoż parametru. Około 1970 roku pojawiła się jednak niezwykła propozycja, że gdyby zwiększyć liczbę wymiarów czasoprzestrzeni z 4 do 26 (czyli 25 wymiarów przestrzennych i 1 czasowy) – trzeba przyznać, że to naprawdę przedziwna idea – to człony w teorii, które są źródłem anomalii, cudownie kasują się [Goddard i Thorn 1972; zob. też Greene 1999, §12], dzięki czemu kwantowa wersja teorii znów działa!

Wydaje się, że dla wielu ludzi propozycja, że poza zasięgiem zwykłej percepcji kryje się świat o wyższej wymiarowości, a ponadto owe dodatkowe wymiary tworzą istotną część świata, który zamieszkujemy, ma w sobie coś romantycznego! Moja własna reakcja była jednak zupełnie inna. Moja intuicyjna odpowiedź na te wieści była taka, że bez względu na to, jak fascynująca matematycznie jest ta propozycja, nie mogę potraktować jej poważniej jako model mający znaczenie dla fizyki świata, w którym żyjemy. Ponieważ zaś nikt nie pokazał, że istnieje jakiś inny (radykalnie odmienny) sposób patrzenia na tę propozycję, cały mój początkowy entuzjazm dla teorii strun, którym zarazili mnie inni fizycy, wyparował. Myślę, że moja reakcja nie była czymś niezwykłym w świecie fizyków teoretycznych, choć było parę powodów, dla których miałem szczególną niechęć do tak wielkiego rozmnożenia się wymiarów przestrzennych czasoprzestrzeni. O powodach tych powiem nieco więcej w §1.9–§1.11, §2.9, §2.11, §4.1, a najwyraźniej w §4.4. Na chwilę obecną wyjaśnię może tylko punkt widzenia przyjęty przez teoretyków strun, który pozwolił im na nie popadnięcie w niezadowolenie z powodu konfliktu pomiędzy ewidentną 3-wymiarowością przestrzeni fizycznej (z 1-wymiarowym czasem) a postulowaną czasoprzestrzenią o 25 wymiarach przestrzennych (i jednym czasowym), której zdawała się domagać teoria strun.

Kluczową kwestią były tak zwane struny bozonowe, mające reprezentować cząstki zwane bozonami. W §1.14 zostanie bliżej omówiony fakt, że cząstki kwantowe należą do dwóch głównych klas: bozonów i fermionów. Przedstawiciele tych dwóch klas mają odmienne właściwości statystyczne, różnią się ponadto tym, że spin bozonu jest zawsze liczbą całkowitą (zob. §2.11), podczas gdy spiny fermionów zawsze różnią się od liczby całkowitej o pół. Kwestie te zostaną dalej omówione w §1.14, gdzie wspomniane zostanie jeszcze zagadnienie supersymetrii, czyli propozycji, zgodnie z którą bozony i fermiony są częścią pewnej szerszej struktury. Jak się przekonamy, propozycja ta odgrywa kluczową rolę we współczesnej teorii strun. Michael Green i John Schwarz [1984; zob. też Greene 1999] wykazali, że jeśli weźmie się pod uwagę supersymetrię, wymiarowość czasoprzestrzeni teorii strun zmniejsza się z 26 do 10 (tj. 9 wymiarów przestrzennych i 1 czasowy). Struny tej teorii określa się jako struny fermionowe, zaś opisywane przez nie fermiony wiążą się z bozonami właśnie za sprawą supersymetrii.


Rys. 1-12: Ze względu na symetrię wzdłuż kierunków wektora Killinga k, 5-przestrzeń Kaluzy-Kleina jest wiązką 𝓑 nad zwykłą 4-wymiarową czasoprzestrzenią 𝓜, gdzie k wskazuje w kierunku równoległym do włókien S1 (skierowane pionowo krzywe). Pole Maxwella jest zakodowane w „skręceniu” włókien, co sprawia, że ich ortogonalne 4-przestrzenie nie są w stanie połączyć się gładko ze sobą, tworząc spójne 4-przestrzenne cięcia, które w zwykłym przypadku byłyby obrazami czasoprzestrzeni 𝓜.

Aby trochę złagodzić poczucie niezadowolenia z tej potężnej i absurdalnej niezgodności pomiędzy teorią i faktami obserwacyjnymi w zakresie wymiarowości przestrzeni, teoretycy strun odwołują się do wcześniejszej propozycji, wysuniętej w 1921 roku przez niemieckiego matematyka Theodora Kaluzę[4] i rozwiniętej przez szwedzkiego fizyka Oskara Kleina, określanej dziś jako teoria Kaluzy-Kleina. Stanowi ona jednoczesny opis grawitacji i elektromagnetyzmu w 5-wymiarowej czasoprzestrzeni. W jaki sposób Kaluza i Klein tłumaczyli fakt, że piąty wymiary czasoprzestrzeni przewidywany przez ich teorię nie jest obserwowalnym dla istot żyjących w tej przestrzeni? Wedle pierwotnej propozycji Kaluzy ta 5-wymiarowa czasoprzestrzeń ma metrykę taką samą, jaka występuje w „czystej” teorii Einsteina, występuje jednak ścisła symetria wzdłuż pewnego pola wektorowego k w 5-wymiarowej przestrzeni (zob. §A.6 i Rys. A-17) – żaden aspekt geometrii czasoprzestrzeni nie zmienia się w kierunku k. W języku geometrii różniczkowej k jest tak zwanym wektorem Killinga, czyli polem wektorowym generującym ciągłą symetrię tego typu (zob. §A.7 i Rys. A-29). Również wszystkie przedmioty fizyczne znajdujące się wewnątrz czasoprzestrzeni, nie ulegają zmianie przy transformacji wzdłuż k. Ponieważ każdy przedmot musi wykazywać tego typu symetrię, nic, co znajduje się w czasoprzestrzeni, nie może „wiedzieć” o istnieniu tego kierunku, a efektywna czasoprzestrzeń, ze względu na jej składniki, jest 4-wymiarowa. Struktura nakładana przez 5-metrykę na 4-wymiarową efektywną czasoprzestrzeń będzie natomiast interpretowana wewnątrz tej przestrzeni jako pole elektromagnetyczne spełniające równania Maxwella i wpływające na wartość Einsteinowskiego tensora energii T ściśle tak, jak powinno[5]. Była to, trzeba przyznać, pomysłowa propozycja. 5-przestrzeń Kaluzy jest w istocie wiązką, 𝓑, w sensie przedstawionym w §A.7, o 1-wymiarowych włóknach. Przestrzenią bazową jest nasza 4-wymiarowa czasoprzestrzeń 𝓜, ale 𝓜 nie jest naturalnie zanurzona w 5-przestrzeni 𝓑 ze względu na „skręcenie” 4-wymiarowych elementów ortogonalnych do kierunku k; skręcenie to wyraża pole elektromagnetyczne (zob. Rys. 1-12).