Moda, wiara i fantazja we współczesnej fizyce Wszechświata

Tekst
0
Recenzje
Przeczytaj fragment
Oznacz jako przeczytane
Jak czytać książkę po zakupie
Czcionka:Mniejsze АаWiększe Aa

Skoro już mowa o powrocie dawnych idei, mogę wspomnieć – nie do końca poważnie – o ciekawym zbiegu okoliczności, który miał miejsce mniej więcej wtedy, gdy wygłaszałem w Princeton wykład, na którym opiera się niniejszy rozdział (było to 17 października 2003 roku). W moim wystąpieniu odwoływałem się do starożytnej greckiej idei, zgodnie z którą eter można powiązać z dwunastościanem foremnym. Nie wiedziałem wówczas o tym, że w tym samym czasie media donosiły o pewnej propozycji [Luminet i in. 2003], zgodnie z którą trójwymiarowa geometria przestrzenna Wszechświata może mieć w rzeczywistości złożoną topologię, jaką można uzyskać dokonując utożsamienia (ze skręceniem) naprzeciwległych ścian foremnego dwunastościanu. Tak więc, w pewnym sensie, platońska idea dwunastościennego Kosmosu powróciła we współczesnych czasach!

W ostatnich latach żywo dyskutowana, zwłaszcza w kontekście teorii strun, bywa ambitna idea „teorii wszystkiego”, mającej obejmować wszystkie procesy fizyczne, w tym opis wszystkich cząstek i ich oddziaływań. Teoria taka miałaby stanowić pełen opis teoretyczny zjawisk fizycznych, oparty na jakiegoś rodzaju elementarnych cząstkach i/lub polach, działających w oparciu o siły lub inne zasady dynamiczne, precyzyjnie kierując ruchem wszystkich elementów składowych. Również i to można potraktować jako powrót do starej idei, o czym będzie mowa za chwilę.

Pod koniec 1915 roku, gdy Einstein opracowywał ostateczną postać swojej ogólnej teorii względności, matematyk David Hilbert przedstawił własną metodę wyprowadzania równań pola teorii Einsteina[1], posługując się tak zwaną zasadą wariacyjną. (Ta bardzo ogólnego typu procedura polega na skorzystaniu z równań Eulera-Lagrange’a, otrzymanych z lagranżjanu, który stanowi potężną koncepcję teoretyczną, wymienioną już w §1.1; zob. też Penrose 2004, rozdział 20; do książki tej [Droga do rzeczywistości – przyp. tłum.] będę się niżej odwoływał skrótem „DDR”.) Einstein, posługując się swoją, znacznie bardziej bezpośrednią metodą, sformułował swoje równania w postaci, która jawnie przedstawia zachowanie się pola grawitacyjnego (opisywanego w kategoriach krzywizny czasoprzestrzeni), zależnie od jego „źródeł”, a mianowicie całkowitej gęstości masy/energii wszystkich cząstek, pól materii itd., zebranych wspólnie w tensor energii T (wspomniany w §1.1).

Einstein nie podał żadnego konkretnego przepisu na równania opisujące zachowanie się tych pól materii; założenie było takie, że będą one pochodzić z innej teorii, opisującej dany rodzaj materii. W szczególności jednym z takich pól było pole elektromagnetyczne, którego opis miał być zgodny ze wspaniałymi równaniami pochodzącymi od wielkiego szkockiego fizyka matematycznego Jamesa Clerka Maxwella, przedstawionymi w 1864 roku, w których całkowicie zunifikował opis pól elektrycznych i magnetycznych, wyjaśniając tym samym naturę światła oraz w dużym stopniu wyjaśniając charakter sił pomiędzy składnikami zwykłych materiałów fizycznych. To właśnie miała być „materia” w takim sensie, w jakim jest ona częścią opisu tensora T. W opisie układu – czyli jako składnik tensora T – mogły się też pojawić inne pola i wszelkiego rodzaju cząstki, opisywane przez takie równania, jakie tylko uznano by za stosowne. Dla teorii Einsteina szczegóły te nie miały znaczenia i on sam nie podał żadnej określonej postaci tego typu równań.

Hilbert starał się natomiast skonstruować teorię o szerszym zakresie. To, co przedstawił, dziś moglibyśmy określić jako teorię wszystkiego. Pole grawitacyjne opisywał tak samo, jak robił to Einstein, ale nie pozostawił członu T o niesprecyzowanej postaci, lecz zaproponował, aby pochodził on z bardzo modnej wówczas teorii, znanej jako teoria Mie [Mie 1908, 1912a,b, 1913]. Jest to nieliniowa modyfikacja teorii elektromagnetyzmu Maxwella; została ona zaproponowana przez Gustava Mie jako struktura teoretyczna obejmująca wszystkie aspekty materii. Zawierająca ją w sobie teoria Hilberta byłaby więc pełną teorią materii (w tym elektromagnetyzmu) oraz grawitacji. W owym czasie nie były jeszcze znane oddziaływania silne i słabe jądrowe, ale propozycję Hilberta można mimo to potraktować jako przykład teorii wszystkiego. Nie sądzę, aby większość dzisiejszych fizyków znała tak niegdyś modną teorię Mie, nie mówiąc już o fakcie, że była ona częścią Hilbertowskiej wersji ogólnej teorii względności. Teoria ta nie odgrywa roli we współczesnych poglądach na budowę materii. Być może jest to przestroga dla współczesnych teoretyków planujących przedstawiać własne teorie wszystkiego.

1.3. Elementy fizyki cząstek stanowiące tło dla teorii strun

Jedną tego typu propozycją teoretyczną jest teoria strun i wielu fizyków teoretyków wciąż jeszcze uważa, że stanowi ona ścieżkę prowadzącą do teorii wszystkiego. Teoria strun wywodzi się z szeregu idei, które – gdy po raz pierwszy o nich usłyszałem około roku 1970 (od Leonarda Susskinda) – uznałem za niezwykle atrakcyjne i bardzo pociągające. Zanim jednak przedstawię tę teorię, powinienem najpierw umieścić ją w odpowiednim kontekście. Powinniśmy spróbować zrozumieć, dlaczego zastąpienie idei cząstki punktowej niewielką pętlą lub krzywą w przestrzeni, co stanowi pierwotną ideę teorii strun, miałoby w ogóle nadawać się na podstawę fizycznego obrazu rzeczywistości.

W rzeczywistości było kilka powodów, dla których idea ta była tak atrakcyjna. Zakrawa na ironię, że jeden z najbardziej konkretnych powodów – mający związek z obserwowalnymi zjawiskami fizycznymi zachodzącymi przy oddziaływaniach hadronów – został, jak się zdaje, całkowicie zapomniany podczas dalszego rozwoju teorii strun i nie jestem pewien, czy odgrywa dziś jakąkolwiek rolę w tej gałęzi fizyki, poza czysto historyczną. Powinienem jednak mimo wszystko omówić ten temat (co nastąpi w §1.6), podobnie jak pozostałe aspekty fizyki cząstek elementarnych, które pozwalają na zrozumienie fundamentalnych założeń teorii strun.

Zacznijmy może od tego, czym jest hadron. Jak pamiętamy, atom składa się z dodatnio naładowanego jądra i orbitujących wokół niego ujemnie naładowanych elektronów. Jądro składa się z protonów i neutronów – wspólnie określanych jako nukleony (N). Każdy proton jest nośnikiem pojedynczego dodatniego ładunku elektrycznego (jednostka ładunku została dobrana tak, aby elektron miał pojedynczy ładunek ujemny), zaś neutrony są elektrycznie obojętne. Przyciągająca siła elektryczna pomiędzy ładunkami dodatnimi i ujemnymi utrzymuje ujemnie naładowane elektrony na swoich orbitach wokół dodatnio naładowanego jądra. Gdyby jednak występowały tam wyłącznie siły elektryczne, to samo w sobie jądro (z wyjątkiem jądra wodoru, będącego po prostu pojedynczym protonem) rozpadłoby się na swoje części składowe, ponieważ protony, wszystkie będące nośnikami ładunku o tym samym znaku, odpychają się. Musi więc występować inna, „mocniejsza” siła utrzymująca jądro w całości – określa się ją mianem oddziaływania silnego (albo: „silnego jądrowego”). Występuje jeszcze ponadto tak zwane słabe oddziaływanie jądrowe, które ma szczególne znaczenie dla procesów rozpadu jądrowego, ale nie ma ono decydującej roli w relacjach pomiędzy nukleonami. Będzie o nim jeszcze mowa później.

Nie wszystkie cząstki podlegają bezpośrednio oddziaływaniu silnemu; przykładem są elektrony. Te, które mu podlegają, to względnie ciężkie cząstki określane jako hadrony (od greckiego słowa hadros oznaczającego masywny). Do hadronów należą między innymi proton i neutron, jednak istnieje wiele rodzajów hadronów. Pomiędzy nimi są też kuzyni protonu i neutronu, tak zwane bariony (od słowa barys, oznaczającego ciężki), pośród których znajdują się między innymi: lambda (Λ), sigma (Σ), ksi (Ξ), delta (Δ) i omega (Ω), z których większość występuje w kilku odmianach różniących się ładunkiem elektrycznym, ponadto tworząc sekwencję odmian wzbudzonych (szybciej wirujących). Wszystkie pozostałe cząstki są bardziej masywne od protonu i neutronu. Przyczyną, dla której nie odnajduje się tych bardziej egzotycznych cząstek wewnątrz zwykłych atomów, jest fakt, że są one wysoce niestabilne i ulegają szybkiemu rozpadowi, docelowo do protonu lub neutronu, oddając nadmiar masy w postaci energii (zgodnie ze słynnym Einsteinowskim E = mc2). Proton zaś ma masę ok. 1836, a neutron – ok. 1839 większą od masy elektronu. Pośrednią masę pomiędzy skalą barionów i elektronów ma inna klasa hadronów, mezony, z których najbardziej znane to pion (μ) i kaon (K). Występują one w wersjach naładowanych (μ+ i μ, każdy o masie ok. 273 elektronów; K+ i K+, każdy o masie ok. 966 elektronów) oraz obojętnych (μ0, o masie ok. 264 elektronów; K0 i K0, każdy o masie ok. 974 elektronów). Konwencja jest taka, że pozioma kreska nad symbolem cząstki oznacza antycząstkę; zauważmy jednak, że antypiony są znów pionami, podczas gdy antykaon różni się od kaonu. Również i te cząstki mają wielu kuzynów i występują w odmianach wzbudzonych (szybciej wirujących).

Można więc zauważyć, że jest to wszystko bardzo skomplikowane – sytuacja jakże odmienna od pięknych czasów na początku dwudziestego wieku, kiedy to proton, neutron i elektron (plus jedna lub dwie cząstki bezmasowe, jak foton, cząsteczka światła) zdawały się reprezentować całkowity repertuar cząstkowy Wszechświata. Z upływem lat sytuacja stawała się jednak coraz bardziej skomplikowana, aż ostatecznie, mniej więcej w latach 1970–73, uformował się zunifikowany obraz sytuacji, który określa się jako model standardowy fizyki cząstek [Zee 2010; Thomson 2013]. Zgodnie z tym modelem, wszystkie hadrony składają się z kwarków i/lub ich antycząstek zwanych antykwarkami. Każdy barion uważa się za złożony z trzech kwarków, a każdy (zwykły) mezon z kwarku i antykwarku. Kwarki występują w sześciu różnych odmianach, określanych (dość dziwnie i raczej banalnie) jako górny (up), dolny (down), powabny (charm), dziwny (strange), szczytowy (top) i spodni (bottom) i są nośnikami, kolejno, następujących ładunków elektrycznych: . Ładunki ułamkowe mogą się z początku wydawać dziwaczne, ale faktycznie obserwowane wolne cząstki (takie jak bariony i mezony) zawsze mają ładunek będący liczbą całkowitą.

 

Model standardowy zapewnia nie tylko porządek w menażerii najprostszych cząstek przyrody, ale ponadto dobry opis głównych oddziaływań pomiędzy nimi. Zarówno oddziaływanie silne, jak i słabe, opisuje się za pośrednictwem eleganckiej procedury matematycznej – określanej jako teoria cechowania – w ramach której ważną rolę odgrywa pojęcie wiązki – jej krótki opis podałem w §A.7, o wiązkach będzie też mowa później, zwłaszcza w §1.8. Baza 𝓜 wiązki (opisana w §A.7) jest czasoprzestrzenią i, w przypadku oddziaływania silnego (które dostarcza nam bardziej przejrzystego matematycznie przykładu) włókno 𝓕 opisuje się przy pomocy pojęcia określanego jako kolor, które przypisuje się poszczególnym kwarkom (dla każdego kwarku dostępne są trzy elementarne kolory). Teorię oddziaływań silnych określa się mianem chromodynamiki kwantowej (QCD, quantum chromodynamics). Nie będę tutaj szczegółowo opisywał QCD, ponieważ wymagałoby to wprowadzenia bardziej zaawansowanej matematyki [zob. Tsou i Chan 1993; Zee 2003]. Nie jest to ponadto teoria „modna” w sensie, w którym używam tego pojęcia. Choć idee te mogę brzmieć egzotycznie i niecodziennie, tak naprawdę spisują się bardzo dobrze, nie tylko tworząc spójny i precyzyjnie sformułowany formalizm matematyczny, ale również znajdując doskonałe potwierdzenie w wynikach eksperymentalnych. Teoria QCD jest badana wszędzie, gdzie poważnie bada się oddziaływania silne, ale nie dlatego, że jest ona modna w opisywanym tu sensie; istnieją dobre, czysto naukowe powody, aby ją badać!

Przy wszystkich jej zaletach, są też poważne powody naukowe, aby próbować wyjść poza model standardowy. Jedną z nich jest fakt, że w modelu tym występuje mniej więcej trzydzieści stałych liczbowych, których teoria ta w żadnym stopniu nie wyjaśnia. Należą do nich parametry takie, jak masy poszczególnych kwarków i leptonów, wielkości określane jako parametry mieszania fermionów (takie jak kąt Cabibbo), kąt Weinberga, kąt teta, stałe sprzężenia oraz parametry związane z mechanizmem Higgsa. Z kwestią tą wiąże się kolejna poważna wada, która była już obecna w innych propozycjach teoretycznych przed powstaniem modelu standardowego, a z którą model ten rozprawia się tylko częściowo. Jest to niepokojąca kwestia nieskończoności (czyli bezsensownych odpowiedzi wyłaniających się z rozbieżnych wyrażeń matematycznych, jak te opisane w §A.10), które pojawiają się w kwantowej teorii pola (QFT, quantum field theory) – QFT jest postacią mechaniki kwantowej, która ma kluczowe znaczenie nie tylko dla QCD i innych aspektów modelu standardowego, ale dla całego współczesnego podejścia do fizyki cząstek, a także innych aspektów fizyki fundamentalnej.

W rozdziale 2 wypowiem się nieco szerzej na temat mechaniki kwantowej w ogólnym sensie. Na razie skoncentrujmy się na jednej bardzo określonej, ale fundamentalnej właściwości mechaniki kwantowej, którą można potraktować jako źródło problemu nieskończoności w QFT, a przekonamy się, w jaki sposób konwencjonalne metody radzenia sobie z tymi nieskończonościami uniemożliwiają uzyskanie pełnego rozwiązania kwestii pochodzenia owych około trzydziestu niewyjaśnionych liczb występujących w modelu standardowym. Teoria strun w dużym stopniu opiera się na pomysłowym sposobie poradzenia sobie z nieskończonościami w QFT, o czym przekonamy się w §1.6. Wydaje się więc budzić pewne nadzieje w kwestii odnalezienia drogi do wyjaśnienia tajemnicy pochodzenia tych trzydziestu parametrów.

1.4. Zasada superpozycji w QFT

Kamieniem węgielnym mechaniki kwantowej jest zasada superpozycji, występująca we wszystkich teoriach kwantowych, nie tylko w QFT. W szczególności będzie ona pełniła kluczową rolę dla zagadnień omawianych w rozdziale 2. W bieżącym rozdziale, aby wyjaśnić, skąd wywodzi się problem nieskończoności w QFT, będę musiał wprowadzić ją pokrótce, choć zasadnicza część mojego omówienia mechaniki kwantowej znajduje się w rozdziale 2 (zob. zwłaszcza §2.5 i §2.7).


Rys. 1-2: Eksperyment z dwiema szczelinami. Działo elektronowe jest wycelowane w ekran, przed którym umieszczona jest przegroda z dwiema wąsko oddzielonymi szczelinami (a). Jeśli otworzy się tylko jedną z nich (b), (c), to na ekranie pojawia się przypadkowy wzorzec skoncentrowany wokół najbardziej bezpośredniej trajektorii prowadzącej przez otwartą szczelinę. Jeśli jednak otwarte są obie szczeliny (d), to pojawia się prążkowany obraz rozkładu elektronów, gdzie widoczne są pewne miejsca (np. P), w które nie trafia żadna cząstka, choć mogła je osiągnąć, gdy otwarta była tylko jedna szczelina; ponadto w innych miejscach (np. Q) ilość cząstek jest czterokrotnie większa niż przy otwarciu tylko jednej szczeliny.

Aby zrozumieć rolę, jaką pełni zasada superpozycji w QFT, rozważmy następującą sytuację. Przypuśćmy, że mamy do czynienia z pewnym procesem fizycznym prowadzącym do konkretnego zaobserwowanego skutku. Załóżmy dalej, że skutek ten może zostać osiągnięty za pośrednictwem pewnego stanu Ψ, jednak istnieje również inna ścieżka Φ prowadząca do zasadniczo takiego samego punktu docelowego. Jeśli tak jest, to, zgodnie z zasadą superpozycji, musimy założyć, że w pewnym sensie zarówno ewentualność Ψ, jak i Φ, może pełnić ową rolę pośredniczącą! Jest to oczywiście wysoce nieintuicyjne, ponieważ w zwykłej skali makroskopowej nie obserwujemy sytuacji, gdy jednocześnie zachodzą dwie wyraźnie odmienne możliwości. A jednak, w przypadku zdarzeń w skali cząstek elementarnych, przy której nie mamy możliwości bezpośredniego obserwowania, która z tych dwóch ewentualności faktycznie zaszła, musimy zgodzić się na to, że obie mogły zajść jednocześnie, tworząc coś, co określa się jako superpozycję kwantową.

Klasycznym przykładem tego typu sytuacji jest słynny eksperyment z dwiema szczelinami, często przywoływany przy omawianiu podstaw mechaniki kwantowej. Rozważa się tu przypadek, gdy strumień cząstek kwantowych (powiedzmy, elektronów albo fotonów), kieruje się w stronę ekranu, jednak na drodze pomiędzy źródłem a ekranem znajduje się przegroda, w której wykonano dwie położone blisko siebie szczeliny (Rys. 1-2(a)). Każda cząstka po dotarciu do ekranu zostawia na niej w pewnym miejscu charakterystyczny ciemny ślad, będący świadectwem jej cząsteczkowego charakteru. Gdy jednak wiele tego typu cząstek przejdzie przez układ, na ekranie powstaje obraz interferencyjny składający się z jasnych i ciemnych prążków – ciemne prążki to miejsca na ekranie, gdzie dotarło więcej cząstek, a jasne to te, gdzie trafiło ich stosunkowo niewiele (Rys. 1-2(d)). Standardowa staranna analiza[2] tej sytuacji prowadzi do wniosku, że każda poszczególna cząstka kwantowa musi w pewnym sensie przejść przez obie szczeliny jednocześnie, zaznając przedziwnego nałożenia się – „superpozycji” – dwóch alternatywnych dróg.

Rozumowanie kryjące się za tą dziwną konkluzją bierze swe źródło w obserwacji, że jeśli zakryje się którąś ze szczelin, podczas gdy druga pozostaje otwarta (Rys. 1-2(b),(c)), na ekranie nie pojawiają się prążki, lecz względnie jednorodny obraz, najciemniejszy pośrodku. Gdy jednak otworzy się obie szczeliny, jaśniejsze prążki występujące pomiędzy obszarami ciemniejszymi znajdują się w miejscach, które pozostają zaciemnione, gdy otworzy się tylko jedną szczelinę. Z jakiegoś powodu dzieje się tak, że gdy obie drogi są dostępne dla cząstek, to owe jaśniejsze miejsca zostają zredukowane, a ciemniejsze miejsca wzmocnione. Gdyby po otwarciu obu szczelin każda cząstka po prostu robiła to, co robi wtedy, gdy otwarta jest tylko jedna szczelina, to doszłoby do prostego zsumowania się efektów zaobserwowanych po przejściu cząstek przez każdą z dwóch szczelin z osobna i nie pojawiłyby się prążki interferencyjne. Dzieje się to tylko dlatego, że dla cząstki dostępne są obydwie drogi, które ponadto są przez tę cząstkę „wyczuwane”. W pewnym sensie te dwie drogi współistnieją dla cząstki znajdującej się pomiędzy źródłem a ekranem.

Jest to oczywiście wyraźnie sprzeczne z naszym doświadczeniem zachowywania się ciał makroskopowych. Przykładowo, jeśli dwa pokoje są ze sobą połączone dwojgiem drzwi, a pewien kot został zaobserwowany najpierw w jednym pokoju, a potem w drugim, to zwykle doszlibyśmy po prostu do wniosku, że przeszedł albo przez jedne, albo przez drugie drzwi, ale że nie mógł w jakiś dziwny sposób przejść przez oboje drzwi jednocześnie. W przypadku obiektu o rozmiarach kota byłoby jednak możliwe, nie wpływając znacząco na jego zachowanie, ciągłe mierzenie położenia kota i ustalenie w ten sposób, przez które drzwi faktycznie przeszedł. Gdybyśmy chcieli zrobić to samo z pojedynczą cząstką kwantową w ramach opisanego wyżej eksperymentu z dwiema szczelinami, musielibyśmy wpłynąć na jej zachowanie się w stopniu, który skutkowałby zniknięciem wzorca interferencyjnego na ekranie. Falowy aspekt zachowania się poszczególnej cząstki kwantowej, który odpowiada za pojawienie się jasnych i ciemnych prążków na ekranie, manifestuje się wyłącznie wtedy, kiedy nie jesteśmy w stanie ustalić, przez którą szczelinę cząstka ta przeszła, zezwalając więc na realizację tego zagadkowego pośredniego stanu „superponowanego” cząstki.

W eksperymencie z dwiema szczelinami najłatwiej jest dostrzec to, jak niebywale dziwne jest zachowanie się pojedynczej cząstki kwantowej, jeśli skupimy się na punkcie P na ekranie znajdującym się pośrodku przerwy pomiędzy dwoma ciemnymi prążkami – czyli miejscu, w które cząstka nie potrafi dotrzeć, gdy otwarte są obie szczeliny, choć gdy tylko jedna ze szczelin jest otwarta, cząstka może z łatwością trafić w punkt P, po prostu przelatując przez otwartą szczelinę. Gdy obie szczeliny są otwarte, dwie możliwości pozwalające cząstce na dotarcie do punktu P w jakiś sposób kasowały się wzajemnie; a jednak w innym miejscu na ekranie, powiedzmy, Q, gdzie znajduje się najciemniejszy punkt jednego z prążków interferencyjnych, nie dochodzi do kasowania się, lecz wzmacniania tych dwóch możliwości, tak że gdy otwarte są obie szczeliny, prawdopodobieństwo, że cząstka dotrze do Q jest czterokrotnie większe niż wtedy, gdy otwarta jest tylko jedna – a nie dwukrotnie, jak by to było w przypadku zwykłego obiektu klasycznego (zob. Rys. 1-2(d)). Te dziwne zjawiska są wynikiem tak zwanej zasady Borna, która wiąże ze sobą intensywność superpozycji z rzeczywistym prawdopodobieństwem zajścia danej ewentualności, o czym będzie mowa niedługo.

Słowo „klasyczny”, nawiasem mówiąc, gdy używa się w kontekście teorii, modeli lub układów fizycznych, oznacza po prostu: „nie-kwantowy”. W szczególności Einsteinowska ogólna teoria względności jest teorią klasyczną, pomimo tego, że powstała już po sformułowaniu wielu doniosłych idei teorii kwantowej (jak np. atom Bohra). Układy klasycznie nie podlegają owej interesującej superpozycji alternatywnych możliwości, o której przed chwilą mówiliśmy, a która jest charakterystyczna dla układów kwantowych.

Pełen opis fundamentów naszego współczesnego rozumienia fizyki kwantowej znajdzie się dopiero w rozdziale 2 (zob. zwłaszcza §2.3 i dalej). Na razie zalecam po prostu zaakceptowanie pewnej dziwnej reguły matematycznej, za pomocą której opisuje się we współczesnej mechanice kwantowej tego typu stany pośrednie. Reguła ta okazuje się być niezwykle precyzyjna. O czym mowa? Formalizm kwantowy głosi, że tego typu superponowany stan pośredni, gdy występują tylko dwie alternatywne możliwości, Ψ i Φ, można wyrazić matematycznie jako szczególnego rodzaju sumę Ψ + Φ lub, ogólniej, jako kombinację liniową (zob. §A.4 i §A.5),

wΨ + zΦ,

gdzie w i z to liczby zespolone (liczby, których składnikiem jest i = √–1, zgodnie z definicjami w §A.9), przy czym wszystkie są różne od zera. Musimy też zgodzić się na to, że tego typu zespolone superpozycje stanów mogą trwać w układzie kwantowym aż do czasu, gdy układ ten zostanie zaobserwowany – w tym momencie superpozycja alternatyw zostaje zastąpiona przez mieszaninę prawdopodobieństw zajścia tych alternatyw. Jest to rzeczywiście dziwne; w §2.5–2.7 oraz §2.9 opisana zostanie metoda korzystania z liczb zespolonych, czasem określanych w tym kontekście jako amplitudy, i to, w jaki – niezwykły – sposób łączą się one z kwestią prawdopodobieństw, a także ewolucji w czasie układów fizycznych na poziomie kwantowym (równanie Schrödingera). Z liczbami zespolonymi fundamentalnie wiąże się też subtelne zachowanie się spinu cząstki kwantowej, a nawet fakt trójwymiarowości zwykłej przestrzeni fizycznej! Choć to, w jaki sposób ściśle łączą się ze sobą amplitudy i prawdopodobieństwa (zasada Borna), nie zostanie szczegółowo omówione w tym rozdziale (ponieważ, aby to zrobić, należałoby wprowadzić pojęcia ortogonalności i normalizacji dla Ψ i Φ, na co odpowiednim miejscem będzie §2.8), zasadnicza idea zasady Borna jest następująca.

 

Pomiar, mający ustalić, czy dany układ występuje w stanie Ψ czy Φ, gdy zostanie wykonany na stanie superponowanym wΨ + zΦ, prowadzi do następującego rezultatu:

stosunek prawdopodobieństwa Ψ do prawdopodobieństwa Φ = stosunek |w|2 do |z|2.

Zauważmy (zob. §A.9 i §A.10), że kwadrat modułu |z|2 liczby zespolonej z to suma kwadratów jego części rzeczywistej i urojonej, a więc kwadrat odległości punktu z od początku układu współrzędnych na płaszczyźnie Wessela (płaszczyźnie zespolonej; zob. Rys. A-42 w §A.10). Można też zauważyć, że to fakt, iż prawdopodobieństwo uzyskuje się z kwadratu modułu amplitudy, odpowiada za czterokrotne zwiększenie się intensywności prążków w doświadczeniu z dwiema szczelinami, o czym była wcześniej mowa (zob. też końcową część §2.6).

Należy zwrócić uwagę, że znak plus w podanym wyżej matematycznym opisie stanu superponowanego różni się od zwykłego rozumienia słowa i (pomimo faktu, że w zwykłym użyciu słowo plus może czasem zastąpić słowo i), a nawet słowa lub. Oznacza to, że w pewnym sensie te dwie możliwości są rzeczywiście dodawane do siebie na pewien abstrakcyjny matematyczny sposób. Tak więc w przypadku doświadczenia z dwiema szczelinami, gdzie Ψ i Φ reprezentują dwa różne możliwe położenia cząstki, wyrażenie „Ψ + Φnie reprezentuje dwóch cząstek, z których każda zajmuje jedno z tych położeń (co można by wyrazić jako „jedna cząstka w położeniu Ψ i jedna cząstka w położeniu Φ”, czyli w sumie dwie cząstki); nie są to też dwie zwykłe rozłączne alternatywy – z których miała miejsce jedna lub druga, przy czym nie wiemy, która. Powinniśmy myśleć o tym jak o jednej cząstce zajmującej w pewnym sensie obydwa położenia jednocześnie, superponowane (złożone) zgodnie z ową szczególną kwantowo-mechaniczną operacją „plus”. Oczywiście wygląda to przedziwnie i fizycy na początku XX wieku nie rozpatrywaliby tego typu modeli, gdyby nie skłoniły ich do tego bardzo ważne powody. Część z nich zostanie omówiona w rozdziale 2, ale na razie poproszę czytelników po prostu o przyjęcie, że ten formalizm rzeczywiście działa.

Warto podkreślić, że zgodnie ze standardową mechaniką kwantową tego typu procedura superpozycji jest uniwersalna, a więc stosuje się również wtedy, gdy występują więcej niż dwa możliwe stany pośrednie. Przykładowo, jeśli występują trzy możliwości, Ψ, Φ i Γ, konieczne jest rozważenie potrójnej superpozycji, wΨ+ zΦ + uΓ (gdzie w, z i u to różne od zera liczby zespolone). Gdyby występowały cztery potencjalne stany pośrednie, należałoby rozważyć poczwórną superpozycję, i tak dalej. Wymaga tego mechanika kwantowa, istnieje ponadto doskonałe potwierdzenie eksperymentalne występowania tego typu zachowania w zjawiskach kwantowych w skali atomowej. Jest to faktycznie dziwne, ale współtworzy bardzo spójną strukturę matematyczną. Dotychczas była to wyłącznie matematyka przestrzeni wektorowych, z użyciem skalarów będących liczbami zespolonymi – o czym jest też mowa w §A.3, §A.4, §A.9 i §A.10, a więcej na temat wszechobecnej roli pełnionej przez superpozycje kwantowe dowiemy się w §2.3 i dalej. W QFT sprawy mają się jednak zdecydowanie gorzej, ponieważ musimy często rozważać sytuacje, w których występuje nieskończenie wiele pośrednich ewentualności. Jesteśmy zatem zmuszeni do rozważania nieskończonych sum, wisi więc nad nami groźba pojawiania się szeregów, których sumy rozbiegają się do nieskończoności (na sposób, który opisano w §A.10 i §A.11).

1.5. Potęga diagramów Feynmana

Spróbujmy zrozumieć nieco dokładniej to, w jaki sposób pojawiają się tego typu rozbieżne obiekty matematyczne. W fizyce opisuje się sytuacje, w których spotyka się kilka cząstek, czemu towarzyszy powstawanie nowych cząstek, z których niektóre rozpadają się, produkując jeszcze inne, te zaś mogą łączyć się w pary... i tak dalej – ostatecznie dochodzi więc do bardzo złożonych procesów. Fizycy cząstek zmagają się więc ze scenariuszami, w których występuje określony zbiór cząstek początkowych, które wchodzą ze sobą w kontakt – często przy względnych prędkościach zbliżonych do prędkości światła – a po szeregu zderzeń i rozpadów wyłania się inny zbiór cząstek. Cały ten proces musiałby zostać opisany przez potężną superpozycję kwantową, w której występowałyby wszystkie możliwe procesy pośrednie zgodne z konfiguracją początkową i końcową. Przykład tego typu skomplikowanego procesu przedstawiono w postaci diagramu Feynmana na Rys. 1-3.


Rys. 1-3: Diagram Feynmana (tu: z czasem biegnącym ku górze) to schematyczny rysunek czasoprzestrzenny (mający prostą interpretację matematyczną) procesu z udziałem cząstek fizycznych, w którym dochodzi często do kreacji, anihilacji i wymiany cząstek pośredniczących. Linie faliste reprezentują fotony. Strzałki trójkątne reprezentują ładunek elektryczny (dodatni, gdy strzałka wskazuje ku górze, ujemnym gdy wskazuje w dół).


Rys. 1-4: Elementarne diagramy Feynmana: (a) cząstka rozpada się na dwie; (b) dwie cząstki łączą się ze sobą, tworząc trzecią; (c) dwie przeciwnie naładowane cząstki (elektron i pozyton) wymieniają się fotonem.

Nie pomylimy się znacząco, jeśli uznamy diagram Feynmana za diagram czasoprzestrzenny przedstawiający określony zbiór procesów z udziałem cząstek. Jako ktoś, kto zajmuje się na co dzień teorią względności, lubię przedstawiać czas jako biegnący od dołu do góry; w przeciwieństwie do tego, osoby zajmujące się zawodowo fizyką cząstek lub eksperci od QFT, zwykle rysują strzałkę czasu biegnącą od lewej do prawej strony. Diagramy (lub wykresy) Feynmana zostały nazwane na część wybitnego fizyka amerykańskiego Richarda Phillipsa Feynmana. Kilka prostych diagramów tego typu przedstawiono na Rys. 1-4. Na Rys. 1-4(a) przedstawiono rozpad jednej cząstki na dwie potomne, zaś na Rys. 1-4(b) łączenie się dwóch cząstek i powstanie z nich trzeciej.


Rys. 1-5: Wymiany dwóch fotonów.

Na Rys. 1-4(c) przestawiona jest wymiana cząstki (powiedzmy, że jest to foton, kwant pola elektromagnetycznego lub światła, oznaczony linią falistą) pomiędzy dwiema innymi cząstkami. Posługiwanie się w odniesieniu do tego procesu terminem wymiana, choć powszechne wśród fizyków cząstek, może wydawać się dziwne, skoro jeden foton po prostu przechodzi tu z jednej cząstki do drugiej – jednak jest to (celowo) przedstawione na sposób, który uniemożliwia ustalenie, która cząstka emituje go, a która pochłania. Fotony biorące udział w takich procesach wymiany określa się jako fotony wirtualne, a ich prędkość nie musi być zgodna z ograniczeniami narzucanymi przez teorię względności. Zwykłe potoczne użycie słowa „wymiana” stosuje się chyba bardziej do sytuacji przedstawionej na Rys. 1-5(b), choć procesy tego typu, co te widoczne na Rys. 1-5, określa się zwykle jako zachodzące przy wymianie dwóch fotonów.


Rys. 1-6: Diagram rozgałęziający się (drzewowy), tj. niezawierający żadnych pętli.

Można uznać, że diagram Feynmana składa się zasadniczo z wielu elementarnych składników tego właśnie rodzaju, poskładanych ze sobą na różne sposoby. Zasada superpozycji przestrzega nas jednak przed wyobrażaniem sobie, że to, co faktycznie zaszło w trakcie zderzenia się określonych cząstek, daje się przedstawić za pomocą jednego tego typu diagramu Feynmana, występują bowiem liczne inne możliwości, zaś faktyczny proces fizyczny reprezentuje się poprzez złożoną liniową superpozycję wielu różnych tego typu diagramów Feynmana. Dla każdego z nich należy przy tym obliczyć, w jakim stopniu składa się on na całkowitą superpozycję – w istocie interesuje nas więc wartość liczby zespolonej typu w albo z, z którymi spotkaliśmy się w §1.4 – liczby te określa się jako zespolone amplitudy (zob. §1.4 i §2.5).