Czas odrodzony. Od kryzysu w fizyce do przyszłości Wszechświata [PDF]

Rzeczywistość czasu może mieć zasadnicze znaczenie dla następnego wielkiego przełomu w fizyce teoretycznej. Czym jest c

152 21 3MB

Polish Pages 528 Year 2015

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
PRZEDMOWA
WSTĘP
CZĘŚĆ I. CIĘŻAR: USUNIĘCIE CZASU
1. Spadanie
2. Zniknięcie czasu
3. Gra w łapanie piłki
4. Fizyka zjawisk w pudełku
5. Wykluczenie oryginalności i niespodzianek
6. Względność i bezczasowość
7. Kosmologia kwantowa i koniec czasu
CZĘŚĆ II. ŚWIATŁO: CZAS ODRODZONY
Interludium. Niezadowolenie Einsteina
8. Kosmologiczny błąd rozumowania
9. Kosmologiczne wyzwanie
10. Zasady nowej kosmologii
11. Ewolucja praw fizyki
12. Mechanika kwantowa i wyzwolenie atomu
13. Konflikt kwantowania z teoriąRozdział
14. Czas odradza się z teorii względności
15. Wyłanianie się przestrzeni
16. Życie i śmierć Wszechświata
17. Czas odrodził się z ciepła i światła
18. Nieskończona przestrzeń czy nieskończony czas?
19. Przyszłość czasu
EPILOG. MYŚLENIE W CZASIE
BIBLIOGRAFIA
PODZIĘKOWANIA
Papiere empfehlen

Czas odrodzony. Od kryzysu w fizyce do przyszłości Wszechświata [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Tytuł oryginału TIME REBORN. FROM THE CRISIS IN PHYSICS TO THE FUTURE OF THE UNIVERSE Copyright © 2013 by Spin Networks, Ltd Projekt okładki Prószyński Media Ilustracja na okładce Fot. David Parker/Science Photo Library/Indigo Images Redaktor serii Adrian Markowski Redakcja Anna Kaniewska Korekta Bronisława Dziedzic-Wesołowska ISBN 978-83-8069-562-7 Warszawa 2015 Wydawca Prószyński Media Sp. z o.o. 02-697 Warszawa, ul. Rzymowskiego 28 www.proszynski.pl

Dla moich rodziców, Pauline i Michaela. Wielkie podziękowania dla Roberta Mangabeiry Ungera za wspólną podróż

A z czego powstają istniejące rzeczy, w tym znikają, zgodnie z koniecznością… zgodnie z porządkiem czasu. Anaksymander, O przyrodzie

PRZEDMOWA Czym jest czas? To zwodniczo proste pytanie o najbardziej istotne zagadnienie, przed jakim stoi nauka, starając się zgłębić zasady funkcjonowania Wszechświata. Wszystkie tajemnice, z którymi zmagają się fizycy i kosmolodzy – od Wielkiego Wybuchu do przyszłości Wszechświata, od fizyki kwantów do unifikacji oddziaływań i cząstek – sprowadzają się do natury czasu. Postęp naukowy cechuje się odrzucaniem iluzji. Materia wygląda na ciągłą, ale okazuje się, że składa się z atomów. Atomy wydają się niepodzielne, chociaż są zbudowane z protonów, neutronów i elektronów, z kolei te dwie pierwsze cząstki złożone są z jeszcze bardziej elementarnych cząstek zwanych kwarkami. Słońce wydaje się okrążać Ziemię, ale jest odwrotnie – a gdy dotrze się do sedna sprawy, okazuje się, że wszystko jest w stanie ruchu względem wszystkiego. Czas jest najbardziej wszechobecnym aspektem naszego codziennego doświadczenia. Wszystko, o czym myślimy, co czujemy albo co robimy, wskazuje na jego

istnienie. Postrzegamy świat jak przepływ chwil, które tworzą nasze życie. Natomiast zarówno fizycy, jak i filozofowie od dawna wskazują (i wielu ludzi tak sądzi), że czas jest fundamentalną iluzją. Gdy pytałem swych niebędących naukowcami przyjaciół, czym jest czas, najczęściej odpowiadali, że jego upływ jest pozorny, a wszystko, co jest realne – prawda, sprawiedliwość, Bóg, zasady naukowe – leży poza nim. Pomysł, że czas to iluzja, jest filozoficznym i religijnym banałem. Przez tysiąclecia ludzie godzili się na trudy życia i na swą śmiertelność, wierząc w ostateczne schronienie w bezczasowym i bardziej realnym świecie. Niektórzy z naszych najznakomitszych myślicieli zapewniali o nierealności czasu. Platon, największy filozof świata starożytnego, i Einstein, największy fizyk świata współczesnego, nauczali, że rzeczywistość jest bezczasowa. Doświadczanie upływu czasu traktowali jako cechę wyjątkowo przypisaną rodzajowi ludzkiemu – cechę, która ukrywa przed nami prawdę. Obaj wierzyli, że aby dostrzec rzeczywistość i prawdę, należy wykroczyć poza granice iluzji upływu czasu. Wierzyłem w absolutną nierealność czasu. Mało tego, poszedłem na fizykę, ponieważ jako nastolatek bardzo pragnąłem zamienić ograniczony czasowo ludzki świat, postrzegany przeze mnie jako paskudny i nieprzyjazny, na świat czystej, bezczasowej prawdy. Później odkryłem, że to bardzo przyjemne być człowiekiem, i zniknęła

potrzeba ucieczki poza ten świat. Nie wierzę już jednak, że czas jest nierealny. A nawet przeszedłem na drugą stronę, nie tylko uważam go za realny, ale też sądzę, że nic bardziej nas nie przybliża do poznania prawdy o przyrodzie niż realność czasu. Zmieniłem front z powodów naukowych, a w szczególności ze względu na współczesne osiągnięcia fizyki i kosmologii. Uwierzyłem, że czas jest kluczowy w zrozumieniu istoty teorii kwantów i jej ewentualnej unifikacji z przestrzenią, czasem, grawitacją i kosmologią. A co najważniejsze, trzeba w nowy sposób potraktować realność czasu, aby nabrał sensu obraz Wszechświata ukazywany przez obserwacje kosmologiczne. To właśnie mam na myśli, pisząc o odrodzeniu czasu. Na kartach tej książki przedstawiam argumenty naukowe skłaniające do uwierzenia w realność czasu. Jeśli czytelnik jest jednym z wielu, którzy wierzą w jego iluzoryczność, to mam zamiar przekonać go do zmiany poglądu. Jeśli jednak wierzy już w realność czasu, to ja z kolei wierzę, że moimi argumentami zdołam umocnić jego wiarę. Ta książka jest dla każdego, ponieważ u nas wszystkich odczuwanie czasu kształtuje pogląd na to, czym jest świat. Nawet jeśli nigdy nie rozmyślałeś o tym, to twój sposób myślenia – sam język, za pomocą którego werbalizujesz myśli – jest naznaczony wpływem starożytnych idei metafizycznych związanych

z czasem. Gdy przyswoimy sobie rewolucyjny pogląd o realności czasu, zmieni się sposób, w jaki będziemy postrzegać wszystko inne. A szczególnie będziemy w nowy sposób postrzegać przyszłość, tak aby uwzględniać zarówno perspektywy, jak i zagrożenia, wobec których stanie w przyszłości rodzaj ludzki. W tej opowieści tkwi także mała cząstka mego osobistego doświadczenia, które skłoniło mnie do odkrycia na nowo problemu czasu. Moją motywację można najlepiej opisać nie za pomocą terminów naukowych, lecz jako doświadczanie ojcostwa poprzez rozmowy prowadzone z mym małym synkiem, gdy kładę go wieczorem spać. „Tatusiu – zapytał mnie pewnego razu, gdy czytałem mu do snu – czy tak samo się nazywałeś, gdy byłeś w moim wieku?”. Oto przebudzenie świadomości dziecka na to, że przed nim istniał czas, oraz próba związania swej krótkiej historii życia z dłuższą epopeją. Każde doświadczenie prowadzi do określonych wniosków, moje polegają na uświadomieniu sobie, jak radykalna idea ukryta jest w prostej konstatacji, że czas jest realny. Rozpoczynałem swoje życie naukowe poszukiwaniem równania niezależnego od czasu, teraz wierzę, że istota najgłębszego sekretu Wszechświata tkwi w tym, jak chwila po chwili rozwija się on w czasie. Istnieje paradoks nieodłącznie związany z naszym myśleniem o czasie. Postrzegamy siebie jako żyjących

w czasie, a jednak często najlepsze aspekty naszego świata i nas samych wydają nam się pozaczasowe. To, co czyni coś rzeczywiście prawdziwym, jak wierzymy, nie polega na tym, że jest prawdziwe teraz, ale że było i będzie zawsze prawdziwe. To, co nadaje zasadom moralności charakter absolutny, polega na tym, że są one prawdziwe zawsze i w każdych okolicznościach. Mamy głęboko zakorzeniony pogląd, że jeśli coś jest wartościowe, to istnieje poza czasem. Pragniemy „wiecznej miłości”. Mówimy o „prawdzie” i „sprawiedliwości” jako pojęciach pozaczasowych. Wszystko, czym się zachwycamy i co podziwiamy – Bóg, prawda matematyczna, prawa natury – ma charakter pozaczasowy. Działamy w czasie, ale osądzamy nasze działania za pomocą standardów pozaczasowych. W rezultacie owego paradoksu żyjemy w stanie alienacji od tego, co najbardziej cenimy. Ta alienacja wpływa na każdą z naszych aspiracji. W nauce eksperymenty i ich analiza są ograniczone czasowo, tak jak wszystkie obserwacje dotyczące natury. A jednak wyobrażamy sobie, że odkrywamy pozaczasowe prawa natury. Ten paradoks dotyczy naszych poczynań jako jednostek, jako członków rodziny, a także jako obywateli – ponieważ to, jak rozumiemy czas, określa sposób, w jaki myślimy o przyszłości. W książce mam nadzieję rozwiązać w nowy sposób ten paradoks życia w czasie i wiary w pozaczasowość.

Mam zamiar przedstawić tezę, że czas i jego upływ są podstawowe i realne, a wiara w pozaczasowe królestwa i liczenie na pozaczasowe prawdy to po prostu mitologia. Uwierzyć w czas oznacza wiarę w to, że rzeczywistość składa się tylko z tego, co jest rzeczywiste w każdej chwili. To radykalna idea, bo odrzuca każdy rodzaj pozaczasowego istnienia albo pozaczasowej prawdy – w nauce, moralności, matematyce, albo w polityce. W tych dziedzinach wszystko musi być na nowo określone, tak aby prawdy tam zawarte mieściły się w ramach czasowych. Uwierzyć w czas oznacza także, że podstawowe założenia o fundamentalnych zasadach działania Wszechświata są niepełne. Gdy na następnych stronach tej książki będę mówił o czasie jak o czymś realnym, oznacza to, że: Cokolwiek jest realne w naszym Wszechświecie, jest realne w jakiejś chwili, wyróżnionej z całej serii chwil. Przeszłość była realna, ale już taka nie jest. Możemy jednak interpretować przeszłość i ją analizować, ponieważ w teraźniejszości znajdujemy dowody na istnienie przeszłych procesów. Przyszłość jeszcze nie istnieje i dlatego jest

otwarta. Możemy rozsądnie dokonywać pewnych przewidywań, ale nie jesteśmy w stanie poznać całej przyszłości. Istotnie, w przyszłości mogą powstać zupełnie nowe zjawiska, nowe w tym sensie, że na podstawie wiedzy posiadanej w przeszłości nie można było ich przewidzieć. Nic nie wykracza poza czas, nawet prawa natury. Prawa nie są pozaczasowe. Tak jak wszystko inne, są one cechą teraźniejszości i mogą ewoluować wraz z upływem czasu. Podczas lektury mojej książki zobaczycie, że hipotezy te wskazują na nowy kierunek w fizyce – taki, który według mnie jest jedyną szansą na rozwikłanie współczesnych zagadek fizyki teoretycznej i kosmologii. Hipotezy te także wpływają na to, jak powinniśmy rozumieć własne życie i jak powinniśmy rozwiązywać wyzwania stojące przed ludzkością. Aby wyjaśnić, dlaczego realność czasu jest tak ważna, zarówno dla nauki, jak i dla celów pozanaukowych, postanowiłem odróżnić myślenie temporalne (w czasie) od myślenia atemporalnego (pozaczasowego). Przekonanie, że prawda jest pozaczasowa i dlatego znajduje się poza naszym Wszechświatem, jest tak dominujące, że brazylijski filozof Roberto Mangabeira Unger nazywa je „odwieczną filozofią.” Była to istota

myśli Platona, zilustrowana w Menonie za pomocą przypowieści o niewolniku i geometrii kwadratu, w której Sokrates dowodzi, że odkrywanie jest zaledwie przypominaniem sobie tego, co już wiemy. Myślimy pozaczasowo, gdy wyobrażamy sobie, że odpowiedź na pytanie, jakie sobie zadajemy, znajduje się w odwiecznej domenie pozaczasowej prawdy. Zarówno wtedy, gdy zadajemy sobie pytanie, jak być lepszym rodzicem, małżonkiem, obywatelem, jak i wtedy, gdy rozmyślamy, jak mogłaby wyglądać optymalna organizacja społeczeństwa, wierzymy, że istnieje gdzieś niezmienna prawda, którą możemy odkryć. Naukowcy, objaśniając nowe odkrycia za pomocą nowych idei i nowych struktur matematycznych, myślą temporalnie. Jeśli myślą pozaczasowo, to wierzą, że te idee istniały, zanim je wynaleziono. Gdy myślą temporalnie, nie ma potrzeby, aby stawiać takie przypuszczenia. Różnica między myśleniem temporalnym a myśleniem pozaczasowym jest oczywista na niwie ludzkiej aktywności i myśli. Myślimy pozaczasowo, gdy stając naprzeciw zagadnienia technologicznego albo społecznego, zakładamy, że sposoby jego rozwiązania już są gdzieś określone absolutnymi, pozaczasowymi kategoriami. Każdy, kto myśli, że poprawna teoria ekonomiczna lub polityczna została opracowana wieki temu, myśli pozaczasowo. Gdy zamiast tego cel polityki widzimy w tworzeniu nowych rozwiązań dla nowych

problemów, pojawiających się w miarę ewolucji społeczeństwa, myślimy temporalnie. Myślimy także temporalnie, gdy rozumiemy, że postęp technologii, postęp społeczny i postęp naukowy polega na wynajdywaniu autentycznie nowych idei, strategii i form organizowania się społeczeństwa – i wierzę w to, że taką zdolność posiadamy. Gdy całkowicie akceptujemy ograniczenia, nawyki i biurokrację, typowe dla różnych społeczności i organizacji, tak jakby powód ich istnienia był niepodważalny, to tkwimy w pozaczasowym potrzasku. Powracamy do myślenia temporalnego, gdy zdajemy sobie sprawę, że każda cecha ludzkiej organizacji jest wynikiem przemian historycznych, a zatem wszystko, co jej dotyczy, może być negocjowane i udoskonalane dzięki nowym metodom rozwiązywania problemów. Jeśli wierzymy, że zadaniem fizyki jest odkrywanie pozaczasowych równań matematycznych, które opisują każdy aspekt Wszechświata, to jesteśmy przekonani, że prawda o Wszechświecie tkwi poza nim. To taki swojski sposób myślenia niedostrzeganie jego absurdalności. Jeśli Wszechświat jest wszystkim, co istnieje, to jakim cudem coś, co go opisuje, może istnieć poza nim? Jeśli zaś przyjmiemy oczywistą realność czasu, to nie da się odkryć równania matematycznego opisującego dokładnie każdy aspekt Wszechświata, ponieważ jednym z aspektów realnego świata, nieujętym w żadnym równaniu, jest fakt, że zawsze dotyczy to pewnej chwili.

Darwinowska biologia ewolucyjna jest prototypem myślenia temporalnego, ponieważ jej sedno polega na tym, że procesy naturalne rozwijające się w czasie mogą prowadzić do powstania naprawdę nowych struktur. Gdy pojawią się nowe struktury, powstają nowe prawa, które je opisują. Na przykład prawa doboru płciowego nie mogły powstać, zanim pojawiło się zróżnicowanie płciowe. Dynamika ewolucji nie wymaga ogromnych abstrakcyjnych przestrzeni, choćby całego realnego królestwa zwierząt, sekwencji DNA, łańcuchów białkowych albo praw biologii. Jak proponuje biolog Stuart A. Kauffman, najlepiej postrzegać ją jako poszukiwanie przez biosferę czegoś, co może wydarzyć się po tym, „co graniczy z możliwym”. To samo dotyczy ewolucji technologii, ekonomii i społeczeństw. Myślenie temporalne nie jest relatywizmem, ale formą relacjonizmu – filozofii, która utrzymuje, że prawdziwe poznanie czegokolwiek wymaga poznania wszystkich relacji tego czegoś z innymi częściami układu, którego jest częścią. Prawdziwe poznanie może być ograniczone czasowo oraz obiektywne, gdy chodzi o obiekty powstałe jako produkt ewolucji lub też ludzkiej myśli. Na poziomie osobistym myślenie temporalne polega na zaakceptowaniu niepewności życia jako niezbędnej ceny, jaką trzeba płacić za bycie żywym. Bunt przeciw niebezpieczeństwom związanym z życiem, odrzucenie

niepewności i ryzyka, wyobrażanie sobie, że życie może być tak zorganizowane, aby zupełnie wykluczyć wszelkie zagrożenia, jest myśleniem pozaczasowym, atemporalnym. Być człowiekiem to wieść życie pomiędzy niebezpieczeństwem a szansą. Robimy, co tylko można, aby przetrwać w niepewnym świecie, aby zatroszczyć się o tych, których kochamy, i o to, co kochamy, a także aby przyjemnie spędzać czas. Wymyślamy plany na przyszłość, ale nigdy nie będziemy w stanie w pełni ocenić przyszłych zagrożeń ani możliwości, jakie przed nami się otworzą. Buddyści twierdzą, że nie zauważamy życia w płonącym już domu. Zagrożenie może powstać w każdej chwili. W społecznościach łowców-zbieraczy zawsze było ono obecne, ale współczesne społeczeństwo jest tak zorganizowane, że prawdziwe niebezpieczeństwo pojawia się niezbyt często. Wśród ogromnej masy możliwych zagrożeń prawdziwym wyzwaniem życia jest mądry wybór tego, o co należy się troszczyć. A także tego, co należy wybrać spośród wszystkich okazji, jakie przynosi nam każda chwila życia. Nie mając nigdy pełnej wiedzy o konsekwencjach wyboru, decydujemy, jak spożytkować swą energię i na czym skupić uwagę. Czy moglibyśmy sobie lepiej poradzić? Czy moglibyśmy przezwyciężyć kaprysy życia i osiągnąć stan, w którym posiedlibyśmy wiedzę o dostatecznie wielu konsekwencjach naszych wyborów – zarówno

dotyczących zagrożeń, jak i nadarzających się okazji? To znaczy, czy moglibyśmy wieść prawdziwie racjonalne życie pozbawione jakichkolwiek niespodzianek? Gdyby czas był iluzją, to moglibyśmy sobie wyobrazić taką możliwość, ponieważ w świecie, w którym czas jest zbędny, nie ma zasadniczej różnicy między wiedzą o przeszłości i wiedzą o przyszłości. Potrzeba tylko trochę dłuższych obliczeń. Wystarczą jakieś wzory i podstawienie konkretnych liczb, aby dowiedzieć się wszystkiego, co nas interesuje. Natomiast jeśli czas jest realny, przyszłości nie można określić na podstawie wiedzy o teraźniejszości. Nie ma wyjścia z sytuacji, w jakiej się znajdujemy, nie uda się uniknąć niespodzianek związanych z nieświadomością konsekwencji naszych działań. Zaskoczenie jest nieodłącznym elementem struktury świata. Natura potrafi spłatać takie niespodzianki, na które żadna wiedza nas nie przygotuje. Autentyczna nowość jest realna. Twory naszej wyobraźni nie powstają dzięki wiedzy o teraźniejszości. Dlatego też tak wielkie znaczenie ma dla każdego z nas to, czy czas jest realny, czy nie: odpowiedź na to pytanie może zmienić sposób postrzegania samych siebie, poszukiwaczy szczęścia i sensu życia, w niepoznanym dotąd do końca Wszechświecie. Do tego tematu powrócę w epilogu, w którym wykażę, że zagadnienie realności czasu może pomóc rozwiązać takie problemy jak zmiana klimatu czy kryzys ekonomiczny.

Zanim rozpoczniemy zasadnicze rozważania książki, pragnę udzielić kilku informacji. Starałem się, aby argumentacja w niej zawarta, była dostępna dla każdego czytelnika niemającego wykształcenia fizycznego albo matematycznego. Nie ma w niej równań, a wszystko, co jest potrzebne do zrozumienia argumentacji, wyjaśniam. Najbardziej istotne zagadnienia są ilustrowane najprostszymi przykładami. Gdy przechodzimy do bardziej skomplikowanych tematów i czytelnik czuje się zdezorientowany, radzę zrobić to co naukowcy. Należy opuścić tekst aż do miejsca, gdzie staje się znowu zrozumiały. Czytelnicy zainteresowani rozszerzeniem wiedzy o omawianych tematach mogą zajrzeć do wielu dodatków umieszczonych na stronie internetowej (www.timereborn.com). Na końcu książki zamieściłem także przypisy, w których można znaleźć pomocne uwagi, zarówno dla ekspertów, jak i dla laików, oraz rozszerzone omówienie tematu. Mój powrót do zagadnienia czasu nastąpił po dwudziestu kilku latach, od chwili gdy zrozumiałem, że wyjaśnienie praw fizyki wymaga ich ewolucji w czasie. Wówczas zmagałem się z teorią względności, podstawami teorii kwantów i kwantowej teorii grawitacji, aż doszedłem do poglądu, który tutaj przedstawiam. Współpraca i dyskusje z wieloma przyjaciółmi i kolegami okazały się bardzo ważne dla mego rozwoju; opisałem je w podziękowaniach

i przypisach, wskazując użytek, jaki uczyniłem z cudzych pomysłów i idei. Żaden z tych kontaktów nie był jednak ważniejszy niż owocna i skłaniająca do refleksji współpraca z Robertem Mangabeirą Ungerem. Dzięki niej sformułowaliśmy główną tezę i wiele zasadniczych idei, które z niej wynikały1. Czytelnik powinien zdawać sobie sprawę, że istnieje wiele punktów widzenia na zagadnienie czasu, teorię kwantów, kosmologię i inne tematy nieporuszane tutaj. Powstał też obszerny zbiór książek i publikacji pisanych przez fizyków, kosmologów i filozofów na tematy, które są tutaj poruszane. Moja książka nie pretenduje do miana podręcznika akademickiego. Czytelnikom, którzy po raz pierwszy stykają się z tym złożonym zagadnieniem, postanowiłem ukazać jedną ze ścieżek jego badania, zwracając przy tym uwagę na to, na czym skupia się dyskusja2. Nie ma zaś tu miejsca, powiedzmy, na przykład na poglądy Kanta na temat czasu, które omawia mnóstwo publikacji. Nie opisuję tutaj także punktu widzenia współczesnych filozofów. Proszę o wybaczenie mych uczonych kolegów za to pominięcie i kieruję zainteresowanych czytelników do bibliografii, która zawiera sugestie dalszych studiów nad tym zagadnieniem. Lee Smolin Toronto, sierpień 2012 roku

1 Ta książka może być wprowadzeniem do drobiazgowo uzasadnionej rozprawy z filozofii przyrody powstałej we współpracy z Robertem Mangabeirą Ungerem – o tymczasowym tytule The Singular Universe and the Reality of Time, w której wspieramy ideę realności czasu i ewolucji praw fizyki i badamy możliwe rozwiązania tego, co nazywamy dylematem metapraw (zobacz rozdział 19), albo jej popularną wersją. 2 Wcześniejsze wersje dowodów tutaj przedstawionych można znaleźć w niżej wymienionych artykułach: Lee Smolin, A Perspective on the Landscape Problem, arXiv:1202.3373v1 [physics. hist-ph] (2012); tegoż, The Unique Universe, „Physics World”, czerwiec 2009, s. 21–26; tegoż, The Case for Background Independence, w: Dean Rickles i in. (red.), The Structural Foundations of Quantum Gravity, Oxford University Press, New York 2007; tegoż, The Present Moment in Quantum Cosmology: Challenges for the Argument for the Elimination of Time, w: Robin Durie (red.), Time and the Instant, Clinamen Press, Manchester 2000; tegoż, Thinking in Time Versus Thinking Outside of Time, w: John Brockman (red.), This Will Make You Smarter, Harper Perennial, New York 2012; Stuart Kauffman, Lee Smolin, A Possible Solution to the Problem of Time in Quantum Cosmology, arXiv:grqc/9703026v1 (1997).

WSTĘP Za postrzeganiem czasu jako iluzji przemawiają argumenty naukowe, które budzą respekt. Dlatego też pogląd, że czas jest realny, należy uważać za rewolucyjny. Istota fizycznych argumentów przeciwko czasowi opiera się na tym, jak zrozumiemy prawa fizyki. Zgodnie z dominującym poglądem wszystko, co się zdarza we Wszechświecie, jest warunkowane przez prawa fizyki, które precyzyjnie określają, jak przyszłość powstaje z teraźniejszości. Prawa są absolutne i gdy już zostaną sprecyzowane obecne warunki, nie istnieje żadna dowolność ani niepewność w powstawaniu przyszłości. Thomasina, nad wiek rozwinięta heroina sztuki Toma Stopparda Arkadia, wyjaśnia swemu nauczycielowi: „Jeśli mógłbyś zatrzymać każdy atom w jego położeniu albo kierunku ruchu i jeśli umysł twój mógłby objąć wszystkie działania w ten sposób zawieszone, wtedy gdybyś był naprawdę, ale to naprawdę biegły w algebrze, mógłbyś napisać wzór określający całą

przyszłość. I choć nie ma nikogo, kto byłby zdolny to wykonać, taki wzór musi istnieć, ponieważ jego stworzenie jest możliwe”. Kiedyś wierzyłem, że moim zadaniem jako fizyka teoretyka jest znalezienie takiego wzoru. Teraz zaś rozumiem – moja wiara w jego istnienie była bardziej mistycyzmem niż realizmem naukowym. Gdyby Stoppard pisał swą sztukę współcześnie, zapewne Thomasina powiedziałaby, że Wszechświat jest jak komputer, a prawa fizyki jak program. Gdy wstawia się do niego warunki początkowe – teraźniejsze położenia wszystkich cząstek elementarnych we Wszechświecie – to komputer, pracujący odpowiednio długo, określi wszystkie ich położenia w jakimś przyszłym momencie. W ramach tego poglądu na naturę nie zachodzi nic innego ponad zgodne z pozaczasowymi prawami przegrupowania cząstek elementarnych. Tak więc dzięki tym prawom przyszłość jest już w pełni określona przez teraźniejszość, tak jak teraźniejszość była w pełni określona przez przeszłość. Ten punkt widzenia umniejsza rolę czasu na kilka sposobów3. Nie ma niespodzianek ani naprawdę nowych zjawisk, ponieważ wszystko, co się dzieje, jest tylko przegrupowywaniem się atomów. Same własności atomów pozostają pozaczasowe, tak jak prawa nimi rządzące, które nigdy nie podlegają zmianom. Każdą z cech Wszechświata, która kiedyś pojawi się w przyszłości, da się otrzymać z obecnej konfiguracji.

To znaczy, że upływ czasu można zastąpić obliczeniem. Co zgodnie z logiką oznacza, że przyszłość jest konsekwencją teraźniejszości. Nawet teorie względności Einsteina, które będę omawiał w rozdziale 6, wzmacniają argumenty za tym, że czas jest nieistotny w fundamentalnym opisie świata. Teorie względności wskazują, że cała historia świata jest bytem pozaczasowym. Teraźniejszość, przeszłość i przyszłość mają sens tylko w powiązaniu z ludzkim subiektywizmem. Czas jest jeszcze jednym z wymiarów przestrzeni i odczuwany przez nas jego upływ to iluzja, a pozaczasowa rzeczywistość istnieje poza nim. Takie stwierdzenia mogą przerazić tych, którzy uważają, że ludzkie działanie oparte jest na wolnej woli. Jednak nie będę powoływać się na takie argumenty. Moje uzasadnienia dotyczące realności czasu oparte będą wyłącznie na wiedzy naukowej. Będę starał się wyjaśnić, dlaczego wysuwane zwykle argumenty dowodzące, że przyszłość jest z góry określona, są błędne z naukowego punktu widzenia. W części I przedstawię argumentację naukową przemawiającą za tym, że czas jest iluzją. W części II ją obalę i pokażę, że musi on istnieć realnie, aby fizyka i kosmologia mogły przezwyciężyć kryzys, przed jakim obecnie stanęły. Najpierw dokonam przeglądu koncepcji czasu stosowanych w fizyce, od Arystotelesa i Ptolemeusza poprzez Galileusza, Newtona, Einsteina, aż

do współczesnych idei zaczerpniętych z kosmologii kwantowej i pokażę, jak w miarę rozwoju fizyki umniejszała się rola czasu. Przedstawiając zagadnienie w ten sposób, będę mógł niezorientowanego czytelnika stopniowo wprowadzać w niezbędne fakty. W istocie najważniejsze z nich można przedstawić za pomocą powszechnie znanych przykładów, takich jak spadające piłki czy orbitujące planety. Część II to opowieść bardziej współczesna, bo też pogląd, że czas znowu musi być podstawowym pojęciem nauki, pojawił się w rezultacie obecnego jej rozwoju. Swoje wywody rozpocznę od dość prostego spostrzeżenia: sukces teorii naukowych, od Newtona aż po dzień dzisiejszy, opiera się na szczególnej zasadzie poznawczej wprowadzonej przez samego Newtona. Natura, zgodnie z nią, jest bytem złożonym z cząstek mających pozaczasowe własności, których ruch i oddziaływania regulują pozaczasowe prawa. Nigdy nie zmieniają się własności cząstek takie jak masa lub ładunek elektryczny, nie zmieniają się także prawa, jakim podlegają. Zasada ta jest wprost idealna do opisu małych elementów Wszechświata, ale zawodzi, gdy stosujemy ją do Wszechświata jako całości. Wszystkie ważne teorie fizyki dotyczą jakichś części Wszechświata – opisują działanie radia, piłkę podczas lotu, żywą komórkę, Ziemię, galaktykę. My sami oraz nasze przyrządy pomiarowe pozostajemy poza układem, gdy opisujemy fragment Wszechświata. Nie

uwzględniamy także wpływu, jaki nań wywieramy. Pomijamy punkt odniesienia okreś​lający jego położenie. A co najbardziej istotne dla natury czasu, nie uwzględniamy wpływu samego układu na zegary, które mierzą zmiany w nim zachodzące. Rozszerzenie fizyki na kosmologię przynosi nowe wyzwania, które wymagają nowego sposobu myślenia. Teoria kosmologiczna nie może nie uwzględniać jakiegokolwiek wpływu. Aby być zupełna, musi brać pod uwagę wszystko we Wszechświecie, łącznie z nami w roli obserwatorów. Musi uwzględnić także nasze przyrządy pomiarowe i zegary. W badaniach kosmologicznych mamy do czynienia z całkiem nową okolicznością. Nie ma możliwości przebywania poza układem, który badamy, ponieważ ten układ jest całym Wszechświatem. Teoria kosmologiczna ponadto musi obejść się bez dwóch zasadniczych aspektów metodologii nauki. Zasadniczy kanon nauki wymaga powtarzania eksperymentu wielokrotnie, dzięki czemu można być pewnym poprawności jego wyniku. Jednak czegoś takiego nie sposób dokonać z całym Wszechświatem, jest on bowiem taki, jaki jest, tylko jeden raz. Nie możemy także przygotować układu do eksperymentu w różnych warunkach, aby zbadać skutki ich zmiany. Są to bardzo poważne przeszkody powodujące, że badania na poziomie Wszechświata jako całości stają się znacznie trudniejsze.

A jednak chcemy rozszerzać fizykę na kosmologię. Instynktownie opieramy się na teoriach, które doskonale sprawdzały się w warunkach małych części Wszechświata, i z ich pomocą chcemy opisywać go w całości. Jak wykażę w rozdziale 8 i 9, takie podejście niestety się nie sprawdza. Newtonowski model oparty na niezmiennych w czasie prawach działających na cząstki o niezmiennych w czasie własnościach nie pasuje do opisu Wszechświata w całości. A co więcej, jak szczegółowo wyjaśnię, każda z cech, dzięki którym tego typu teorie okazują się tak skuteczne w opisie małych części Wszechświata, sprawia, że zawodzą one po zastosowaniu do jego całości. Zdaję sobie sprawę, że to stwierdzenie jest sprzeczne z tym, co robi wielu moich kolegów i w czym pokładają nadzieję. Proszę jedynie czytelnika o uważne przeczytanie argumentów, jakie przytoczę w drugiej części tej książki. Pokażę tam ogólnie i zilustruję odpowiednimi przykładami, że gdy postanowimy rozszerzyć standardowe teorie na domenę kosmologiczną, w zamian otrzymujemy dylematy, paradoksy i nierozwiązywalne zagadnienia. Wśród nich niezdolność wyjaśnienia przez wszystkie standardowe teorie wyboru, jaki dokonał się we wczesnym okresie życia Wszechświata – mam na myśli selekcję warunków początkowych i samych praw natury. Zmagania wielu bardzo zdolnych ludzi z tymi dylematami, paradoksami i nierozwiązywalnymi

zagadnieniami znajdują swe odzwierciedlenie w literaturze naukowej współczesnej kosmologii. Pojęcie ogromnego i nieskończonego wieloświata, którego częścią miałby być nasz Wszechświat, jest popularne – i można to zrozumieć, tkwi w nim bowiem błąd metodologiczny, który łatwo popełnić. Nasze obecne teorie mogą być stosowane do Wszechświata jako całości tylko wtedy, gdy jest on częścią jakiegoś większego układu. W tym właśnie celu wymyślamy fikcyjne środowisko i zapełniamy go innymi wszechświatami. Nie może to jednak doprowadzić do jakiegoś rzeczywistego postępu naukowego, ponieważ nie jesteśmy zdolni do potwierdzenia lub odrzucenia jakiejkolwiek hipotezy dotyczącej wszechświatów przyczynowo oddzielonych od naszego własnego 4. Celem tej książki jest wskazanie innej drogi. Powinniśmy raz na zawsze zerwać z powyższym podejściem i poszukać nowego typu teorii, która może być stosowana do Wszechświata jako całości – teorii, dzięki której unikniemy pomyłek i paradoksów, która rozwiąże nierozwiązywalne zagadnienia i stworzy własne fizyczne przewidywania zjawisk kosmologicznych. Nie stworzyłem takiej teorii, ale mogę zaoferować zbiór zasad pomocnych w jej poszukiwaniu. Są one omówione w rozdziale 10. W rozdziale, który po nim nastąpi, pokażę, w jaki sposób te zasady mogą

inspirować odkrywanie nowych hipotez i modeli Wszechświata prowadzących do prawdziwej teorii kosmologicznej. Zasadniczym warunkiem jest to, aby czas był rzeczywisty, a prawa fizyczne ewoluowały wraz z jego upływem. Nie jest nowa idea ewolucji praw fizyki ani nie jest nowa myśl, że kosmologia tego potrzebuje5. Amerykański filozof Charles Sanders Peirce pisał w 1891 roku: Trudno uzasadnić sytuację, w której mogąc pojąć rozumem prawa natury, nie potrafimy wyjaśnić i uzasadnić szczególnej ich postaci(...) Jednorodność to właśnie ta cecha, którą powinniśmy uwzględnić(…) Prawo jest pojęciem w najwyższym stopniu wymagającym podania powodu. Wyjaśnienia praw natury i ogólnie mówiąc, jednorodności można dokonać tylko w jeden możliwy sposób, mianowicie przyjmując, że są one rezultatem ewolucji6. Współczesny filozof Roberto Mangabeira Unger oświadczył niedawno, że: Historię

własności

Wszechświata

można

prześledzić od tych, jakie posiada obecnie, do tych, jakie miał na początku. Trudno jednak stwierdzić, że są to jedyne własności, jakie mógłby posiadać(…) Wszechświaty wcześniej lub później posiadały lub mogą posiadać zupełnie inne prawa(…) Określenie praw natury nie polega jedynie na opisie albo wyjaśnieniu wszystkich możliwych historii wszystkich możliwie istniejących wszechświatów. Istnieje tylko względna różnica między wyjaśnieniem podobnym do opartego na prawach natury i historią opartą na jednorazowym następstwie czasowym7. Paul Dirac, który wraz z Einsteinem i Nielsem Bohrem zaliczany jest do największych fizyków XX wieku, snuł następujące przypuszczenia: „Na początku czasu prawa natury były pewnie bardzo odmienne od tych, które dzisiaj obowiązują. Dlatego powinniśmy uznać, że prawa natury zmieniają się od epoki do epoki w sposób ciągły, zamiast jednakowo obowiązywać w całej czasoprzestrzeni”8. John Archibald Wheeler, jeden z wielkich fizyków amerykańskich, też wyobrażał sobie, że prawa fizyki ewoluują. Zaproponował nawet, że Wielki Wybuch był jednym z serii zdarzeń, podczas których prawa fizyki przechodziły proces przemiany. Pisał także: „Nie istnieje żadne prawo fizyki oprócz

prawa mówiącego, że nie istnieje żadne prawo fizyki”9. Nawet Richard Feynman, inny z grona wielkich amerykańskich fizyków i jednocześnie uczeń Wheelera, rozważał podczas wywiadu następującą kwestię: „Jedyną dziedziną nauki, która nie dopuszcza pytań o ewolucję, jest fizyka. Oto, jak mówimy, mamy prawa fizyki(…) ale dlaczego one takie są, czy to zasługa czasu?(…) Tak więc może się zdarzyć, że nie są one takie same [prawa fizyki] przez cały czas i pojawi się kwestia historii ich ewolucji”10. W książce z 1997 roku Życie wszechświata11 zaproponowałem mechanizm ewolucji praw fizyki, który oparłem na modelu ewolucji biologicznej12. Wyobrażałem sobie, że wszechświaty mogą się powielać dzięki tworzeniu wszechświatów dziecięcych wewnątrz czarnych dziur, i zakładałem, że gdy się to już zdarzy, prawa fizyki zostają nieznacznie zmienione. W tej teorii prawa fizyki odgrywały rolę genów w biologii. Z takiej perspektywy własności Wszechświata były wynikiem wyboru praw fizyki w trakcie jego powstawania, tak jak własności organizmu są rezultatem działania jego genów. Podobnie jak geny, prawa fizyki mogłyby mutować losowo z generacji na generację. Zainspirowany najnowszymi wynikami teorii strun, wyobrażałem sobie wówczas, że poszukiwania podstawowej zunifikowanej teorii nie powinny prowadzić do jednej Teorii

Wszystkiego, ale do ogromnego zbioru możliwych praw fizyki. Nazwałem go krajobrazem teorii, zaczerpnąwszy słownictwo z genetyki populacyjnej, dziedziny, w której mamy do czynienia z krajobrazami dopasowania (fitness landscapes). Nie będę teraz rozwijał tego wątku, bo jest on tematem rozdziału 11, powiem tylko, że na podstawie tej teorii, kosmologicznego doboru naturalnego, można było dokonać kilku przewidywań, które są nadal wiarygodne, pomimo że od tego czasu pojawiło się wiele okazji ich falsyfikacji. W ciągu ostatniej dekady wielu teoretyków strun opowiedziało się za krajobrazem teorii. W rezultacie zagadnienie, w jaki sposób wszechświaty wybierają swe prawa, stało się niezwykle naglące. Jak będę dowodził, można je rozwiązać tylko w ramach nowej kosmologii, w której czas jest zjawiskiem realnym, a prawa fizyki ewoluują w czasie. A zatem prawa nie są narzucane Wszechświatowi z zewnątrz. Żaden byt zewnętrzny, czy to boskiej natury, czy też matematycznej, nie dokonuje uprzedniego wyboru praw natury. Ani same prawa natury nie oczekują poza czasem w stanie utajonym, aby potem rozpocząć swe działanie we Wszechświecie. Pojawiają się one raczej z wnętrza Wszechświata i opisując go, ewoluują w czasie razem z nim. Możliwe jest nawet, że podobnie jak dzieje się w biologii, prawa fizyki powstają jako regularności związane z nowymi

zjawiskami ujawniającymi się na różnych etapach historii Wszechświata. Niektórzy mogą uznać wyparcie się wiecznych praw fizyki za odwrócenie się od celu, jaki stawia sobie nauka. Natomiast dla mnie jest to pozbycie się zbędnego metafizycznego bagażu, który spowalnia poszukiwanie prawdy. W następnych rozdziałach podam przykłady tego, jak idea ewoluujących w czasie praw fizyki staje się bodźcem naukowo zorientowanej kosmologii – to znaczy zdolnej do bardziej twórczych przewidywań, poddanych potem testom eksperymentalnym. Według mojej wiedzy Gottfried Wilhelm Leibniz był pierwszym uczonym od czasu rewolucji naukowej, który poważnie rozważał stworzenie teorii całego Wszechświata. Rywalizował z Newtonem, między innymi także o to, który z nich pierwszy wynalazł rachunek różniczkowy. On także antycypował powstanie współczesnej logiki, rozwinął system dwójkowy, i osiągnął dużo więcej. Nazywano go najmądrzejszym z żyjących kiedykolwiek ludzi. Leibniz sformułował zasadę tworzenia teorii kosmologicznych nazwaną regułą przyczyny koniecznej, według której musi istnieć racjonalna przyczyna dla każdego wyboru w chwili powstawania Wszechświata. Na każde pytanie typu: „dlaczego Wszechświat ma własność X, a nie Y?”, musi istnieć odpowiedź. Dlatego jeśli to Bóg stworzył Wszechświat, to nie istniał inny wybór. Reguła Leibniza dotąd ma głęboki wpływ na rozwój fizyki, i jak

zobaczymy, nadal jest solidnym przewodnikiem w tworzeniu teorii kosmologicznych. Leibniz miał wizję świata, w której wszystko istnieje nie w przestrzeni, ale w sieci wzajemnych relacji. Te relacje dopiero definiują przestrzeń, a nie na odwrót. Dzisiaj idea Wszechświata połączonych w sieć bytów przenika zarówno współczesną fizykę, jak i biologię oraz informatykę. W świecie relacyjnym (tak nazywamy świat, w którym relacje poprzedzają przestrzeń) nie istnieją przestrzenie pozbawione obiektów. Newtonowska koncepcja przestrzeni była zupełnie odwrotna, ponieważ uważał on przestrzeń za byt absolutny, w tym znaczeniu, że atomy zajmują określone położenia w przestrzeni, ale ich ruch w żaden sposób nie wpływa na nią samą. W świecie relacyjnym nie ma takich asymetrii. Obiekty definiują ich wzajemne relacje. Jednostki istnieją i mogą być częściowo niezależne, ale ich możliwości określa siatka wzajemnych powiązań. Spotykają się one i postrzegają wzajemnie dzięki więziom łączącym je w sieć, a sieci te są dynamiczne i wciąż ewoluują. Jak wyjaśnię w rozdziale 3, z wielkiej reguły Leibniza wynika, że czas nie może być absolutny, upływający niezależnie od tego, co dzieje się w świecie, lecz musi być konsekwencją zmiany. Czasu nie ma bez zmian zachodzących w świecie. Filozofowie twierdzą, że czas jest relacyjny – to znaczy jest rodzajem relacji, na przykład przyczynowości, która rządzi zmianami.

Podobnie przestrzeń musi być relacyjna. Istotnie, w naturze każda cecha obiektu musi odzwierciedlać dynamiczne13 relacje pomiędzy nim i innymi obiektami. Reguła Leibniza zaprzecza podstawowym ideom fizyki newtonowskiej i dlatego trzeba było wielu lat, aby uczeni ją docenili. To właśnie Einstein skwapliwie skorzystał z dorobku Leibniza; użył jego reguły do odrzucenia fizyki newtonowskiej i zastąpił ją ogólną teorią względności – teorią przestrzeni, czasu i grawitacji, która w znaczący sposób egzemplifikuje relacyjny pogląd Leibniza na przestrzeń i czas. W zachodzącej jednocześnie rewolucji kwantowej reguła Leibniza wykorzystywana była w nieco inny sposób. Dla mnie rewolucja w fizyce zachodząca w XX wieku jest rewolucją relacyjną. Zagadnienie unifikacji fizyki, a w szczególności połączenie teorii kwantów z ogólną teorią względności w jednolitą strukturę matematyczną, polega w znacznym stopniu na dokończeniu rewolucji relacyjnej w fizyce. Ukończenie tego zadania wymaga skorzystania z idei, że czas jest realny, a prawa fizyki ewoluują w czasie, i to jest główne przesłanie tej książki. Do pozostałych dziedzin nauki rewolucja relacyjna wdarła się już z pełnym impetem. Na jednym z jej frontów znajduje się rewolucja darwinowska w biologii, która charakteryzuje się tym, że ewolucja gatunku zachodzi dzięki jego relacji z innymi organizmami w otoczeniu, a działanie pojedynczego genu można

rozpatrywać jedynie w kontekście układu genów regulujących jego funkcjonowanie. Jak przekonamy się niedługo, w biologii chodzi o informację, a nie ma bardziej relacyjnej koncepcji niż informacja, zależna od relacji pomiędzy nadajnikiem a odbiornikiem na obu końcach kanału komunikacji. W zakresie nauk społecznych podważona została liberalna koncepcja świata zamieszkiwanego przez autonomiczne jednostki (stworzona przez filozofa Johna Locke’a w analogii do wizji fizyki autorstwa jego przyjaciela Izaaka Newtona), zastąpiona poglądem, że społeczeństwo składa się z jednostek wzajemnie zależnych, tylko częściowo autonomicznych, których życie ma sens jedynie w sieci wzajemnych relacji. Nowa era informacji, w którą niedawno weszliśmy, wyraża idee relacyjne poprzez metaforę sieci. Jako jednostki społeczne stajemy się węzłami sieci, której powiązania nas określają. Idea społeczeństwa jako zbioru jednostek związanych siecią zależności coraz częściej pojawia się w wielu teoriach socjologicznych formułowanych dosłownie przez każdego, poczynając od feministycznie nastawionych filozofów społecznych, a na osobach uważanych za guru praktyki zarządzania kończąc. Jak wielu użytkowników Facebooka jest świadomych tego, że ich życie społeczne jest organizowane przez tak potężną ideę naukową? Relacyjna rewolucja zaszła już daleko, ale jednocześnie znalazła się w oczywistym kryzysie.

Na pewnych frontach po prostu utknęła. Obojętne, gdzie ten kryzys nastąpił, trzy pytania pozostały tematem gorącej debaty. Czym jest jednostka? Jak pojawiają się nowe rodzaje układów i jednostek? Jak użytecznie rozumieć Wszechświat jako całość? Kluczem do tych zagadek jest założenie, że ani jednostki, ani układy, ani Wszechświat jako całość nie są rzeczami, które po prostu tylko są. Przecież tworzą je procesy, które zachodzą w czasie. Brakuje tu – i bez tego nie możemy odpowiedzieć na interesujące nas pytania – traktowania ich jak procesów rozwijających się w czasie. Będę chciał dowieść, że aby odnieść sukces, rewolucja relacyjna musi przyjąć pojęcie czasu oraz chwili obecnej za fundamentalne aspekty rzeczywistości. Stary sposób myślenia uznawał jednostki za najmniejsze bloki układu i jeśli chcieliśmy zrozumieć, jak on działa, to rozkładaliśmy go na mniejsze i badaliśmy, jak one działają. Skąd mamy brać wiedzę o działaniu tych najmniejszych, najbardziej fundamentalnych części? One nie składają się już z mniejszych cząstek. Stąd redukcjonizm (tak nazywa się ta metoda) nie dostarcza nam już nowej wiedzy. Dla atomistycznego punktu widzenia nie ma tu już miejsca, on także utknął. To wielka szansa dla rodzącego się programu relacyjnego, może on bowiem – a w rzeczywistości musi – szukać wyjaśnienia własności cząstek elementarnych w sieci ich wzajemnych powiązań.

Dzieje się to już w teoriach zunifikowanych. W Modelu Standardowym, który jest jak dotąd najlepszą teorią cząstek elementarnych, własność elektronu taka jak masa jest dynamicznie ustalana przez oddziaływania, w których on uczestniczy. Najbardziej podstawową własnością, jaką może mieć cząstka, jest jej masa, która określa, ile siły należy przyłożyć do cząstki, aby zmienić jej ruch. W Modelu Standardowym masy wszystkich cząstek powstają na skutek ich oddziaływań z innymi cząstkami, a pierwotnie są wyznaczane przez jedną – cząstkę Higgsa. Nie istnieją już cząstki „elementarne”. Wszystko, co zachowuje się jak cząstka, jest, do pewnego stopnia, emergentną konsekwencją sieci oddziaływań. W świecie relacyjnym emergentność jest ważnym pojęciem. Własność układu złożonego z części jest emergentna, jeśli nie miałaby sensu w odniesieniu do jakiejkolwiek części tego układu. Skały są twarde, a woda płynie, ale atomy je tworzące nie są ani lite, ani mokre. Własność emergentna ma często charakter przybliżony, ponieważ jest opisem uśrednionym albo na wyższym poziomie, a wtedy pomija się znaczną liczbę szczegółów. Aspekty natury kiedyś uważane za podstawowe, w miarę postępu wiedzy okazują się emergentne i przybliżone. Kiedyś myśleliśmy, że ciała stałe, ciecze i gazy były podstawowymi stanami materii. Teraz wiemy, że są to własności emergentne, można je

rozumieć jako różne ułożenia atomów, z których wszystko jest stworzone. Większość praw natury traktowanych kiedyś jako podstawowe teraz rozumiana jest jako emergentna i przybliżona. Temperatura jest średnią energią ruchu chaotycznego atomów, dlatego prawa termodynamiki, które na nią się powołują, są emergentne i przybliżone. Skłaniam się ku poglądowi, że wszystkie zjawiska obecnie uważane za podstawowe, w przyszłości też mogą zostać uznane za emergentne i przybliżone: grawitacja i rządzące nią prawa Newtona oraz Einsteina, prawa mechaniki kwantowej, a nawet sama przestrzeń. Podstawowa teoria fizyki, której poszukujemy, nie będzie dotyczyć obiektów poruszających się w przestrzeni. Grawitacja, elektryczność ani magnetyzm nie będą w niej oddziaływaniami podstawowymi. Nie będzie nią mechanika kwantowa. Wszystko to wyłoni się jako pojęcia przybliżone, gdy Wszechświat stanie się wystarczająco duży. Jeśli przestrzeń jest emergentna, czy to oznacza, że czas też jest taki? Jeśli zagłębimy się dostatecznie głęboko w podstawy natury, to czy czas zniknie? W poprzednim wieku nastąpił taki postęp wiedzy, że wielu moich kolegów zaczęło go uważać za własność emergentną wynikającą z bardziej podstawowego opisu natury, w którym czas w ogóle nie występuje. Wierzę – o tyle mocno, o ile można w coś wierzyć w nauce – że się mylą. Czas okaże się jedynym

podstawowym aspektem tego, czego codziennie doznajemy. Ten fakt, że w naszej percepcji zawsze jest jakaś chwila i że doznajemy tych chwil w formie płynącego ich strumienia, nie jest wcale iluzją. To najlepszy trop prowadzący ku fundamentom rzeczywistości. 3 Ten punkt widzenia umniejsza więcej niż tylko czas, redukuje bowiem wszystkie aspekty postrzegania świata – kolor, dotyk, muzykę, emocje, myśli – do zmian położenia atomów. To sedno atomistycznego postrzegania świata proponowanego przez Demokryta i Lukrecjusza, a sformalizowanego przez Johna Lo​cke’a w koncepcji „wartości pierwotnych i wtórnych”, i od tego czasu pozornie potwierdzanego przez każdy aspekt rozwoju nauki. W tym poglądzie realny jest ruch – we współczesnym rozumieniu przejścia pomiędzy stanami kwantowymi. Wszystko inne jest do pewnego stopnia iluzją. Nie jest moją rolą podważanie tej mądrości, którą w większości należy przyjąć za prawdę dobrze potwierdzoną naukowo. Chcę podważyć tylko ostatni krok, w którym także czas jest uważany za iluzję. 4 Jedynym wyjątkiem, jak przekonamy się w rozdziale 11, byłoby potraktowanie naszego Wszechświata jako typowego wśród zbioru wszechświatów. 5 Niektórzy czytelnicy zaraz zapytają, jakiemu prawu podlega ewolucja praw. Prowadzi to do problemu metapraw, omawianego wyczerpująco w rozdziale 19. 6 Charles Sanders Peirce, The Architecture of Theories, „The Monist” 1891, nr 1:2, s. 161–176.

7 Roberto Mangabeira Unger, Social Theory: Its Situation and Its Task, w: Politics, t. 2, Verso, New York 2004, s. 179–180. 8 Paul A.M. Dirac, The Relation Between Mathematics and Physics, „Proceedings of the Royal Society” (Edinburgh) 1939, t. 59, s. 122– 129. 9 Cytowane w: James Gleick, Genius: the Life and Science of Richard Feynman, Pantheon, New York 1992, s. 93. 10 Richard Feynman – Take the World from another Point of View, NOVA (PBS, 1973). Kopia na http://calteches.library.caltech.edu/35/2/PointofView.htm. 11 Przeł. D. Czyżewska, Amber, Warszawa 1999 (przyp. tłum). 12 Pierwsza publikacja zawierająca tę ideę: Lee Smolin, Did the Universe Evolve?, „Classical and Quantum Gravity” 1992, nr 9, s. 173– 191. 13 „Dynamiczne” to termin, którego często używam w tej książce. Oznacza: zmieniające się, podlegające prawu.

CZĘŚĆ I

CIĘŻAR: USUNIĘCIE CZASU

Rozdział 1

Spadanie Zanim wybierzemy się na tę lub inną wyprawę odkrywczą, powinniśmy wziąć pod uwagę radę Heraklita, starożytnego greckiego filozofa, który ostrzegał, że „natura lubi się ukrywać”. To prawda. Weźmy tylko pod uwagę, że większość oddziaływań i cząstek uznawanych przez naukę za fundamentalne aż do ostatniego stulecia ukryta była przed nami wewnątrz atomu. Niektórzy ze współczesnych Heraklitowi wypowiadali się o atomach, ale tak naprawdę nie wiedząc, czy istnieją czy też nie. A na dodatek ich pomysł był fałszywy, uważali bowiem atomy za niepodzielne. Dopiero dzięki pracom Einsteina z 1905 roku powszechnie zgodzono się, że materia składa się z atomów. Już po sześciu latach zaś sam atom został rozbity na kawałki. Tak rozpoczęło się badanie wnętrza atomów i światów w nim ukrytych. Największym odstępstwem od skromności natury jest grawitacja. To jedyne z fundamentalnych oddziaływań,

którego efekty może dostrzec każdy, bez pomocy specjalnych instrumentów. Z grawitacją toczyliśmy najwcześniejsze walki połączone z porażkami. Dlatego to ona musiała być pierwszym zjawiskiem natury, któremu nadał nazwę nasz gatunek. Pomimo to najważniejsze aspekty powszechnej wiedzy o spadaniu pozostawały ukryte aż do początków nauki współczesnej, a wielu jeszcze nie znamy. Jak przekonamy się wkrótce w następnych rozdziałach, jednym z dotąd ukrytych aspektów grawitacji jest jej związek z czasem. Dlatego poszukiwanie czasu rozpoczniemy od zjawiska spadania. „Tatusiu, dlaczego nie mogę latać?”. Znajdowaliśmy się na górnym tarasie i patrzyliśmy na ogród rozciągający się trzy piętra pod nami. „Po prostu skoczę i pofrunę do mamusi jak te ptaszki”. „Ptaszki” to pierwsze słowo, jakim określał wróble trzepocące się na drzewie widocznym z okna dziecinnego pokoju. I oto pojawia się podstawowa sprzeczność trapiąca rodzicielstwo. Chcielibyśmy, aby nasze dzieci swobodnie wzleciały ponad nas, ale jednocześnie jesteśmy pełni obaw co do ich bezpieczeństwa w tym tak nieobliczalnym świecie. Powiedziałem synowi stanowczo, że ludzie nie potrafią latać i żeby nigdy tego nie próbował, a on zalał się łzami. Aby go zająć czymś innym, postanowiłem skorzystać z okazji i opowiedzieć o grawitacji.

Grawitacja to coś, co trzyma nas przy Ziemi. To dzięki niej spadamy zarówno my, jak i wszystkie inne przedmioty. Następnie, ku memu zaskoczeniu, usłyszałem z jego ust pytanie „Dlaczego?”. Nawet trzylatek wiedział, że nazwanie zjawiska nie jest równoznaczne z jego wyjaśnieniem. Mogliśmy się zabawić w grę, jak spadają przedmioty. Wkrótce zrzucaliśmy do ogrodu różnego rodzaju zabawki, dokonując „ksperymentów”, aby zobaczyć, czy wszystkie spadają w ten sam sposób. Ja zaś zacząłem się zastanawiać nad problemem przerastającym umysł trzylatka. Gdy rzucamy przedmiot i spada on, jednocześnie oddalając się od nas, to jaką krzywą w przestrzeni kreśli tor jego lotu? Co to za krzywa? Tego rodzaju zagadnienie nie zaprząta umysłu trzylatka, co nie jest zaskakujące. Jednak chyba też nikogo nie zaprzątało to przez tysiące lat, od kiedy zaczęliśmy uważać się za ludzi cywilizowanych. Platon, Arystoteles i inni wielcy filozofowie świata starożytnego zadowalali się obserwacją spadających ciał, nie zastanawiając się, czy poruszają się one wzdłuż jakichś charakterystycznych krzywych. Pierwszym, który badał tory spadających ciał, był Włoch, Galileusz (Galileo Galilei), żyjący na początku XVII wieku. Swe odkrycia przedstawił w Rozmowach i dowodzeniach matematycznych w zakresie dwóch nowych umiejętności dotyczących mechaniki i ruchów

miejscowych14, które spisał, gdy miał lat siedemdziesiąt, przebywając w areszcie domowym z wyroku inkwizycji. W książce tej podał, że spadające ciała zawsze poruszają się wzdłuż pewnego rodzaju krzywych, które są parabolami. Galileusz nie tylko odkrył, jak spadają obiekty, ale też wyjaśnił swe wnioski. Spadanie po paraboli jest bezpośrednią konsekwencją innego faktu, który pierwszy zaobserwował i który polega na tym, że wszystkie obiekty, zarówno spadające jak i rzucone, poruszają się ku ziemi ze stałym przyspieszeniem. Odkrycie Galileusza, że obiekty spadające zakreślają parabolę, jest jednym z najpiękniejszych osiągnięć w całej nauce. Spadanie jest zjawiskiem powszechnym i powszechny jest też typ krzywej, po jakiej poruszają się spadające ciała. Nie ma znaczenia, z jakiego materiału wykonane jest ciało ani z jakich części się składa, ani jakie funkcje pełni. Nie jest istotne także, jak wiele razy spada ani z jakiej wysokości, ani z jaką prędkością poziomą je wyrzucamy lub upuszczamy. Możemy wciąż powtarzać eksperyment i zawsze torem lotu ciała będzie parabola. Parabola jest jedną z najprostszych krzywych, jaką można opisać matematycznie. Stanowi ona zbiór punktów równo odległych od punktu i prostej. I dlatego jedno z najbardziej powszechnych zjawisk należy do najprostszych. Parabola jest koncepcją matematyczną – przykładem

tego, co nazywamy obiektem matematycznym – znaną matematykom od znacznie wcześniejszych czasów niż epoka Galileusza. Odkrycie Galileusza dotyczące spadania ciał po paraboli jest pierwszym przykładem prawa natury – to znaczy regularnego zachowania określonego podukładu Wszechświata. W tym wypadku podukładem jest ciało spadające w pobliżu powierzchni planety. Zdarzało się to nieskończenie wiele razy i w ogromnie wielu miejscach od chwili powstania Wszechświata, stąd wiele sytuacji, do których stosuje się to prawo.

Rysunek 1. Definicja paraboli: zbiór punktów równo odległych od wybranego punktu i linii prostej

Gdy dzieci staną się trochę starsze, mogą zadać takie

oto pytanie – co możemy powiedzieć o świecie, w którym spadające ciała poruszają się wzdłuż tak prostych krzywych? Dlaczego koncepcja matematyczna, produkt czystej myśli, ma mieć coś wspólnego z naturą? I dlaczego tak powszechne zjawisko jak spadanie ma swój matematyczny odpowiednik w postaci najprostszej i najpiękniejszej ze wszystkich krzywych w geometrii? Od odkrycia Galileusza fizycy z pożytkiem stosowali matematykę do opisu zjawisk przyrody. Nam może wydawać się zupełnie oczywiste, że prawo fizyki musi mieć formę matematyczną, ale od czasu gdy Euklides wymyślił aksjomaty geometrii, czyli przez prawie dwa tysiące lat, nikt nie zaproponował matematycznego opisu ruchu ciał na Ziemi. Od czasów starożytnych do XVII wieku ludzie wykształceni wiedzieli, czym jest parabola, ale nikt z nich nie zastanawiał się, czy kule, strzały i inne obiekty, które upuszczali, ciskali, wystrzeliwali, poruszają się wzdłuż jakiejś znanej krzywej15. Każdy mógłby dokonać takiego odkrycia jak Galileusz, bo przyrządy, jakimi się posłużył, były znane w Atenach za czasów Platona i w Aleksandrii za czasów Hypatii. Nikt jednak tego nie zrobił. Co spowodowało, że Galileusz dostrzegł rolę, jaką matematyka może odgrywać w opisie czegoś tak prostego jak spadanie ciał? Prowadzi nas to prosto do pytań, które można prosto sformułować, ale trudno na nie odpowiedzieć: Czym jest matematyka? Dlaczego znalazła zastosowanie w nauce?

Obiekty matematyczne są wytworami czystej myśli. Nie odkrywamy parabol w naturze, my je wymyślamy. Parabola, okrąg czy też linia prosta to czysta idea. Musi zostać uchwycona, a potem sformułowana w definicji: Okrąg to zbiór punktów równo odległych od wybranego punktu(…) Parabola jest zbiorem punktów równo odległych od wybranego punktu i linii prostej. Gdy mamy już koncepcję, możemy bezpośrednio z definicji krzywej badać jej własności. Jak wiemy z lekcji geometrii, to rozumowanie można sformalizować w postaci dowodu, w którym dzięki zastosowaniu reguł logiki każde stwierdzenie wynika z poprzedniego. A na żadnym etapie tego formalnego procesu nie ma miejsca dla obserwacji lub eksperymentu16. Rysunek może ilustrować własności przedstawiane w twierdzeniu, ale zawsze w sposób niedoskonały. To samo możemy powiedzieć o krzywych, jakie napotykamy w naturze: o tej, którą przyjmuje grzbiet przeciągającej się kotki, albo innej, wzdłuż której rozciągają się liny wiszącego mostu. Te kształty tylko w przybliżeniu odpowiadają krzywej matematycznej. Gdy przyglądamy się bliżej, zawsze odkryjemy jakąś niedoskonałość. Tak oto stykamy się z podstawowym paradoksem matematyki. Obiekty, które ona bada, są nierealne, ale w jakiś sposób objaśniają rzeczywistość. W jaki? Związek między rzeczywistością a matematyką nie jest taki oczywisty, nawet w tych prostych przykładach.

Możecie się zastanawiać, co matematyka może mieć wspólnego z badaniem grawitacji. Ta dygresja jest konieczna, ponieważ obie na równi tkwią w sednie tajemnicy czasu i dlatego na najprostszym przykładzie spadania ciał wzdłuż krzywych powinniśmy wyjaśnić sposób, w jaki matematyka wiąże się z naturą. W przeciwnym razie, gdy dotrzemy do czasów współczesnych i natkniemy się na zdanie typu „Wszechświat jest czterowymiarową rozmaitością czasoprzestrzenną”, nie będziemy mieli pojęcia, o czym jest mowa. Bez zrozumienia najprostszych przykładów staniemy się łatwym łupem mistyfikatorów chcących, abyśmy uwierzyli w ich radykalne metafizyczne fantazje udające naukę. Choć doskonałe okręgi i parabole nie występują w naturze, mają wspólną cechę z obiektami naturalnymi: odporność na manipulacje naszej fantazji i naszej woli. Liczba π – stosunek obwodu okręgu do jego średnicy – jest pojęciem abstrakcyjnym. Jednak gdy to pojęcie wymyślono, jego wartość stała się własnością obiektywną, taką, którą należało odkrywać za pomocą dalszego rozumowania. Podejmowano próby ujęcia π normami prawa, ale to wielkie nieporozumienie. Żadne życzenia nie uczynią z wartości π nic więcej niż to, czym ona jest. To samo odnosi się do własności krzywych i innych obiektów matematycznych. Możemy się mylić lub nie co do tych własności, ale nie możemy ich zmienić.

Większość z nas przebolała fakt niemożności latania. W końcu przyznaliśmy, że nie mamy wpływu na wiele aspektów natury. Czy jednak nie budzi niepokoju fakt, że są pojęcia istniejące tylko w naszych umysłach, ale mające tak obiektywne i tak niewrażliwe na naszą wolę własności jak obiekty istniejące w naturze? Odkryliśmy matematyczne krzywe oraz liczby, ale już odkrytych nie można zmienić. Nawet jeśli krzywe i liczby przypominają obiekty ze świata realnego dzięki swej stabilności cech i odporności na działanie naszej woli, to jednak nie są tożsame z nimi. Brak im jednej podstawowej własności, wspólnej dla wszystkich obiektów natury. Tu w świecie realnym wszystko dzieje się w danej chwili. Wszystko, o czym wiemy w świecie, bierze udział w upływie czasu. Każda obserwacja świata ma przypisaną datę. Każdy z nas i wszystko w naturze, o czym wiemy, istnieje w jakimś interwale czasowym. Przed tym interwałem i po nim nie istniejemy ani my, ani to wszystko. Krzywe i inne obiekty matematyczne nie istnieją w czasie. Wartość liczbowa π nie pojawia się z konkretną datą, przed którą była zupełnie inna albo niezdefiniowana, a po niej nagle ulega to zmianie. Jeśli prawdą jest, że dwie linie proste równoległe nigdy się nie zetkną, jak definiuje Euklides, to była to zawsze i zawsze będzie prawda. Twierdzenia o obiektach matematycznych, takich jak krzywe i liczby, są zawsze prawdziwe i nie wymagają odniesień do czasu. Obiekty

matematyczne są pozaczasowe. Tylko jak coś może istnieć, nie istniejąc w czasie?17. Ludzie od tysiącleci dyskutowali o tym problemie, a filozofowie jeszcze muszą dojść w tej sprawie do porozumienia. Zawsze jednak, nawet gdy po raz pierwszy ten problem był przedmiotem dyskusji, broniła się jedna propozycja. Chodzi o to, że krzywe, liczby i inne obiekty matematyczne istnieją tak samo realnie jak to, co widzimy w naturze – tyle że nie w naszym świecie, lecz w innym, bezczasowym. Dlatego też nie ma dwóch rodzajów obiektów w naszym świecie, ograniczonych czasowo i bezczasowych. Są raczej dwa światy, świat ograniczony czasem i świat bezczasowy. Pomysł, że obiekty matematyczne istnieją w oddzielnym bezczasowym świecie, często przypisywany jest Platonowi. Uczył on, że gdy matematyk mówi o trójkącie, nie jest to tylko trójkąt w świecie realnym, lecz trójkąt idealny, tak samo rzeczywisty (a może nawet bardziej) w innym świecie, takim, który istnieje poza czasem. Twierdzenie, że suma kątów trójkąta wynosi 180 stopni, nie jest w pełni prawdziwe w odniesieniu do trójkątów w świecie fizycznym, lecz jest absolutnie prawdziwe w odniesieniu do tego idealnego trójkąta matematycznego istniejącego w świecie matematycznym. Dlatego gdy dowiedziemy tego twierdzenia, uzyskujemy wiedzę i demonstrujemy prawdę o czymś, co istnieje poza czasem i co nie jest ograniczone do przeszłości, teraźniejszości ani

do przyszłości. Jeśli Platon miał rację, to my, istoty ludzkie, dzięki rozumowaniu możemy wyjść poza czas i posiąść prawdy pozaczasowego istnienia. Zresztą niektórzy matematycy już twierdzą, że dzięki rozumowaniu nabyli pewnej wiedzy o świecie platońskim. Jeśli tak jest, to takie twierdzenie przydaje im odrobiny boskości. Skąd u nich to przekonanie? Czy można dać temu wiarę? Gdy mam ochotę na dozę platonizmu, zapraszam na lunch mego przyjaciela Jima Browna. Obaj jesteśmy smakoszami i podczas takiej uczty cierpliwie, i nie pierwszy raz, wyjaśnia mi on istotę pozaczasowej rzeczywistości matematycznego świata. Jim jest niezwykłym filozofem, łączącym ostry jak brzytwa rozum z bardzo pogodnym usposobieniem. Wyczuwasz, że jest szczęśliwy, i dlatego znajomość z nim sprawia ci przyjemność. Jest on dobrym filozofem, zna wszystkie argumenty obu stron i nie sprawia mu trudności dyskusja o czymś, czego nie może udowodnić. Jednakże nie znalazłem sposobu, aby podważyć jego pewność istnienia pozaczasowego świata obiektów matematycznych. Czasami się zastanawiam, czy to nie jego wiara w prawdy niepojęte dla ludzi sprawia, że jest tak szczęśliwym człowiekiem. Jim przyznaje, że on i inni platonicy nie potrafią odpowiedzieć na pytanie o to, jak my, istoty ludzkie, którym dane jest życie ograniczone w czasie i które mają kontakt tylko z przedmiotami podobnie

ograniczonymi, możemy posiąść sprecyzowaną wiedzę o pozaczasowym świecie matematyki. Dochodzimy do tej wiedzy przez rozumowanie, ale czy naprawdę możemy być pewni, że nasze rozumowanie jest poprawne? Istotnie, nie możemy. Od czasu do czasu odkrywane są błędy dowodów umieszczonych już w podręcznikach, co oznacza, że błędy mogą istnieć. Można podjąć próbę wyjścia z tej sytuacji, stwierdzając, że obiekty matematyczne nie istnieją zupełnie, nawet poza czasem. Jednak jaki jest sens twierdzić, że mamy solidną wiedzę o świecie nieistniejących obiektów? O platonizmie dyskutowałem także z innym moim przyjacielem, angielskim fizykiem teoretykiem Rogerem Penrose’em. Twierdzi on, że prawdy świata matematyki mają realność nieujętą w żadnym systemie aksjomatów. Naśladując wielkiego logika Kurta Gödla, dowodzi, że możemy bezpośrednio wnioskować o prawdach świata matematycznego – prawdach nieujętych w żadnym dowodzeniu opartym na aksjomatach. Powiedział mi kiedyś coś takiego: „Wiesz z pewnością, że jeden plus jeden daje w wyniku dwa. To fakt o świecie matematyki, który uzyskujesz intuicyjnie i jesteś go pewien. Dlatego samo jeden-plusjeden-równa-się-dwa jest wystarczającym dowodem na to, że rozum może przekroczyć granice czasu. A co powiesz na dwa dodać dwa równa się cztery? Jesteś tego również pewien! A teraz co powiesz na pięć dodać pięć równa się dziesięć? Nie masz też wątpliwości! Dlatego

istnieje wiele faktów z bezczasowego świata matematyki, co do których nie masz wątpliwości”. Penrose wierzy, że nasze umysły mogą wznieść się ponad płynący nieustannie w czasie strumień doznań i sięgnąć do istniejącej poza nim wiecznej, bezczasowej domeny18. Zjawisko grawitacji odkryliśmy, gdy zdaliśmy sobie sprawę z tego, że spadanie jest procesem uniwersalnym w naturze. Próbując wyjaśnić ów fenomen, dostrzegliśmy niezwykłą regularność. Wszystkie obiekty spadają wzdłuż takich samych krzywych, które starożytni nazwali parabolami. Możemy zatem łączyć powszechnie występujące zjawisko związane z ograniczonymi w czasie obiektami z wymyśloną koncepcją, która w swej doskonałości sugeruje możliwość pozaczasowego istnienia pewnych prawd. Jeśli jesteś platonikiem, jak Brown i Penrose, to odkrycie, że ciała powszechnie spadają wzdłuż parabol, nie jest niczym więcej jak spostrzeżeniem związku między naszym ziemskim, ograniczonym w czasie światem a innym, bezczasowym światem wiecznej prawdy i piękna. Proste spostrzeżenie Galileusza nabiera wówczas transcendentnej lub religijnej wagi. Oznacza bowiem odkrycie istnienia w naszym świecie uniwersalnego, bezczasowego boskiego działania. W tym świetle spadanie ciał w naszym niedoskonałym świecie ukazuje bezczasową istotę doskonałości natury. Na wielu z nas, i na mnie także, ta wizja

transcendencji do bezczasowości poprzez naukę podziałała tak, że zainteresowaliśmy się nauką, ale teraz jestem pewien, iż nie jest ona prawdziwa. Marzenie o transcendencji zawiera u swych podstaw poważny błąd, związany z chęcią wyjaśnienia tego, co ograniczone czasowo, przez to, co pozaczasowe. Nie posiadając fizycznego dostępu do wyobrażonego świata bezczasowego, wcześniej lub później przekonamy się, że po prostu pewne rzeczy zmyślamy (w późniejszych rozdziałach podam odpowiednie przykłady). W sednie każdego stwierdzenia, że nasz Wszechświat można ostatecznie objaśnić doskonalszym światem istniejącym odrębnie niż to, co postrzegamy, tkwi coś tandetnego. Jeśli mu ulegniemy, to granica między nauką a mistycyzmem utraci swą szczelność. Pragnienie transcendencji leży u podstaw wiary religijnej. Pragnienie uwolnienia się od śmierci i bólu, i ograniczenia życia jest siłą napędową religii i mistycyzmu. Czy ktoś poszukujący wiedzy matematycznej staje się kimś w rodzaju księdza, posiadającego dostęp do niezwykłej formy wiedzy? Czy należy po prostu uznać matematykę za pewien rodzaj aktywności religijnej? Albo czy powinniśmy mieć obawy, gdy najbardziej racjonalni z naszych myślicieli, matematycy, mówią o tym, co robią, jak o przekraczaniu ograniczeń ludzkiego życia? O wiele większym wyzwaniem jest przyjęcie założenia, że Wszechświat, który postrzegamy, można

wyjaśnić tylko pojęciami w nim istniejącymi – wytłumaczyć realne przez realne, ograniczone czasowo przez ograniczone czasowo. Chociaż ta ograniczona, mniej romantyczna droga jest wyzwaniem, to zakończy się sukcesem. Oczekującą nas nagrodą będzie zrozumienie istoty czasu na jego warunkach. 14 Przeł. F. Kucharzewski, Wydawnictwo Kasy im. Mianowskiego, Instytutu Popierania Nauki, Pałac Staszica, Warszawa 1930 (przyp. tłum.). 15 I to pomimo wielu poważnych prób zrozumienia przyczyny ruchu podejmowanych przez muzułmańskich i średniowiecznych uczonych. 16 Matematycy lubią mówić o krzywych, liczbach i tak dalej jako o „obiektach” matematycznych, co implikuje jakąś formę istnienia. Jeśli nie podoba się wam radykalne stanowisko filozoficzne wyrażane nawykiem językowym, to możecie nazywać je koncepcjami. 17 Twierdzenie, że prawdy matematyczne są poza czasem, nie jest całkiem prawdziwe, ponieważ ludzka percepcja i myśli zachodzą w specyficznych momentach – a wśród rzeczy, o których myślimy w czasie, są właśnie obiekty matematyczne. Wydaje się, że to tylko same te obiekty nie egzystują w czasie. Nie rodzą się, nie ulegają zmianom, po prostu są. 18 Wierzyło w to wielu innych wielkich matematyków, w tym Alain Connes. Zob.: Jean-Pierre Changeux, Alain Connes, Conversations on Mind, Matter, and Mathematics, red. i przeł. M.B. DeBevoise, Princeton University Press, Princeton 1998.

Rozdział 2

Zniknięcie czasu Galileusz nie był pierwszym, który połączył ruch z krzywymi. Był pierwszym, który dokonał tego dla warunków ziemskich. To, że nikomu przed Galileuszem nie przyszło do głowy, iż ciała spadają wzdłuż paraboli, wynika zapewne z faktu, że nikt nie dostrzegł tego bezpośrednio. Ze względu na szybkość spadającego ciała tor jego lotu jest trudny do obserwacji wzrokowej19. Jednak na długo przed Galileuszem ludzie znali przykłady ruchu dostatecznie wolnego, aby dokonać obserwacji. To ruchy Słońca, Księżyca i planet po nieboskłonie. Platon i jego uczniowie dysponowali zapisami ich położeń przechowywanymi przez tysiące lat przez Egipcjan i Babilończyków. Tych, którzy je studiowali, dane te zdumiewały i zachwycały, ponieważ zawierały pewne prawidłowości – niektóre oczywiste, takie jak roczny ruch Słońca, a inne już nie tak oczywiste, w tym cykle osiemnastu lat i jedenastu dni w odniesieniu do zaćmień Słońca.

Prawidłowości te były kluczem do rzeczywistego obrazu Wszechświata, w jakim żyli starożytni. W ciągu wielu stuleci uczeni pracowali nad ich rozszyfrowaniem i dzięki tym wysiłkom matematyka po raz pierwszy wkroczyła do nauki. To jeszcze nie wszystko. Galileusz nie użył żadnego przyrządu, który nie byłby znany starożytnym Grekom. Dlatego musi istnieć jakiś inny powód braku postępu w opisie ruchu na powierzchni Ziemi. Czy poprzednicy Galileusza zaszli w jakiś ślepy zaułek, którego on sam uniknął? W co oni uwierzyli, a on nie? Rozpatrzmy odkrycie przez starożytnych astronomów jednej z najprostszych i najgłębszych prawidłowości. Słowo „planeta” pochodzi ze starożytnej greki i oznacza wędrowca, ale planety nie wędrują po całym nieboskłonie. Wszystkie poruszają się wzdłuż wielkiego okręgu zwanego ekliptyką, a jej pozycja na niebie jest stała względem gwiazd. Odkrycie ekliptyki musiało być pierwszym krokiem w rozszyfrowaniu danych dotyczących położeń planet. Okrąg jest obiektem matematycznym definiowanym za pomocą prostej reguły. Co oznacza, że okrąg jest widoczny w ruchu po sferze niebieskiej? Czy chodzi o wizytę ponadczasowego zjawiska w efemerycznym, ograniczonym czasowo świecie? Tak mogłoby się nam wydawać, ale starożytni inaczej rozumieli to zjawisko. W ich ujęciu Wszechświat był rozdzielony na dwie domeny: domenę ziemską, która była areną urodzin

i śmierci, areną zmian i niszczenia, oraz na położoną nad nią sferę niebieską, stanowiącą miejsce bezczasowej doskonałości. Dla nich niebo było królestwem transcendencji zasiedlonym przez boskie stworzenia, które nigdy się nie zmieniały. Przecież to w końcu obserwowali. Sam Arystoteles zauważał, że „(…) istotnie, w całej przeszłości w myśl tradycji przekazywanej z wieku na wiek nie widać żadnej zmiany ani w zespole nieba zewnętrznego, ani w żadnej spośród jego części(…)”20. Jeśli obiekty w tej boskiej domenie miały się poruszać, musiał to być ruch doskonały, a tym samym wieczny. Dla starożytnych było rzeczą oczywistą, że planety poruszają się po okręgach, ponieważ będąc boskie i doskonałe, mogą się poruszać tylko po najdoskonalszej krzywej. Natomiast domena ziemska nie jest już doskonała, dlatego wydawało im się co najmniej dziwaczne opisywanie ruchu na powierzchni Ziemi za pomocą doskonałych krzywych matematycznych. Podział świata na sferę niebieską i domenę ziemską został skodyfikowany w fizyce Arystotelesa. Wszystko w ziemskiej domenie było mieszaniną czterech elementów: ziemi, powietrza, ognia i wody. Każdy z nich miał swój naturalny ruch. Na przykład naturalnym ruchem Ziemi było dążenie do centrum Wszechświata. Zmiana następowała na skutek mieszania się tych elementów. Eter był piątym elementem, budulcem sfery niebieskiej i obiektów, które się w niej

poruszały. W tym podziale tkwiło źródło związku uwznioślenia z transcendencją. Bóg, niebiosa, doskonałość – są ponad nami, podczas gdy my jesteśmy uwięzieni tutaj, niżej. Z tej perspektywy sens ma odkrycie, że ruch w sferze niebieskiej da się ująć w formy matematyczne, ponieważ matematyka i sfera niebieska wykraczają poza czas i poza wszelkie zmiany. Poznanie ich obu jest przekroczeniem ziemskiej domeny. Matematyka wkroczyła zatem do nauki jako wyraz wiary w pozaczasową doskonałość sfery niebieskiej. Choć okazała się pożyteczna, to postulowanie pozaczasowych praw matematycznych niesie w sobie ślad metafizycznej fantazji o transcendencji naszego ziemskiego świata do jego doskonalszej postaci. Mimo że już dawno temu nauka oderwała się od kosmosu starożytnych, to jego podstawowe cechy mają nadal wpływ na język współczesny i jego metafory. Mówimy o stanięciu na wysokości zadania. O wznoszeniu oczu do nieba. Tymczasem upadek jest synonimem utraty kontroli nad własnym życiem. Co więcej, przeciwstawienie „wznoszenia” „upadkowi” symbolizuje konflikt między fizycznością a duchowością. Niebo jest nad nami, a piekło pod nami. Gdy ulegamy degradacji, upadamy w dół ku ziemi. Bóg i wszystko, czego ostatecznie poszukujemy, jest ponad nami. Muzyka była dla starożytnych jeszcze innym

sposobem transcendencji. Słuchając muzyki, często odczuwamy jej głębokie piękno, w którym „chwilowo się zatracamy”. Nic dziwnego, że starożytni oprócz piękna muzyki czuli także piękno zagadek matematycznych oczekujących swego odkrycia. Pośród wielkich osiągnięć szkoły Pitagorasa było także odkrycie związku między muzyczną harmonią a prostymi proporcjami liczbowymi. Dla starożytnych był to jeszcze jeden dowód na to, że matematyka oddaje boskie prawidłowości. Niewiele wiemy o Pitagorasie i jego uczniach, ale z pewnością zauważyli prawidłowość, że zdolności matematyczne często wiążą się z talentem muzycznym. Matematycy i muzycy posiadają umiejętność rozpoznawania, tworzenia i przekształcania abstrakcyjnych form. Starożytni nazywali to zdolnością dostrzegania boskiej inspiracji. Galileusz, nim został uczonym, od dzieciństwa miał kontakt z muzyką21. Jego ojciec, Vincenzo Galilei, był kompozytorem i bardzo wpływowym teoretykiem muzyki, który podobno rozpiął struny od skrzypiec na poddaszu ich domu w Pizie, aby syn mógł poczuć związek między proporcjami liczbowymi a harmonią. Nudząc się podczas mszy w katedrze w Pizie, Galileusz zauważył, że okres, w jakim zawieszona pod sklepieniem lampa wahała się pomiędzy swymi skrajnymi położeniami, nie zależał od tego, jak szeroko się wahała. Ta niezależność okresu wahań (czyli czasu, jaki jest potrzebny na pełne jedno wahnięcie lub jeden

pełny przebieg orbity) od amplitudy wahadła była jednym z jego pierwszych odkryć. Jak do tego doszedł? My użylibyśmy stopera albo zegarka, ale w czasach Galileusza ich nie było. Możemy sobie wyobrazić, że nucił, obserwując wahającą mu się nad głową lampę. Później przyznał, że był zdolny do pomiaru czasu z dokładnością do jednej dziesiątej cyklu pracy serca. Uczony przejawił także talent popularyzatorski, prezentując szerokiemu gronu odbiorców ideę kopernikańską. Spisał swe przemyślenia w formie dialogów wyimaginowanych postaci dyskutujących o nauce podczas przechadzek lub wspólnego ucztowania. Pisał to wszystko po włosku, a nie po łacinie, w której komunikowali się uczeni. Dzięki temu zyskał chwałę demokraty lekceważącego hierarchię kościelną i uniwersytecką, aby odwołać się bezpośrednio do inteligencji prostego człowieka. Choć Galileusz był błyskotliwym polemistą i eksperymentatorem, to olśniewające w jego pracach są zupełnie nowe pytania, jakie zadawał – częściowo dzięki wyzwoleniu się ze starożytnego dogmatu, który w spadku odziedziczył włoski renesans. Starożytne rozgraniczenie pomiędzy tym co boskie i co ziemskie na długo powstrzymywało ludzi od niezależnego myślenia, lecz na Galileuszu nie wywarło większego wrażenia. Leonardo da Vinci odkrył statyczny związek między proporcjami liczbowymi a harmonią, ale Galileusz szukał matematycznej harmonii w ruchu

obserwowanym codziennie, takim jak ruch wahadła i kul staczających się po równi pochyłej. Zanim zastosował demokratyczną strategię w komunikacji społecznej, miał już demokratyczny stosunek do Wszechświata. Unicestwił bowiem boskość nieboskłonu, gdy odkrył, że doskonałość zjawisk na niebie jest kłamstwem. Nie odkrył teleskopu i pewnie też nie był pierwszy, który spojrzał przezeń w niebo, ale jego wyjątkowy punkt widzenia i talent narobiły mnóstwo hałasu wokół tego, co tam ujrzał, a co dalekie było od doskonałości. Słońce miało plamy. Księżyc nie był kwintesencją doskonałej sfery, posiadał na powierzchni góry, jak Ziemia. Saturn ujawnił swój dziwny potrójny kształt. Jowisz miał księżyce, a poza tym udało się dostrzec znacznie więcej gwiazd niż te widoczne gołym okiem. Ów upadek boskości można było przewidzieć kilka lat wcześniej, w 1577 roku, gdy duński astronom Tycho Brahe obserwował kometę wdzierającą się do sfer niebieskich. Tycho był największym z ostatnich obserwatorów nieba okiem nieuzbrojonym. Wraz z pomocnikami dokonał w ciągu swego życia najdokładniejszych pomiarów ruchów planet. Pozostały one zapisane w jego księgach obserwacji nieopracowane aż do 1600 roku, gdy zatrudnił gniewnego, młodego asystenta, Johannesa Keplera. Planety poruszają się wzdłuż ekliptyki, ale nie dostrzegano w ich ruchach żadnej systematyczności.

Wszystkie wędrują w tym samym kierunku, ale od czasu do czasu zatrzymują się i zwracają przez jakiś czas w kierunku przeciwnym. Ten ruch wsteczny był dla starożytnych wielką zagadką. Jego realną przyczyną jest to, że Ziemia jest także planetą obiegającą Słońce, tak jak i inne planety. Planety wydają się zatrzymywać i zawracać tylko widziane z ziemskiej perspektywy. Mars porusza się po nieboskłonie w kierunku zachodnim, gdy nas wyprzedza, i odwraca swój bieg, a Ziemia go dogania. Jego ruch wsteczny jest po prostu efektem ruchu Ziemi, ale starożytni nie byli w stanie tego dostrzec, ponieważ trwali w fałszywym przekonaniu, że Ziemia tkwi nieruchomo w centrum Wszechświata. Jeśli jest ona nieruchoma, to postrzegany ruch planet musi być ich ruchem rzeczywistym, stąd starożytni astronomowie objaśniali ruch wsteczny jako dla nich naturalny. Aby tego dokonać, wymyślili bardzo dziwaczny ruch składający się z dwóch ruchów po okręgach; w jednym z nich planeta okrążała punkt w przestrzeni po mniejszym okręgu i jednocześnie ten punkt poruszał się po większym okręgu wokół Ziemi. Te małe koła zwane epicyklami miały okres zmienności równy jednemu rokowi ziemskiemu, były bowiem niczym innym niż odwzorowaniem ruchu Ziemi. Dalsze korekty ruchu planet wymagały dodawania nowych okręgów, w końcu aby wszystko się zgadzało, potrzeba było pięćdziesięciu pięciu okręgów. Dopasowując odpowiednie okresy ruchu do każdego

wielkiego okręgu, astronom z Aleksandrii, Ptolemeusz, stworzył model o bardzo wielkiej zgodności z pomiarami. Kilka wieków później pewien muzułmański astronom jeszcze dokładniej dostosował ten model do obserwacji i w czasach Tychona Brahe przewidział położenia planet, Słońca i Księżyca z dokładnością równą jednej tysięcznej – co pozostawało w doskonałej zgodności z obserwacjami Duńczyka. Model Ptolemeusza był matematycznie piękny, a jego sukces utwierdził astronomów i teologów na więcej niż tysiąc lat, że te założenia są poprawne. Jak mogliby się mylić? Przecież model został potwierdzony przez obserwacje.

Rysunek 2. Schemat Wszechświata według wizji Ptolemeusza22.

Płynie stąd nauka, że ani matematyczne piękno, ani zgodność z eksperymentem nie gwarantują, że idea, na której bazuje teoria, ma nawet najmniejsze odniesienie do rzeczywistości. Czasami odczytywanie prawidłowości natury prowadzimy w złym kierunku. Czasami ulegamy potężnym złudzeniom jako zwykli ludzie, a czasami jako całe społeczeństwa. Ptolemeusz i Arystoteles nie byli gorszymi uczonymi niż dzisiejsi.

Mieli po prostu pecha, ponieważ jednocześnie kilka fałszywych hipotez nałożyło się na siebie. Nie ma antidotum na złudzenia, można jedynie podtrzymywać proces poznania naukowego, tak aby błędy w końcu musiały wyjść na światło dzienne. Kopernikowi przypadło rozszyfrowanie konsekwencji faktu, że wszystkie epicykle mają ten sam okres i poruszają się w fazie z orbitą Słońca. Ustawił on Ziemię na miejscu jej właściwym, jako planetę, a Słońce w okolicy centrum Wszechświata. Znacznie uprościło to model, lecz wprowadziło takie napięcia, których starożytna kosmologia nie mogła przetrwać. Dlaczego sfera ziemska musi być inna od tych niebieskich, jeśli Ziemia jest tylko jedną z planet poruszających się po nieboskłonie? Jednak Kopernik był konserwatywnym rewolucjonistą i dlatego nie dostrzegł innych wskazówek. A jedną z nich było to, że nawet gdy uwzględnimy ruch Ziemi, to jej orbita nie była doskonałym okręgiem. Nie mogąc odrzucić idei, że ruchy po nieboskłonie muszą odbywać się po okręgach, rozwiązał problem tak, jak dokonał tego Ptolemeusz czternaście wieków przed nim. Wprowadził epicykle, aby teoria zgadzała się z wynikami obserwacji. Orbita Marsa najmniej przypominała okrąg. I dlatego Kepler miał ogromne szczęście – a wraz z nim cała nauka – że Brahe dał mu zadanie określenia orbity Marsa, i po wielu latach pracy już po opuszczeniu jego

obserwatorium Kepler dowiódł, że Mars porusza się w przestrzeni po elipsie, a nie po okręgu. Było to rewolucyjne odkrycie, którego znaczenia nie pojmie współczesny czytelnik. W kosmologii, w której Ziemia stanowiła centrum Wszechświata, planety nie poruszają się po krzywych zamkniętych żadnego rodzaju, ponieważ ich tory względem Ziemi składają się z dwóch ruchów po okręgu z różnymi okresami. Tylko gdy jako punkt odniesienia wyznaczymy Słońce, orbity planet stają się krzywymi zamkniętymi. Jedynie wtedy pytanie o kształt orbity ma sens. Tak więc umieszczenie Słońca w centrum pogłębiło harmonię świata. Gdy już zrozumiano, że orbity planet są elipsami, teoria Ptolemeusza legła w gruzach. Pojawiła się natychmiast masa nowych pytań: Dlaczego planety poruszają się po orbitach eliptycznych? I co powoduje, że wciąż trzymają się razem? Co zmusza je w ogóle do ruchu, zamiast zajmowania statycznych położeń w przestrzeni? Odpowiedź Keplera była oparta na domyśle, który okazał się połowicznie prawdziwy: To siła pochodząca ze Słońca zmusza planety do ruchu po orbitach. Wyobraźmy sobie Słońce jako obracającą się ośmiornicę, która ramionami ciągnie planety podczas swego obrotu. Właśnie wtedy po raz pierwszy padła sugestia, że Słońce jest źródłem siły, która wprawia planety w ruch. Tyle że kierunek siły okazał się błędnie określony. Brahe i Kepler zniszczyli sfery niebieskie, a czyniąc

to, zunifikowali świat. Ta unifikacja ma ogromne implikacje dla zrozumienia istoty czasu. W kosmologii Arystotelesa i Ptolemeusza domena pozaczasowa otacza ziemską. Wzrost, rozpad, przemiany, wszystkie oznaki istnienia świata ograniczonego czasowo są zamknięte w małej domenie leżącej poniżej Księżyca. A ponad nią odbywa się doskonały ruch kołowy, niezmienny i wieczny. Teraz, gdy znika sfera oddzielająca wszystko, co ograniczone czasowo od tego co wieczne, może pozostać tylko jedno pojęcie czasu. Czy ten nowy świat jest cały czasowo ograniczony, a Wszechświat może się zarówno rozwijać, jak i zniknąć? Albo może pozaczasowa doskonałość zostaje rozszerzona na cały Wszechświat, tak aby przemiany, narodziny i śmierć mogły być postrzegane jedynie jako iluzja? Wciąż zmagamy się z tym problemem. Kepler i Galileusz nie odkryli tajemnicy związku między boską, pozaczasową matematyką a realnym światem, w którym żyjemy. Oni tę tajemnicę pogłębili. Zniszczyli bowiem barierę oddzielającą nieboskłon od Ziemi, umieszczając na nim Ziemię jako jedną z boskich planet. Odkryli, że tory, po których poruszają się ciała na Ziemi i planety wokół Słońca, są krzywymi matematycznymi. Nie potrafili jednak usunąć fundamentalnego rozdźwięku między ograniczoną czasowo rzeczywistością a pozaczasową matematyką. W połowie XVII wieku uczeni i filozofowie mieli trudny wybór. Albo świat jest istotnie matematyczny,

albo istnieje w czasie. Natura rzeczywistości oczekiwała swego rozwiązania, a nie wiedziano, którą wskazówkę uwzględnić. Kepler odkrył, że planety wędrują po elipsach. Galileusz – że spadające ciała poruszają się po paraboli. Każda z tych wskazówek była prostą matematyczną krzywą i każda stanowiła częściowe rozwiązanie zagadki ruchu. Oddzielnie zaś oznaczała bardzo ważne odkrycie, a razem były one zaczynem rewolucji naukowej, która już zaczynała zakwitać. Nie przypomina to współczesnej fizyki teoretycznej. Mamy dwa wielkie odkrycia, teorię kwantów i ogólną teorię względności, które chcemy zunifikować. Ponieważ przez większość swego życia usiłowałem rozwiązać ten problemem, jestem pełen podziwu dla tego, co zdołaliśmy osiągnąć. Jednocześnie mam wrażenie, że bardzo prosta idea, która może być kluczem do rozstrzygnięcia, ukryta jest tuż przed naszym nosem. To dość upokarzające, że postęp może być uzależniony od oczekiwania na pojawienie się jakiejś idei, ale wcześniej tak już się zdarzało. Rewolucja naukowa rozpoczęta prostymi odkryciami Galileusza i Keplera bardzo długo oczekiwała na swój debiut z powodu założenia, że Wszechświat jest podzielony na domenę ziemską i niebieską. To przekonanie powstrzymywało zastosowanie matematyki w domenie niższej, podczas gdy zrozumienie domeny wyższej udaremniała wiara, że nie ma potrzeby szukania przyczyn doskonałości ruchu ciał niebieskich.

Ciekaw jestem, co mogłoby się wydarzyć, gdyby te dwa podstawowe błędy koncepcyjne nie zdominowały na prawie tysiąc lat umysłów wybitnie utalentowanych ludzi, w których zasięgu była ta sama matematyka i dane, jakimi dysponował Galileusz. Hellenistyczny albo muzułmański astronom mógł z powodzeniem dokonać takich odkryć jak Kepler, gdyby miał dane o tysiąc lat wcześniejsze niż Brahe. Pomysł, że Ziemia okrąża Słońce, wcale nie musiał czekać na Kopernika. Był tuż przed nosem, od czasu gdy ogłosił go Arystarch w III wieku przed naszą erą. Jego heliocentryczną kosmologię omawiali Ptolemeusz i inni; była ona znana tak wielkim uczonym jak Hypatia, wspaniała matematyczka i filozofka żyjąca w Aleksandrii w latach 360–415 naszej ery. Przypuśćmy, że ona lub któryś z jej zdolnych studentów odkryli prawa spadania ciał Galileusza albo eliptyczne orbity Keplera23. Pojawiłby się ktoś na miarę Newtona w VI wieku naszej ery, a rewolucja naukowa zaczęłaby się całe tysiąc lat wcześniej. Historycy mogliby oponować, że Kopernik, Galileusz i Kepler nie zdołaliby dokonać swych odkryć, zanim renesans wyzwolił myślicieli z dogmatyzmu średniowiecza. Jednakże czasów Hypatii nie przysłoniło jeszcze średniowiecze, a walka zwolenników nauki greckiej z fundamentalistami religijnymi nie zabiła ducha racjonalnych poszukiwań naukowych. Historia mogłaby potoczyć się całkiem inaczej, gdyby ktoś

w należącej do Rzymu Aleksandrii albo w innym kwitnącym centrum naukowym islamu kilka wieków później odrzucił pogląd o geocentrycznym charakterze Wszechświata. A jednak najtęższe umysły nie były zdolne do dokonania skoku koncepcyjnego polegającego na wyobrażeniu sobie praw matematycznych rządzących ruchem w sferze ziemskiej albo dynamiką sfer niebieskich. Dopiero obalenie granicy pomiędzy tymi dwoma światami umożliwiło Galileuszowi i Keplerowi dokonanie ich odkryć. Nawet oni nie mogli uczynić następnego kroku polegającego na skojarzeniu ziemskiej paraboli i planetarnej elipsy. Do tego już potrzebny był Izaak Newton. Żyjąc już po runięciu granicy pomiędzy tymi światami, Galileusz i Kepler mogli zadać pytanie, czy rzucenie jakiegoś przedmiotu z wystarczającą siłą spowoduje jego orbitowanie, a spowolnienie ruchu orbitującego obiektu doprowadzi do jego spadku. Dla nas jest jasne, że to jedno zjawisko, a nie dwa rozdzielne, ale owi uczeni tak tego nie widzieli. Czasami potrzeba wielu generacji, aby dojrzeć proste implikacje nowych odkryć. Pół wieku później Newton zrozumiał, że ruch po orbicie jest pewną formą spadania, i zakończył unifikację domeny niebieskiej z ziemską. Wskazówką była matematyczna jedność krzywych, które opisują ruch. Elipsy były orbitami, a parabole torami spadających na Ziemię ciał. Te dwie krzywe są

ze sobą ściśle związane. Obie można utworzyć przez cięcie stożka płaszczyzną. Krzywe zbudowane w taki sposób nazywane są krzywymi stożkowymi. Innymi przykładami krzywych stożkowych są okręgi i hiperbole. Pytanie, jakie sobie zadawano w drugiej połowie XVII wieku, zmierzało do odkrycia jedności fizycznej wyjaśniającej tę matematyczną jedność. Spostrzeżenie, które pchnęło Newtona do rozpoczęcia rewolucji naukowej, dotyczyło natury, a nie matematyki, i nie był on jedyny, który na to wpadł. Kilku jemu współczesnych dostrzegło też, że siła, która powoduje spadanie wszystkiego na Ziemię, jest uniwersalna i działa także na planety, przyciągając je ku Słońcu, a Księżyc ku Ziemi. Jest nią grawitacja. Newton, jeśli wierzyć legendzie, wpadł na ten pomysł, gdy ujrzał spadające jabłko, siedząc w swym ogrodzie i rozważając zagadnienie ruchu Księżyca. Aby zagadnienie uczynić bardziej ogólnym, zadał sobie ważne pytanie. Jak wraz ze zmianą odległości zmienia się ta siła działająca pomiędzy ciałami? Na pewno musiała się zmniejszać, bo w przeciwnym razie bylibyśmy przyciągani w górę ku Słońcu zamiast w dół ku Ziemi. I w jaki sposób ta siła wywołuje ruch? Inni, tak jak współczesny Newtonowi Robert Hooke, też zadawali sobie te pytania, ale zasługa Newtona tkwi w udzieleniu na nie odpowiedzi. Trzeba było na nie poczekać dwadzieścia lat, aby w wyniku powstała teoria

ruchu i sił znana teraz pod nazwą fizyki newtonowskiej.

Rysunek 3. Przekroje stożka płaszczyzną zilustrowane przez wiązkę światła z latarki padającą na ścianę

Najistotniejszą cechą tych odpowiedzi jest to, że można je wyrazić w postaci matematycznej. Prostym wzorem można opisać, jak zmniejsza się siła wraz ze wzrostem odległości między ciałami. Poprawną

odpowiedź zna każdy uczeń z pierwszych lekcji fizyki. Brzmi ona, że siła zmienia się odwrotnie proporcjonalnie do kwadratu odległości. Zadziwiającą konsekwencją naszej koncepcji natury jest to, że tak prosta relacja matematyczna opisuje tak powszechne zjawisko przyrody. Natura nie musi być tak zadziwiająco prosta i dlatego starożytni nigdy nie rozważali tego oczywistego i jednocześnie uniwersalnego zastosowania matematyki w badaniu przyczyn ruchu. Aby zdać sobie sprawę z przyczyn ruchu, musimy rozważyć obiekt poruszający się w przestrzeni po krzywej. Teraz pojawia się następujące pytanie, jak kształt krzywej zależy od tego, czy na ów obiekt działa siła czy też nie. Odpowiedź kryje się w dwóch pierwszych zasadach dynamiki Newtona. Jeśli na ciało nie działa siła, to porusza się ono po linii prostej. Jeśli zaś na nie działa, to powoduje ona przyspieszanie ciała. Nie sposób wyrazić tych dwóch zasad bez użycia matematyki. Linia prosta jest idealnym obiektem matematycznym. Nie jest on z naszego świata, jego światem jest platoński świat idealnych krzywych. A czym jest przyspieszenie? To tempo zmiany prędkości, która sama z definicji jest tempem zmiany położenia. Aby to odpowiednio opisać, Newton musiał stworzyć zupełnie nową gałąź matematyki, rachunek różniczkowy. Gdy już ma się odpowiednie narzędzia matematyczne, można rozpocząć badanie konsekwencji. Jedno

z pierwszych pytań, na które musiał odpowiedzieć Newton, gdy już posiadł nowe narzędzie matematyczne24, dotyczyło tego, jaka krzywa opisuje orbitę planety krążącej pod wpływem siły Słońca, malejącej wraz z odwrotnością kwadratu odległości planety. Odpowiedź brzmiała: może to być elipsa, parabola lub hiperbola, w zależności od tego, czy planeta zajmuje orbitę zamkniętą czy też jednorazowo przelatuje obok Słońca. Newton zdołał także ująć w swym prawie powszechnej grawitacji25 regułę spadania ciał sformułowaną przez Galileusza. W ten sposób Galileusz i Kepler obserwowali odmienne aspekty tego samego zjawiska, którym jest grawitacja. W historii nauki niewiele jest osiągnięć tak wielkich jak odkrycie owego związku między spadaniem a ruchem po orbicie. Osiągnięcie Newtona ma jeszcze jedną niezamierzoną konsekwencję – oto nasza koncepcja natury stała się o wiele bardziej matematyczna niż przedtem. Arystoteles i mu współcześni opisywali ruch za pomocą pojęcia skłonności, obiekty ziemskie miały skłonność poruszania się ku centrum Ziemi, powietrze miało skłonność do unikania centrum, i tak dalej. Ich nauka była w istocie opisowa. Nie istniała jakakolwiek sugestia, że tory, po których poruszają się ciała, mają jakieś specjalne właściwości, i dlatego nie było zainteresowania stosowaniem matematyki do opisu

ruchu ciał na powierzchni Ziemi. Matematyka, będąc pozaczasowa, wydawała się dziedziną boską i miała zastosowanie tylko do boskich i pozaczasowych zjawisk, które możemy obserwować w niebiosach. Gdy Galileusz odkrył, że spadające ciała poruszają się wzdłuż matematycznej krzywej, uchwycił pewien aspekt boskości, sprowadził go z niebios na ziemię i pokazał, że można go zaobserwować w ruchu każdego obiektu na Ziemi. Newton zaś dowiódł, że ogromna różnorodność ruchów na Ziemi i na niebie, spowodowanych przez grawitację albo inne siły, jest manifestacją skrywanej jedności. Różnorodne ruchy są konsekwencją pojedynczego prawa ruchu. Odkąd Newton połączył ze sobą ruchy na niebie i na Ziemi, zaczęliśmy żyć w jednym zunifikowanym świecie. I jest to świat, w który tchnięto boskość, ponieważ pozaczasowa matematyka leży u podstaw wszystkiego, co się porusza, na Ziemi lub na niebie. Jeśli wieczność i pozaczasowość są aspektami boskości, to nasz świat – to znaczy cała historia naszego świata – może być równie wieczny i tak boski jak matematyczna krzywa. 19 Można się zastanawiać, czy wszyscy w antycznych czasach zauważyli, że woda w fontannie tryska w kształcie paraboli. Na greckich wazach można zauważyć rysunki ukazujące wodę z fontann spadającą torem podobnym do paraboli, dlatego niemożliwe wydaje się, aby matematycy nie zaobserwowali tego zjawiska i nie zastanawiali się, czy ogólnie spadające ciała podążają torem

parabolicznym. 20 Arystoteles, Dzieła wszystkie, Tom II. O niebie, Księga I, rozdział 3, s. 240, przeł. Paweł Siwek, Wydawnictwo Naukowe PWN, Warszawa 2003. 21 Wiem o kilku matematykach i fizykach, którzy musieli wybierać pomiędzy karierą muzyka i naukowca. Jednym jest João Magueijo, który kształcił się w komponowaniu współczesnej muzyki klasycznej, zanim zdecydował się zamienić te studia na fizykę. Jako osoba bardzo radykalna w swych poglądach mówi, że od tego czasu nie tknął fortepianu. Znajomość z nim pomogła mi wyobrazić sobie postać Galileusza. 22 Zdjęcie pochodzi z: Peter Apian, Cosmographia (1539). Przedruk w: Alexandre Koyré, Od zamkniętego świata do nieskończonego wszechświata, przeł. Ola i Wojciech Kubińscy, Słowo/Obraz Terytoria, Gdańsk 1998. 23 Sugerowane w filmie Agora hiszpańsko-chilijskiego reżysera Alejandro Amenábara (2009 r.). 24 Gdy Newton przedstawił konsekwencje swych praw ruchu w Principia mathematica, użył znacznie prostszej matematyki niż analiza matematyczna, którą wynalazł znacznie wcześniej. 25 Rozważmy piłkę spadającą przy powierzchni Ziemi. Jest przyciągana przez każdy z atomów, z jakich składa się Ziemia. Kluczowym spostrzeżeniem Newtona było to, że wszystkie te siły mogą być razem zsumowane, tak aby w rezultacie wyglądało, iż istnieje jeden obiekt przyciągający umiejscowiony w środku Ziemi.

Rozdział 3

Gra w łapanie piłki Aby dalej zajmować się zagadnieniami opisanymi w dwóch pierwszych rozdziałach, musimy dowiedzieć się więcej o tym, jak definiować ruch. Ależ to nic prostszego, ruch to zmiana położenia zachodząca w miarę upływu czasu. W takim razie czym jest położenie i czas? Na pozornie niewinne pytanie o definicję położenia fizycy mają dwie odpowiedzi. Pierwsza to zdroworozsądkowy pomysł, że położenie obiektu definiuje się względem jakiegoś punktu orientacyjnego; druga opiera się na założeniu, że położenie w przestrzeni jest absolutne, nie ma związku z czymkolwiek innym. Są to pojęcia przestrzeni relacyjnej i absolutnej. Pojęcie względności położenia jest nam wszystkim znane. Znajduję się teraz metr od mego fotela. Samolot podchodzi do lądowania od wschodu i znajduje się obecnie dwa kilometry od progu pasa numer

1 na wysokości 300 metrów. To opis położenia względnego. Wydaje się jednak, że w położeniu względnym coś pomijamy. Względem czego ostatecznie określamy położenie? Określiliśmy je względem Ziemi, ale gdzie znajduje się Ziemia? Wiele kilometrów od Słońca w kierunku gwiazdozbioru Wodnika. A gdzie jest Słońce? Wiele lat świetlnych od centrum Drogi Mlecznej. I tak dalej. Postępując w ten sposób, można określić położenie wszystkiego we Wszechświecie względem wszystkiego innego. To ogromnie wiele informacji, ale czy wystarczy? Czy istnieje jakieś absolutne określenie położenia – gdzie coś naprawdę się znajduje, poza tymi relacjami względem czegokolwiek? Przez całą historię fizyki przewija się debata między zwolennikami pojęcia przestrzeni absolutnej a zwolennikami pojęcia względności przestrzeni. Fizyka newtonowska była triumfem przestrzeni absolutnej, ale Einstein obalił ją dzięki teorii względności i ugruntował pogląd o względności przestrzeni. Ja wierzę, że względność przestrzeni jest prawdziwa, i mam nadzieję, że przekonam o tym czytelnika. Chcę wam też uzmysłowić, co poświęcamy, opowiadając się za jej względnością, oraz dlaczego wielcy uczeni z Newtonem na czele uznali, że przestrzeń jest absolutna. Aby zdać sobie sprawę z tego, jak Newton rozumiał to zagadnienie, powinniśmy wziąć pod uwagę nie tylko

położenie, lecz także ruch. Nie zajmujmy się na razie czasem i zastosujmy to, co omawiałem. Jeśli położenie jest względne, to ruch jest zmianą względnego położenia – to znaczy zmianą położenia względem jakiegoś wyróżnianego ciała. Stereotypowe przykłady ruchu dotyczą ruchu względnego. Galileusz zajmował się spadaniem ciał na powierzchnię Ziemi. Ja rzucam piłkę i patrzę, jak oddala się ode mnie. Ziemia porusza się wokół Słońca. To wszystko przykłady ruchu względnego. Konsekwencją względności ruchu jest to, że od punktu widzenia zależy, kto lub co się porusza. Ziemia i Słońce krążą wokół siebie, ale które z nich naprawdę się porusza? Czy realne jest to, że Słońce porusza się wokół Ziemi leżącej w ustalonym położeniu, w centrum Wszechświata? A może to Słońce jest nieruchome, a Ziemia krąży wokół niego? Jeśli ruch jest tylko względny, to nie ma dobrej odpowiedzi na takie pytania. Trudno wyjaśnić przyczynę ruchu, jeśli wszystko albo się porusza, albo jest w bezruchu. Jak coś może być przyczyną ruchu Ziemi wokół Słońca, jeśli istnieje inny równoprawny punkt widzenia, zgodnie z którym Ziemia wcale się nie porusza? Jeśli ruch jest względny, to obserwator ma prawo uważać, że cały ruch odbywa się względem niego. Aby rozwiązać ten impas i móc powiedzieć coś o przyczynach ruchu, Newton zaproponował, że musi istnieć pojęcie położenia

absolutnego. Według niego było to położenie względem „przestrzeni absolutnej”. Względem tej przestrzeni absolutnej ciała poruszają się albo i nie, w sensie absolutnym. Newton przekonywał, że to Ziemia, a nie Słońce, porusza się w sensie absolutnym. Postulat przestrzeni absolutnej pozwolił uniknąć kolejnych odniesień ruchu do dalszych i dalszych obiektów i nadał znaczenie położeniu wszystkiego we Wszechświecie. Może i jest to bardzo wygodne pojęcie, ale istnieje jeden problem. Gdzie jest ta absolutna przestrzeń i jak można zmierzyć położenie ciała względem niej? Nikt dotąd nie widział przestrzeni absolutnej ani jej nie odkrył. Nikt dotąd nie zmierzył położenia, które nie byłoby względne. A zatem zagadnienia fizyki związane z absolutnym położeniem w przestrzeni nie mogą łączyć się z eksperymentem. Newton był tego świadomy, ale nie sprawiało mu to kłopotu. Był głęboko religijnym myślicielem i przestrzeń absolutna miała dla niego znaczenie teologiczne. W aspekcie boskim świat był przestrzenią absolutną, i tylko to dla uczonego się liczyło. Ujmował tę ideę nawet jeszcze bardziej zdecydowanie: przestrzeń była jednym z boskich zmysłów. W przestrzeni tkwią obiekty, ponieważ istnieją w boskim umyśle. Idea ta nie jest tak dziwna, jak się wydaje, gdy mamy do czynienia z badaczem zamysłu boskiego takim jak Newton. Wiele lat poświęcił on analizie ukrytego

znaczenia proroctw Pisma Świętego, a jako alchemik poszukiwał ukrytych zasad cnoty, a może i nieśmiertelności. Jako fizyk odkrył powszechne prawa rządzące ruchem we Wszechświecie. Wierzył, że istota przestrzeni jest ukryta przed naszymi zmysłami, ale widoczna dla Boga. Miał ponadto argument fizyczny przemawiający za przestrzenią absolutną. Pewne rodzaje ruchu względem niej mogą być bowiem postrzegane ludzkimi zmysłami, nawet jeśli nie jest to możliwe w odniesieniu do położenia w przestrzeni absolutnej. Dzieci nie potrafią latać, ale potrafią się kręcić. I często się tak bawią. Nic nie odda radości malującej się na twarzy dziecka, gdy odkrywa ono, że na skutek obrotu wokół własnej osi może mu się zakręcić w głowie. Wówczas powtarza zabawę, raz za razem. Newton nie miał dzieci, ale lubię sobie wyobrażać, jak z niemym zdziwieniem obserwuje swą małą siostrzenicę Catherine wirującą wokół w jego gabinecie. Uczony bierze śmiejącą się i zataczającą dziewczynkę na kolana i wyjaśnia, że zawrót głowy jest bezpośrednim odczuciem absolutnego charakteru przestrzeni. A przestrzeń absolutna to Bóg. „Kręci ci się w głowie, bo to ręka boska na niej spoczywa”, wyjaśnia. Ona chichocze, wywija się, a on stara się wytłumaczyć, że kręci jej się w głowie nie na skutek ruchu względem mebli albo domu, albo kota, ale dlatego, że obraca się względem samej przestrzeni. A jeśli przestrzeń może ją

przyprawić o zawrót głowy, to musi być czymś bardzo realnym. Dziewczynka pyta „dlaczego?” i zeskakuje z jego kolan, aby popędzić za kotem umykającym z pokoju. Pozostawmy tam Newtona rozmyślającego nad grawitacją oraz życiem i śmiercią i powróćmy do pytania, jak definiuje się ruch. Gdy mówimy, że coś się porusza, mamy na myśli, że to coś zmienia swe położenie w miarę upływu czasu. To podejście zdroworozsądkowe, ale aby zrozumieć je dokładnie, musimy jeszcze wiedzieć, czym jest czas. I tu napotykamy ten sam dylemat co w wypadku rozróżnienia między przestrzenią absolutną a względną. Ludzki umysł postrzega czas jako zmianę. Czas trwania zdarzenia jest mierzony względem innych zdarzeń – na przykład położenia wskazówek zegara. Odczytując wskazania zegara lub kalendarza, otrzymujemy czas względny, tak jak podanie adresu określa położenie względne. Natomiast Newton wierzył, że za zmianą ukryty jest czas absolutny, który tylko Bóg jest w stanie postrzegać. Oto posmak debaty o zagadnieniu czasu absolutnego, jaka rozgorzała od tamtej pory. Rywal Newtona Gottfried Leibniz także wierzył w Boga, ale jego Bóg nie był tak wolny jak Bóg Newtona. Leibniz wierzył w Boga w pełni racjonalnego. Jeśli zaś Bóg jest całkowicie racjonalny, to wszystko w naturze musi mieć swój powód. Jednym ze sposobów wyrażenia tego faktu jest przyjęcie, że na każde pytanie w postaci „dlaczego

Wszechświat jest taki, a nie inny?” musi istnieć racjonalna odpowiedź. Oczywiście, że są pytania, na które nie można dać żadnej racjonalnej odpowiedzi. Leibnizowi jednak chodziło o to, że błędne myślenie polega na zadawaniu pytań, na które nie można znaleźć racjonalnie uzasadnionej odpowiedzi. Tak zilustrował swoją zasadę: zadał pytanie: „Dlaczego Wszechświat powstał wtedy, gdy powstał, a nie dziesięć minut później?”. Odpowiedział, że nie może być żadnego racjonalnego powodu, aby przedkładać historię Wszechświata nad tę, w której wszystko zaszło dziesięć minut później. Wszystkie czasy względne są takie same w obu wszechświatach, tylko czasy absolutne są inne. Prawa natury zaś mówią tylko o czasach względnych. W rezultacie, jak dowodzi Leibniz, jeśli nie ma powodu, aby przedkładać moment powstania Wszechświata w jakimś czasie absolutnym nad powstanie go w innym, to czas absolutny nie może mieć żadnego znaczenia. Przyjmuję rozumowanie Leibniza, dlatego kiedykolwiek będę odwoływał się do pojęcia czasu, to będę miał na myśli czas względny. Chociaż wolno nam dyskutować, czy czas absolutny może istnieć w jakimś transcendentnym znaczeniu, jedno jest pewne, my, ludzie żyjący w realnym świecie, odczuwamy tylko upływ czasu względnego. A więc w opisie ruchu będziemy uwzględniać tylko czas mierzony przez zegary. Dla naszych celów zegar jest każdym urządzeniem

odczytującym rosnące ciągi liczbowe. A teraz, gdy już zdefiniowaliśmy położenie i czas, możemy przejść do ruchu. Ruch to zmiana położenia, mierzonego względem jakiegoś punktu odniesienia, w określonym interwale czasu, mierzonym względem odczytu zegara. Wiedzie to do następnego, ważnego punktu naszej argumentacji. Badania naukowe nie sprowadzają się jedynie do tworzenia definicji i rozważania koncepcji. Musimy umieć mierzyć ruch. A to oznacza użycie przyrządów takich jak zegary i linijki w celu nadania położeniom i czasom wartości liczbowych. W przeciwieństwie do położenia absolutnego, które jest niewidoczne, odległości względne i czasy względne mogą być mierzone przy użyciu liczb, a w rezultacie zapisane na kartce papieru albo w pamięci cyfrowej. W ten sposób obserwacje ruchu są przekształcane w tabele liczbowe, które mogą być badane metodami matematycznymi. Jedną z takich metod jest graficzny obraz zapisu przekształcający tabelę liczbową w obrazek, który może pobudzić nasz rozum i wyobraźnię. Ta bardzo owocna metoda zapoczątkowana przez Kartezjusza obecnie jest przekazywana w każdej szkole. Bez wątpienia mógł ją zastosować Kepler, gdy zmagał się z danymi orbity Marsa pozostawionymi przez Tychona Brahe. Na rysunku 4 widzimy obraz orbity Księżyca wokół Ziemi.

Rysunek 4. Księżyc okrążający Ziemię

W szkole nauczono nas innej metody wizualizacji ruchu, dodania osi czasu i wyznaczania położenia względem czasu. Prowadzi to do orbity jako krzywej w czasie i przestrzeni, tak jak na rysunku 5. Widzimy, że teraz orbita jest krzywą zwaną linią śrubową; gdy Księżyc powraca do swego początkowego położenia, upływa miesiąc.

Rysunek 5. Wykres orbity Księżyca jako krzywej w przestrzeni i czasie

Zauważmy, że dzięki graficznemu zapisowi wyników obserwacji dokonuje się cudownej rzeczy. Krzywa na rysunku 5 reprezentuje pomiary czegoś, co ewoluowało w czasie, ale pomiary same w sobie są bezczasowe – to znaczy, gdy są dokonane, nie zmieniają się. I krzywa, która je wyraża, też jest bezczasowa. Za pomocą tych środków przekształciliśmy ruch – to znaczy zmianę w świecie – w obiekt badań matematyki, a matematyka bada obiekty niezmienne.

Zdolność do takiego zatrzymania czasu jest wielce pomocna w badaniach naukowych, ponieważ nie musimy obserwować ruchu zachodzącego w czasie realnym; możemy badać zapisy dowolnych ruchów z przeszłości. Poza swą użytecznością ten wynalazek ma bardzo głębokie konsekwencje filozoficzne, ponieważ wspiera argument, że czas jest iluzją. Metoda zatrzymania czasu daje tak dobre wyniki, że większość fizyków jest nieświadoma, iż zostali poddani sztuczce mającej wpływ na ich rozumienie natury. Sztuczka ta w dużej mierze przyczyniła się do wykluczenia czasu z opisu natury, ponieważ skłania nas do zastanawiania się nad współzależnością między tym, co jest bytem realnym, a tym, co jest obiektem matematycznym, tym, co jest ograniczone w czasie, i tym, co jest bezczasowe. Ta współzależność jest tak ważna, że chcę ją omówić na przykładzie wziętym z życia codziennego. Wszystkie ważkie zagadnienia poruszone wyżej możemy poznać na przykładzie zabawy, w której rzucamy i łapiemy piłkę. Czwartego października 2010 roku około trzynastej piętnaście na wschodnim krańcu High Parku w Toronto powieściopisarz Danny rzucił piłkę tenisową, znalezioną tego ranka w szufladzie ze skarpetkami, do poetki Janet, którą dopiero co poznał. Aby zbadać rzut Danny’ego jak fizycy, zrobimy to co Kepler i Brahe w odniesieniu do Marsa. Będziemy śledzić ruch i zapisywać położenia piłki w kilku

chwilach, a potem wykreślimy otrzymane rezultaty. Aby tego dokonać, musimy określić położenie piłki względem jakiegoś obiektu, którym może być sam Danny. Potrzebny będzie nam także zegar.

Rysunek 6. Pomiar rzutu Danny’ego

Piłka porusza się szybko, dlatego był to taki problem dla Galileusza, ale możemy po prostu sfilmować rzut Danny’ego i zmierzyć położenie piłki w każdej klatce oraz chwilę, w której ta klatka została naświetlona. Położenie piłki w każdej klatce określamy dwoma

liczbami, wysokością, na jakiej znajduje się piłka względem podłoża, i odległością, jaką przebyła od Danny’ego. (Przestrzeń jest oczywiście trójwymiarowa, dlatego musimy także określić kierunek, w jakim Danny rzucił piłkę. Tutaj zignoruję tę komplikację i dodam tylko, że rzucił w kierunku południowym). Gdy uwzględnimy czas, w jakim została wykonana każda klatka, zapis trajektorii piłki będzie się składał z ciągu trójek liczbowych, po jednej trójce dla każdej klatki. (czas 1, wysokość 1, odległość 1) (czas 2, wysokość 2, odległość 2) (czas 3, wysokość 3, odległość 3) I tak dalej. To zestawienie liczb jest bardzo ważnym narzędziem naukowego badania ruchu, ale samo w sobie nie jest ruchem. To tylko liczby, którym nadajemy sens pomiarem położenia piłki w zadanej chwili. Realne zjawisko różni się w kilku aspektach od tego zestawu liczb. Na przykład nie uwzględniliśmy wielu cech samej piłki. Zanotowaliśmy tylko jej położenie, ale piłka ma także kolor, wagę, kształt, wielkość i skład chemiczny materiału, z jakiego jest wykonana. Co ważniejsze, zjawisko zaszło w czasie, zaszło raz i przeszło do przeszłości. To, co pozostało, jest zapisem, jest zatrzymane, jest niezmienne. Następnym krokiem jest zamiana informacji w wykres. Rysunek 7 przedstawia tor lotu piłki

w przestrzeni. Widzimy, że leci ona po paraboli, tak jak przewidział Galileusz.

Rysunek 7. Zarejestrowany i wykreślony rzut Danny’ego

Widzimy ponownie, że utrwalenie ruchu odbywającego się w czasie w wyniku daje zapis, który jest niezmienny w czasie – i który można przedstawić za pomocą krzywej, też niezmiennej w czasie. Niektórzy filozofowie i fizycy traktują to jak uzyskanie wglądu w istotę rzeczywistości. Inni dowodzą

czegoś zupełnie odwrotnego – że matematyka jest tylko narzędziem, którego przydatność nie wymaga nadawania światu cech obiektu matematycznego. Te dwie postawy nazwiemy: mistyczną i pragmatyczną. Pragmatyk będzie dowodzić, że nie ma nic złego w badaniu hipotez o ruchu za pomocą przekształcania go w tabele liczbowe i poszukiwania w nich prawidłowości. Jednak będzie też podkreślać, że matematyczna reprezentacja ruchu w postaci krzywej nie oznacza, iż ruch jest w jakiś sposób identyfikowany z jego reprezentacją. Sam fakt, że zachodzi on w czasie, podczas gdy jego matematyczna reprezentacja jest pozaczasowa, wskazuje, że nie są to te same rzeczy. Już od czasów Newtona niektórzy fizycy przyjęli mistyczny pogląd, że krzywa matematyczna jest „bardziej rzeczywista” niż sam ruch. Bezczasowość rzeczywistości matematycznej, stanowiąca przeciwieństwo serii chwilowych zdarzeń, sprawia, że koncepcja ta jest wielce atrakcyjna. Ulegając pokusie połączenia rzeczywistości z jej reprezentacją matematyczną, identyfikacji wykresu graficznego z samym zjawiskiem ruchu, uczeni ci uczynili wiele, aby wykluczyć czas z fizycznej koncepcji zjawisk przyrody. Zamęt powiększa się, gdy zaczynamy przedstawiać czas jako jedną z osi na wykresie, tak jak na rysunku 5. Na rysunku 8 pokazano informacje o torze lotu piłki łącznie z odczytami zegara, jakby to były pomiary dokonane za pomocą linijki. Można to nazwać

uprzestrzennieniem czasu.

Rysunek 8. Rzut Danny’ego wykreślony w postaci krzywej położonej w przestrzeni i czasie

Połączenie matematycznych reprezentacji przestrzeni i czasu, wyrażonych za pomocą osi, można nazwać czasoprzestrzenią. Pragmatyk będzie uparcie twierdził, że czasoprzestrzeń nie jest światem rzeczywistym. To czysto ludzki pomysł, jeszcze inna reprezentacja zapisu rzutu piłką. Jeśli mylimy czasoprzestrzeń z rzeczywistością, to popełniamy błąd w rozumowaniu,

który możemy nazwać błędem uprzestrzennienia czasu. To konsekwencja nieodróżniania zapisu ruchu w czasie od samego czasu. Gdy już popełni się ten błąd, można śmiało fantazjować o wszechświecie bezczasowym, a nawet będącym samą matematyką. Jak jednak utrzymują pragmatycy, bezczasowość i matematyka są własnościami zapisu ruchu – i tylko tym, niczym więcej. Nie mogą być i nie są własnościami ruchu realnego. I rzeczywiście, absurdem jest nazywanie ruchu „bezczasowym”, ponieważ ruch wyraża czas. Żaden obiekt matematyczny nie będzie nigdy w pełni reprezentować historii Wszechświata, z prostej przyczyny: Wszechświat ma jedną cechę, której żaden reprezentujący go obiekt matematyczny nigdy mieć nie może. W realnym świecie jest zawsze czas, jakaś chwila teraźniejszości. Żaden obiekt matematyczny nie może mieć tej własności, ponieważ gdy już zostanie zdefiniowany, staje się bezczasowy26. Kto ma rację, pragmatycy czy mistycy? To pytanie wpłynie na przyszłość fizyki i kosmologii. 26 Ktoś mógłby zaprotestować, sugerując, że w matematyce są obiekty zależne od czasu, np. f(t) jest funkcją czasu. To jednak zupełne nieporozumienie, bo funkcja f(t) jest bezczasowa.

Rozdział 4

Fizyka zjawisk w pudełku W szkole średniej występowałem w dramacie Jeana Paula Sartre’a Przy drzwiach zamkniętych. Grałem Josepha Garcina, człowieka zamkniętego w małym pokoju z dwoma kobietami. Wszyscy troje spotkali się tam po śmierci. Sztuka ukazuje ekstremalną wersję społeczeństwa, jakby zamkniętego w pudełku, i pozwala dramaturgowi zaprezentować moralne konsekwencje naszych wyborów. W scenie kulminacyjnej miałem uderzyć w drzwi, wykrzykując sławną kwestię „piekło to inni!”, ale strzaskałem panel w drzwiach i zostałem zasypany odłamkami szkła. I to był koniec mojej kariery aktorskiej. Koncert muzyczny, podobnie jak teatr, pozwala na lepszą analizę ludzkich emocji dzięki izolacji w warunkach kontrolowanych. Jako nastolatek słuchałem niesamowitego koncertu Suicide, kapeli mojego kuzyna, który odbył się w podziemiach Mercer Arts Center w Greenwich Village. Wokalista zamknął

drzwi i zahipnotyzował publikę długą arią psychopatycznego mordercy, paraliżując ją powtarzanymi akordami klasycznego 96 Tears27. Atmosfera przyprawiała o klaustrofobię, gdyż wokalista wyglądał coraz groźniej, a my jak postaci ze sztuki Przy drzwiach zamkniętych byliśmy zamknięci. Niedawno metodę zrozumienie-dzięki-klaustrofobii zaadaptowali artyści konceptualni, zamykając na dobę w pokoju przedziwne pary – na przykład artystę i naukowca – i filmując wszystko, co tam się działo 28. Izolacja w sztuce czy na koncercie jest fikcją. Przy odrobinie wysiłku każdy mógł wyjść, kiedy chciał. My nie wyszliśmy, ponieważ można się wiele dowiedzieć dzięki podporządkowaniu się rygorom ograniczenia w takim małym środowisku społecznym. W tym sensie mniej znaczy więcej. Sztuka wyraża wartości uniwersalne poprzez szczegóły29 i aby osiągnąć sukces, często posługuje się sztucznie ograniczoną scenerią. Tak samo jest w fizyce. Większość tego, co wiemy o naturze, pochodzi z eksperymentów, w których sztucznie wydzielamy zjawisko, a potem izolujemy od ustawicznych zawirowań Wszechświata. Poszukując wglądu w uniwersalne zależności fizyki, ograniczamy się do badania najprostszych zjawisk. Metoda ta stosowana już od czasów Galileusza doprowadziła do wielkiego sukcesu fizyki. Ja nazywam ją fizyką zjawisk w pudełku. Ma ona wiele zalet – i też kilka wad –

ale jedne i drugie są istotne dla naszej opowieści o wykluczeniu czasu z fizyki, a następnie jego odrodzeniu. Żyjemy w wiecznie zmieniającym się Wszechświecie, zapełnionym materią, która zawsze jest w ruchu. Kartezjusz, Galileusz, Kepler i Newton zrozumieli, że muszą wyizolować mały kawałek świata, zbadać go i dokonać zapisu zmian, jakie w nim nastąpiły. Nam przekazali, jak zapisać ruch w postaci prostych wykresów, których osie reprezentują zatrzymane w czasie położenia oraz chwile, co umożliwia zbadanie owego ruchu w przyszłości. Zauważmy, aby stosować matematykę w układzie fizycznym, najpierw musimy ten układ odizolować i myślowo odseparować od całej różnorodności ruchów realnego Wszechświata. Nie zaszlibyśmy zbyt daleko w naszych badaniach, gdybyśmy chcieli uwzględniać wpływ wszystkiego na wszystko we Wszechświecie. Pionierzy fizyki, od Galileusza i Einsteina aż do chwili obecnej, mogli dokonywać postępu w badaniach dzięki umiejętności odizolowania prostego podukładu, jak w zabawie z piłką, w celu określenia, jak piłka się porusza. Jednak w rzeczywistości na piłkę w locie działa niezliczona liczba czynników istniejących na zewnątrz podukładu, który wydzieliliśmy. Układ zamknięty, taki jak zabawa w rzucanie piłki, jest ogromnym uproszczeniem świata realnego – chociaż takie uproszczenie okazało się bardzo pomocne w odkryciu

podstawowych praw ruchu we Wszechświecie30. Ten rodzaj przybliżenia, w którym ograniczamy naszą uwagę do kilku zmiennych albo kilku ciał, albo kilku cząstek, jest charakterystyczny dla fizyki zjawisk w pudełku. Tutaj podstawowym zagadnieniem jest wydzielenie ze Wszechświata podukładu, który chcemy badać. Sęk w tym, że jest to zawsze przybliżenie znacznie bogatszej rzeczywistości. Łatwo uogólnić postępowanie w zabawie z piłką na większość układów, jakie badamy w fizyce. Aby zanalizować układ fizyczny, musimy najpierw ustalić, co bierzemy w nim pod uwagę, a czego nie. Traktujemy ten układ tak, jakby został odizolowany od reszty Wszechświata, choć ta izolacja sama w sobie jest wielkim uproszczeniem. Nie możemy usunąć układu z Wszechświata, a więc w każdym eksperymencie dążymy do zmniejszenia zewnętrznych zaburzeń działających na nasz układ, choć mamy świadomość, że nigdy ich nie da się całkowicie wyeliminować. W wielu wypadkach możemy tego dokonać na tyle dobrze, aby nasza idealizacja stała się pożyteczną konstrukcją myślową. Częścią definicji podukładu jest lista wszystkich zmiennych, które musimy zmierzyć, aby określić wszystko, co chcemy wiedzieć o układzie w zadanej chwili. Taka lista zmiennych składa się na abstrakcyjne pojęcie konfiguracji układu. Definiujemy także abstrakcyjną przestrzeń zwaną przestrzenią

konfiguracyjną, aby reprezentowała zbiór wszystkich możliwych konfiguracji. Każdy punkt tej przestrzeni jest jedną z możliwych konfiguracji układu. Proces definiowania przestrzeni konfiguracyjnej rozpoczyna się wraz z wydzieleniem podukładu z całości Wszechświata. Dlatego też przestrzeń konfiguracyjna jest tylko przybliżeniem pełniejszego i bardziej zupełnego opisu. Zarówno konfiguracja, jak i jej reprezentacja, jaką jest przestrzeń konfiguracyjna, są obiektami abstrakcyjnymi – ludzkim wymysłem przydatnym w fizyce zjawisk w pudełku. Opisując grę w bilard amerykański, zapiszemy położenia szesnastu bil na dwuwymiarowym blacie. Położenie pojedynczej bili wyznaczają dwie liczby (jej pozycja względem długości i szerokości blatu), tak więc pełna konfiguracja wymaga zestawu trzydziestu dwóch liczb. Jeden wymiar przestrzeni konfiguracyjnej odpowiada jednej liczbie reprezentującej pomiar, a więc w wypadku bilardu amerykańskiego przestrzeń konfiguracyjna jest trzydziestodwuwymiarowa. Rzeczywista kula bilardowa jest ogromnie skomplikowanym ciałem, dlatego jej reprezentacja jako pojedynczego obiektu z położeniem w punkcie geometrycznym stanowi duże przybliżenie. Jeśli chcemy dokładniej opisać grę w bilard, powinniśmy zapisywać położenia nie tylko bil, lecz także każdego atomu, z których się one składają. Wymagałoby to przynajmniej 1024 liczb, a co za tym idzie, tyle samo

wymiarowej przestrzeni konfiguracyjnej. Ale czemu tylko tym się ograniczać? Jeśli chcemy opisu na poziomie atomowym, to powinniśmy także zapisywać położenia wszystkich atomów, z jakich zbudowany jest stół bilardowy, wszystkich atomów powietrza, które mają wpływ na bilę, wszystkich fotonów, które oświetlają salę – a potem dlaczego nie wszystkich atomów tworzących Ziemię, Słońce i Księżyc, które przyciągają grawitacyjnie bilę? W tym wypadku cokolwiek innego niż opis kosmologiczny będzie tylko przybliżeniem. Poza układem pozostawiamy zegar, używany do określenia czasu, w którym dokonujemy pomiaru. Zegar nie jest brany pod uwagę jako część podukładu, ponieważ tyka jednostajnie bez względu na to, co zachodzi w podukładzie. Pokazuje on wzorzec czasu, za pomocą którego rejestrujemy ruch odbywający się w podukładzie. Użycie zegara zewnętrznego narusza relacyjną koncepcję czasu. Zmiana zachodząca w układzie mierzona jest według wskazań zegara zewnętrznego, ale zakładamy, że nic, co zachodzi wewnątrz układu, nie wpływa na pracę tego zegara. To wygodne, ale dopuszczalne tylko z tego względu, że dokonujemy dużego przybliżenia, zaniedbując wszystkie oddziaływania między podukładem a wszystkim innym, co znajduje się na zewnątrz niego, łącznie z samym zegarem.

Jeśli tę metodę potraktujemy zanadto serio, to możemy zacząć sobie wyobrażać, że istnieje zegar zewnętrzny w stosunku do całego Wszechświata, taki, którym będziemy mogli mierzyć zmiany zachodzące we Wszechświecie. To droga prowadząca do błędnej koncepcji zakładającej, że Wszechświat jako całość ewoluuje w jakimś czasie absolutnym istniejącym na zewnątrz niego. Newton popełnił tę pomyłkę, ponieważ uważał, że fizyka, jaką odkrył, wyraża boską wizję Wszechświata. Ten błąd powtarzano sukcesywnie aż do Einsteina, który dzięki teorii względności znalazł sposób, aby umieścić zegar wewnątrz Wszechświata. My już nie powinniśmy go powielać. Dopóki jednak mamy świadomość, że to przybliżenie, dopóty bardzo użyteczny jest obraz małego podukładu Wszechświata ewoluującego względem wskazań zegara zewnętrznego. Za każdym pomiarem otrzymujemy zbiór liczb charakteryzujący konfigurację układu w danej chwili, co służy zdefiniowaniu punktu w przestrzeni konfiguracyjnej. Wyobrażając sobie, że pomiary następują w sposób ciągły, możemy z tych punktów ułożyć krzywą przebiegającą przestrzeń konfiguracyjną (zobacz rysunek 9). W ten sposób otrzymujemy historię podukładu wyrażoną za pomocą sekwencji pomiarów jego konfiguracji.

Rysunek 9. Przestrzeń konfiguracyjna i historia widziana poprzez nią. Znak X określa moment w czasie.

Czas zniknął z tego obrazu, zupełnie jak w wypadku rzucania piłką w zabawie Danny’ego z Janet. Pozostała trajektoria w przestrzeni wszystkich możliwych konfiguracji. Trajektoria jest krzywą zawierającą informację o czymś, co zdarzyło się w przeszłości. Na koniec otrzymujemy reprezentację ruchu podukładu – ruchu zachodzącego w czasie tylko raz – w postaci bezczasowego obiektu matematycznego, krzywej w przestrzeni wszystkich możliwych konfiguracji podukładu. Przestrzeń konfiguracyjna jest bezczasowa i z założenia będzie istnieć wiecznie. Gdy piszę o niej jako o „przestrzeni wszystkich możliwych konfiguracji”, to znaczy, że w każdej chwili, gdy tylko zechcę, mogę sprowadzić podukład do jednej z tych konfiguracji. Zatem historia układu jest reprezentowana

przez krzywą rozpoczynającą się w konfiguracji początkowej układu. Krzywa ta wykreślona raz staje się bezczasowa. To natychmiast prowadzi nas z powrotem do zasadniczego pytania: czy zniknięcie czasu w tej reprezentacji umożliwia nam głęboki wgląd w naturę rzeczywistości, czy jest złudną i niezamierzoną konsekwencją metody przybliżonego opisu małych części Wszechświata? Newton dokonał czegoś więcej niż tylko odkrycie opisu ruchu, odkrył mianowicie, jak ruch przewidywać. Galileusz zauważył, że gdy rzuci się kulę, torem jej lotu jest krzywa zwana parabolą. Newton podał metodę wyznaczania rodzaju krzywej opisującej trajektorię ruchu dla ogromnej różnorodności przypadków. Taki jest kontekst jego trzech praw ruchu. Prawa te można podsumować następująco: Aby przewidzieć, jak będzie się poruszała kula, potrzebne są trzy informacje: Położenie początkowe kuli. Prędkość początkowa kuli (to znaczy, jak szybko i w jakim kierunku się porusza). Siły, jakie będą działały na kulę w czasie jej ruchu. Gdy posiadamy już te trzy informacje, praw ruchu Newtona można użyć do przewidzenia trajektorii ruchu

kuli. Na przykład w tym celu spróbujmy zaprogramować komputer. Wprowadzamy trzy dane początkowe, a w wyniku otrzymujemy trajektorię, po której będzie się poruszać kula. To jest tak zwane rozwiązanie oparte na prawach Newtona. Rozwiązaniem jest krzywa w przestrzeni konfiguracyjnej. Reprezentuje ona historię układu, od momentu kiedy układ został przygotowany albo po raz pierwszy dokonano jego obserwacji. Ten pierwszy moment nazywany jest warunkami początkowymi. Opisujemy warunki początkowe, podając położenie początkowe i prędkość początkową. Potem prawa zabierają się do pracy i wyznaczają resztę historii. Jedno prawo ma nieskończenie wiele rozwiązań, a każde z nich okreś​la możliwą historię układu. My wybieramy historię opisującą określony eksperyment, gdy podajemy warunki początkowe. A zatem aby przewidzieć przyszłość albo coś wyjaśnić, nie wystarczy znajomość samych praw, trzeba jeszcze znać warunki początkowe. W eksperymencie laboratoryjnym łatwo to spełnić, ponieważ eksperymentator przygotowuje układ, nadając mu określone warunki początkowe. Prawo spadania ciał Galileusza określa, że piłka, którą rzucił Danny, będzie się poruszała po paraboli. Ale po której paraboli? O tym decyduje już prędkość, z jaką piłka się porusza, pod jakim kątem do powierzchni leci i skąd została rzucona – czyli ustalają to warunki początkowe.

Okazuje się, że metoda ta jest ogólna. Może być stosowana do każdego układu, który da się opisać za pomocą przestrzeni konfiguracyjnej. Gdy znamy układ, potrzebny jest zestaw trzech danych początkowych: Konfiguracja początkowa układu. W ten sposób określamy punkt początkowy w przestrzeni konfiguracyjnej. Początkowy kierunek i prędkość początkowa zmian układu. Siły, jakie będą działać na układ, gdy będzie on ulegał zmianom w miarę upływu czasu. Prawa Newtona określą następnie precyzyjnie krzywą w przestrzeni konfiguracyjnej, po której układ będzie się poruszał. Nie można nie docenić ogólności i powszechności metody Newtona. Stosuje się ją do ruchu gwiazd, planet, księżyców, galaktyk, gwiazdozbiorów, gromad galaktyk, ciemnej materii, atomów, elektronów, fotonów, gazów, ciał stałych, cieczy, mostów, wieżowców, samochodów, samolotów, satelitów, rakiet. Stosuje się ją do układów jedno-, dwu-, trójciałowych i układów złożonych z 1023 albo 1060 cząstek. Stosuje się ją do pól – takich jak pole elektromagnetyczne – których definicja wymaga pomiaru nieskończenie wielu

zmiennych (na przykład pole elektryczne i magnetyczne w każdym punkcie przestrzeni). Opisuje ona ogromną liczbę sił albo oddziaływań pomiędzy zmiennymi, które charakteryzują układ. Może być stosowana w informatyce, gdzie nazywa się badaniem automatów komórkowych. A z niewielką tylko modyfikacją stanowi podstawę mechaniki kwantowej. Ze względu na potęgę tej metody może być ona nazwana paradygmatem. Od imienia wynalazcy nazwiemy go paradygmatem newtonowskim. To bardziej formalne określenie tego, co nazwałem fizyką zjawisk w pudełku. Podstawy paradygmatu newtonowskiego zbudowane są z odpowiedzi na dwa zasadnicze pytania: Jakie są możliwe konfiguracje układu? Jakie siły działają na układ w każdej z konfiguracji? Możliwe konfiguracje nazywa się też warunkami początkowymi, ponieważ określamy je, zanim układ zacznie ewoluować. Prawa, które opisują siły i skutki ich działania, nazywamy prawami ruchu. Te prawa reprezentują odpowiednie równania. Gdy wstawiamy do równań warunki początkowe, ich rozwiązania określają ewolucję układu w przyszłości. Ten proces nazywa się rozwiązywaniem równań. W jego wyniku

otrzymujemy nieskończenie wiele rozwiązań, ponieważ jest nieskończenie wiele możliwych warunków początkowych. Powinniśmy zdawać sobie sprawę, że ta potężna metoda oparta jest na mocnych założeniach. Pierwszym jest to, że przestrzeń konfiguracyjna jest bezczasowa. Z założenia metoda może określić cały zbiór możliwych konfiguracji zawczasu – to znaczy zanim zaobserwujemy rzeczywistą ewolucję układu. Możliwe konfiguracje nie ewoluują w czasie, one po prostu istnieją. Drugie założenie przyjmuje, że siły, a zatem prawa, jakim podlega układ, są bezczasowe. Nie zmieniają się w miarę upływu czasu i z założenia da się je określić zawczasu, to znaczy, zanim zaczniemy badać układ. Wniosek, jaki z tego wyciągamy, jest w swej prostocie przerażający. Przyjmując, że paradygmat newtonowski jest realizowany w przyrodzie, musimy dojść do wniosku, iż czas jest nieistotny i można go usunąć z opisu świata. Jeśli przestrzeń możliwych konfiguracji, a zatem także i prawa, mogą być bezczasowe, to historia każdego układu nie musi rozwijać się w czasie. Aby udzielić odpowiedzi na każde pytanie, jakie stawia fizyka, wystarczy, że cała historia układu będzie wyrażona pojedynczą statyczną krzywą w przestrzeni konfiguracyjnej. Pozornie najistotniejszy aspekt naszego postrzegania świata – jego obraz jako seria chwil teraźniejszych – jest nieobecny

w najskuteczniejszym paradygmacie opisującym naturę. Rozpoczęliśmy od obserwacji piłki, z napisanym niebieskim długopisem numerem telefonu, rzuconej przez pisarza Danny’ego poetce Janet w High Parku po południu 4 października 2010 roku. A dzięki dogłębnemu zrozumieniu jej ruchu kończymy kontemplacją bezczasowego obrazu bezbarwnej krzywej w abstrakcyjnej przestrzeni. 27 Popularny w latach sześćdziesiątych utwór amerykańskiego zespołu Question Mark & the Mysterians. Utwór ten zapoczątkował punk rock (przyp. tłum.). 28 Sara Diamond et al., Code Zebra Habituation Cage Performances, Dutch Electronic Arts Festival, Rotterdam 2003. 29 Dziękuję Saint Clair Cerminowi za dyskusję na ten temat. 30 Rozważmy układ gwiazd poruszających się pod wpływem wzajemnego przyciągania grawitacyjnego. Oddziaływanie wzajemne dwóch gwiazd można dokładnie opisać; Newton problem ten rozwiązał. Nie ma natomiast dokładnego rozwiązania problemu grawitacyjnego oddziaływania trzech gwiazd. Każdy układ składający się z trzech lub więcej ciał musi być opisywany w sposób przybliżony. Takie układy wykazują bogatą gamę zachowań, łącznie z chaosem i ekstremalną wrażliwością na warunki początkowe. Choć jest to układ najbardziej zbliżony do układu dwóch ciał, który Newton rozwiązał już w XVII wieku, te zjawiska odkrył dopiero na początku XX wieku francuski matematyk Henri Poincaré. Zrozumienie zachowania układu trzech ciał wymagało wynalezienia zupełnie nowego działu matematyki – teorii chaosu. Od niedawna układy tysięcy, a nawet

milionów ciał można opisywać w symulacjach komputerowych. Dają nam one wgląd w zachowanie gwiazd w galaktykach, a nawet w oddziaływania galaktyk tworzących gromady. Niemniej jednak otrzymywane rezultaty, choć bardzo użyteczne, są oparte na bardzo radykalnych przybliżeniach. Gwiazdy składające się z ogromnej liczby atomów traktuje się jak punkty, a wpływ wszystkich czynników zewnętrznych zwykle jest ignorowany.

Rozdział 5

Wykluczenie oryginalności i niespodzianek Stosowanie paradygmatu newtonowskiego jako metodologii badań fizyki zjawisk w pudełku stało się najważniejszym krokiem ku wykluczeniu czasu. Konsekwencją tego kroku stał się determinizm doskonale wyrażony przez Pierre’a Simona Laplace’a w jego stwierdzeniu, że gdyby w jakiejś chwili poznał dokładne położenia i prędkości wszystkich atomów we Wszechświecie oraz siły, jakie na nie działają, to z całkowitą pewnością byłby w stanie przewidzieć dalsze losy Wszechświata. To twierdzenie przekonało wielu, że przyszłość jest w pełni określona przez teraźniejszość. Jest jednak pewne bardzo ważne założenie ukryte w tej argumentacji pozwalające ją zakwestionować. Rozszerzamy tu przecież metodę Newtona na Wszechświat jako całość przez włożenie do pudełka wszystkiego, co jest. Natomiast metoda fizyki zjawisk

w pudełku polega na izolacji małego podukładu od reszty Wszechświata. Czy rzeczywiście Laplace mógł zignorować ten fakt? Powróćmy do parku i zabawy w rzucanie. Jest 14 sierpnia 2062 roku, godzina piętnasta piętnaście. Laura, wnuczka Danny’ego i Janet, zamierza rzucić frisbee do Franceski, córki Billy’ego i Roksany, która także dorastała nieopodal parku. W chwili gdy Laura rzuca frisbee, uwagę Franceski odwraca wiadomość przychodząca do implantu mikrotelefonu w siatkówce jej oka. Czy dziewczyna złapie frisbee? Jeśli uwierzymy, że paradygmat newtonowski stosuje się do całego świata, to musimy też uwierzyć, że już w 2010 roku zostało ustalone, kogo poślubi Danny, a kogo Janet (pobiorą się, ale żadne z nich wtedy tego nie wiedziało), kiedy ich syn zostanie poczęty, kogo później poślubi, kiedy jego córka zostanie poczęta oraz czy będzie lubiła grać we frisbee, czy też nie. Musimy uwierzyć, że wszystko, co będzie dotyczyć tych ludzi, jest już w teraźniejszości ustalone, każde ich poruszenie, każda myśl, idea czy emocja. Musimy także uwierzyć, że wykaz osób, które będą kiedykolwiek żyły, też jest już ustalony, nawet jeśli trudno sobie wyobrazić technologię, dzięki której można by tego dokonać. Musimy uwierzyć, nie tylko że jest to już ustalone – a właściwie było ustalone miliardy lat temu – że danego popołudnia Francesca z Laurą będą rzucały frisbee, choć obie dorastały z dala od siebie i spotkały się po raz

pierwszy pięć minut temu. Musimy także uwierzyć, że nie można nic zrobić, aby zapobiec rozwojowi technologii implantów mikrotelefonów w siatkówce, i że nic nie można zrobić, aby zapobiec przesłaniu tej brzemiennej w skutki wiadomości, która właśnie w tej chwili rozproszyła uwagę Franceski. Czy pomimo to chwyci ona krążek? Zanim uruchomił się jej mikrotelefon, nikt z obserwujących nie mógł tego wiedzieć, ale jeśli przyszłość jest ustalona, to, w zasadzie, jest już pewna wielkość, którą można zmierzyć teraz i która odpowie na to pytanie. Twierdzenie, że prawa fizyki plus warunki początkowe określają przyszłość w najdrobniejszym szczególe, jest zdumiewające, ponieważ w długim okresie nawet najmniejszy szczegół ma znaczenie. W akcie zapłodnienia do jajeczka przenika w przybliżeniu jeden na 100 milionów plemników. Tak zdarzyło się około 100 miliardów razy od czasu, gdy pojawili się ludzie, i biliony razy przedtem, podczas ewolucji człekokształtnych. Biliony wyborów jednego ze 100 milionów to niebywale ogromna liczba informacji, ale musimy uwierzyć, że to wszystko i o wiele więcej zostało wpisane w warunki początkowe Wszechświata w znacznie wcześniejszym czasie. A to tylko pewien drobny szczegół życia na pewnej małej planecie. To tylko część tego, w czym zawiera się sens stwierdzenia, że w paradygmacie newtonowskim znika

czas. Wszystkie rzeczy, które kiedykolwiek się zdarzyły, które zdarzają się teraz i które kiedykolwiek się zdarzą, są tylko punktami trajektorii w przestrzeni konfiguracyjnej Wszechświata, punktami krzywej, która już została wyznaczona. Upływ czasu nie wnosi nowości ani niespodzianek, bo zmiana jest tylko przestawieniem tych samych faktów. Gdyby było miejsce na jakąś nowość i niespodzianki, paradygmat newtonowski albo przynajmniej jego uogólnienie na całość Wszechświata, musiałby mieć jakieś błędy. Jedyną wadą jest to, że jeśli przyszłość jest już określona przez warunki początkowe, to powinniśmy wiedzieć, co te warunki wyznacza. Jeśli poszukujemy przyczyn tego, że rzeczy są takie, jakie są, to coraz bardziej i bardziej zagłębiamy się w przeszłość. A gdy zagłębimy się w przeszłość, to musimy brać pod uwagę coraz większe i większe obszary przestrzeni zawierające zdarzenia, które mogły mieć wpływ na przodków Danny’ego i Janet. Jeśli cofniemy się wstecz o milion lat, do spotkania przodków tych dwojga z różnych wędrownych grup Homo erectus, to musimy dokonać przeglądu obszaru o rozległości dwóch milionów lat świetlnych, aby się upewnić, że nie było tam w pobliżu żadnej supernowej, która mogłaby spowodować katastrofę na Ziemi. Gdy zaś cofniemy się do samych narodzin życia na Ziemi, to musimy zbadać ogromny kawałek obserwowalnego Wszechświata. Jeśli poszukujemy nie tylko koniecznych, ale

i wystarczających przyczyn, musimy dojść do wniosku, że w pełnym zbiorze wystarczających przyczyn spotkania Janet i Danny’ego znajdują się zdarzenia kosmologicznie odległe. Gdy badamy łańcuch przyczyn coraz głębiej w przeszłość, wcześniej czy później będziemy musieli uwzględnić cały Wszechświat. Zanim dotrzemy do końca łańcucha przyczyn, natkniemy się na Wielki Wybuch. Tak więc ostateczną wystarczającą przyczyną spotkania Danny’ego i Janet są warunki początkowe Wszechświata w chwili Wielkiego Wybuchu. A ostatecznie o stosowalności argumentacji opartej na determinizmie musi więc zadecydować kosmologia. Jeśli chcemy zrozumieć, czy i jak ich spotkanie zostało ustalone, to musimy znać teorię Wszechświata jako całości. Zagadnienie determinizmu koliduje z faktem, że metodę fizyki zjawisk w pudełku stosuje się do małych podukładów Wszechświata. Zanim odpowiemy na pytanie, czy zdarzenia w naszym życiu są w pełni określone przez warunki zapisane gdzieś w przeszłości, musimy się dowiedzieć, czy zakres zastosowań znanych nam teorii fizycznych może być rozszerzany na cały Wszechświat. Żyjemy w świecie, w którym trzepot skrzydeł motyla może wpłynąć miesiące później na stan odległych oceanów. Ogólnie ujmując, małe zmiany warunków początkowych przyczyniają się do ogromnych zmian wyniku końcowego. To dlatego uprawianie fizyki

zjawisk w pudełku wymaga stosowania przybliżeń. A te wiążą się z selekcją obserwowanych wielkości w modelu przestrzeni konfiguracyjnej i zaniedbaniem wpływu wszystkiego, co istnieje na zewnątrz. Łatwo sobie wyobrazić, jak te wymagania spełnić. Jeśli znamy prawa fizyki, jakim podlegają najmniejsze cząstki tworzące podukład, to przynajmniej dokładnie znamy zmienne potrzebne do opisania podukładu i sił, z jakimi te zmienne oddziałują. Obecnie najbardziej precyzyjny opis praw natury i cząstek elementarnych stanowi Model Standardowy, który z łatwością mieści się w paradygmacie newtonowskim. Model ten zawiera wszystko, co wiemy o naturze, z wyjątkiem grawitacji, i wciąż zdaje egzamin w rozmaitych testach eksperymentalnych. A więc dlaczego nie włożyć do pudełka całej zawartości Wszechświata? Można sobie wyobrazić badanie większego podukładu zawierającego w sobie nasz układ – już nie tylko piłkę Danny’ego, ale wszystko i wszystkich w parku. Rozszerzmy to jeszcze raz, włączając wszystko, co jest na Ziemi i w obrębie milionów kilometrów wokół niej. Za każdym razem gdy rozszerzamy podukład, stosujemy te same prawa fizyki – dlatego możemy wykorzystać paradygmat newtonowski. Za każdym razem przybliżenie staje się coraz lepsze i lepsze, a siła argumentacji deterministycznej ulega wzmocnieniu. Zawsze jednak coś się pomija. Tuż za Układem

Słonecznym mog​ł aby istnieć wielka czarna chmura, która połknie Słońce w ciągu roku, albo kometa, która otrze się o Ziemię za dziesięć lat. Te zdarzenia mogą pokrzyżować przyszłe małżeństwo Danny’ego i Janet. Zaburzenie wcale nie musi być duże i dotyczyć bezpośrednio Ziemi. Uwagę Danny’ego mogła zaprzątnąć wiadomość o komecie przechodzącej w pobliżu Jowisza, poszedł więc do parku minutę później i nigdy nie spotkał Janet. Nie będą żyć potomkowie milionów ludzi, którzy mogli się byli narodzić. W naszym świecie to normalne, że błahe wydarzenia mogą mieć wielkie konsekwencje. Teorię deterministyczną można przyrównać do komputera. Przestrzeń konfiguracyjna jest pamięcią, do której są wprowadzane dane. Prawa fizyki są analogiem programu komputerowego. Uruchamiamy program, a on przekształca dane wejściowe, które są następnie nadpisane przez dane wyjściowe. Gdy mamy dane wejściowe i program, to dane wyjściowe są w pełni ustalone. Za każdym razem gdy uruchamiamy program z tymi samymi danymi wejściowymi, otrzymujemy te same dane wyjściowe. Jest jeszcze coś, o czym warto pomyśleć: dane wejściowe i program ustalają dane wyjściowe na dwa całkiem różne sposoby. Komputer jest urządzeniem fizycznym, działa więc zgodnie z prawami fizyki. Patrząc z tego punktu widzenia, powiemy, że dane wyjściowe są ustalane dzięki związkowi przyczynowemu z danymi

wejściowymi. To skutek działania praw fizyki na dane wejściowe. Taki proces musi zachodzić w czasie, bo proces przyczynowy zgodny z prawami fizyki zachodzi w czasie. Dane wyjściowe też są ustalone innym sposobem. Logicznie wynikają one z danych wejściowych i z programu. Na wejściu i wyjściu znajdują się obiekty matematyczne. Program też jest obiektem matematycznym. Za pomocą praw logiki można dowieść, że dane wyjściowe są logiczną konsekwencją działania programu na danych wejściowych. Taki proces logicznego ustalania wyniku nie wymaga udziału czasu, ponieważ nie podlega żadnemu procesowi fizycznemu. Dowód na to, że dane wyjściowe są wynikiem działania programu na danych wejściowych, jest faktem matematycznym, który istnieje w bezczasowym świecie obiektów matematycznych. W tym sensie czas został usunięty z fizyki działającej w ramach paradygmatu newtonowskiego. Nie trzeba uruchamiać komputera, aby się dowiedzieć, jakie są dane wyjściowe, ponieważ można je logicznie wywnioskować z sekwencji działań matematycznych. To nieistotne, jak praktycznie zdołalibyśmy przeprowadzić ów proces; komputer jest tu tylko narzędziem wykorzystującym prawa fizyki w procesie przyczynowym w celu uzyskania logicznych wniosków. Komputer może być przecież zbudowany i zaprogramowany na nieskończenie wiele sposobów

prowadzących do tego samego wyniku. Otóż w wyniku końcowym nie ma takiej informacji, która nie wynikałaby logicznie z danych wejściowych. Na wyjściu otrzymujemy przecież to, co umieściliśmy na wejściu, tylko przetworzone zgodnie z jakąś logiczną zasadą. W tym sensie nic nowego czy zaskakującego nigdy nie może powstać. Nie ma także potrzeby przyczynowej ewolucji zachodzącej w czasie tylko po to, aby odtworzyć efekty logicznego, czyli bezczasowego wynikania. To samo dotyczy każdego układu w ramach paradygmatu newtonowskiego. We wszystkich wypadkach końcowa konfiguracja jest tylko rezultatem działania praw fizyki na warunki początkowe. Przestrzeń konfiguracyjna zawierająca konfigurację początkową i końcową jest obiektem matematycznym, tak jak i te konfiguracje. Gdy prawa fizyki są już wyrażone równaniami matematycznymi, ewolucja warunków początkowych do warunków końcowych zachodząca w jakimś określonym czasie jest faktem matematycznym. Można tego dokonać za pomocą działań matematycznych, a w istocie można dowieść w formie twierdzenia matematycznego. Paradygmat newtonowski zastępuje proces przyczynowy – proces zachodzący w czasie – logiczną implikacją, która jest bezczasowa. To jeszcze jedna metoda eliminowania czasu w paradygmacie newtonowskim. Prawa fizyki często mogą działać w czasie wstecz

i wówczas znowu przekonujemy się, że niespodzianki i nowości nie grają żadnej roli. Pomyślmy o prawie fizyki, jakby to był komputer albo maszyna, która przekształca warunki początkowe w konfigurację końcową, można więc sobie wyobrazić, że prawo ma gdzieś przełącznik, który odwraca bieg czasu. Przestawiamy go i na wejściu wstawiamy konfigurację końcową. Prawo fizyki pracuje tyle samo czasu co przedtem, ale działa wstecz, aby odwrócić konfigurację końcową w konfigurację początkową. Mówimy, że tak działające prawo fizyki jest odwracalne względem czasu. Przyjrzyjmy się prostemu przykładowi: Ziemi obracającej się wokół swojej osi w czasie ruchu po orbicie wokół Słońca. Odwracając czas, odwracamy jej kierunek ruchu po orbicie i kierunek obrotu, ale taki ruch także jest dozwolony przez prawa Newtona. Gdybyśmy nagrali film o ruchu Ziemi i pokazali istotom pozaziemskim, te powiedziałyby (jeśli miałyby jakąś koncepcję praw fizyki), że ruch podlega prawu Newtona. To samo mówiłyby o kopii filmu nagranego wstecz. Gdyby otrzymały od nas obie wersje filmu z pytaniem, która jest prawdziwa, nie wiedziałyby, jak na to pytanie odpowiedzieć. Dotyczyłoby to także filmowej wersji ruchu całego Układu Słonecznego, z ośmioma planetami i niezliczoną liczbą innych ciał. Oczywiście wielu z nas widziało film puszczany wstecz i wydawał się nam dziwny lub zabawny. Nie

dlatego, że odwrócony w czasie ruch jest niezgodny z prawami fizyki; jest on zgodny, ale wielce nieprawdopodobny. Ogólnie jest to prawda w odniesieniu do złożonych układów zawierających duże liczby takich obiektów jak atomy. Mamy tam do czynienia z prawami termodynamiki nieodwracalnymi w czasie, o których będzie mowa w rozdziale 16 i 1731. Teraz zajmijmy się tylko dwoma prostymi przykładami. Wiele praw fizyki jest odwracalnych względem czasu. Na przykład mechanika newtonowska, teoria względności albo mechanika kwantowa. Model Standardowy fizyki cząstek jest prawie odwracalny w czasie, ale niezupełnie. (Istnieje pewien aspekt słabych sił jądrowych, który jest nieodwracalny w czasie). Jeśli weźmiemy pod uwagę historię, która jest wynikiem ewolucji zgodnej z Modelem Standardowym, odwrócimy kierunek biegu czasu i jednocześnie dokonamy dwóch innych zmian, to otrzymamy historię, którą dopuszcza ten model. Tymi dodatkowymi zmianami są zamiana cząstek na ich antycząstki i zamiana kierunku prawego na lewy. Operacja ta nazywa się CPT (zmiana ładunku, parzystości i kierunku biegu czasu) i można o niej myśleć jak o innym sposobie wyświetlania filmu wstecz. Każda teoria zgodna z mechaniką kwantową i szczególną teorią względności pozwala na taką zmianę kierunku biegu czasu.

Takie odwrócenia są jeszcze jednym argumentem przemawiającym za nierealnością czasu. Jeśli da się odwrócić kierunek zmian przewidziany przez prawa natury, to w zasadzie nie może być żadnej różnicy między przeszłością a przyszłością – a fakt, że mamy zupełnie odmienny związek z przeszłością i przyszłością, nie może być podstawową własnością świata. Widoczne różnice między przeszłością a przyszłością muszą być albo iluzją, albo konsekwencją szczególnych warunków początkowych. Ludwig Boltzmann, który swymi spostrzeżeniami o entropii uczynił więcej niż ktokolwiek inny w dziele połączenia świata atomów ze światem makro, powiedział kiedyś tak: „Dla Wszechświata oba kierunki upływu czasu są nieodróżnialne, tak jak w przestrzeni nie ma góry ani dołu”32. A jeśli naprawdę nie ma różnicy między przeszłością a przyszłością – jeśli mają one tę samą treść, tylko logicznie poprzestawianą – nie ma potrzeby, aby wierzyć w realność chwili teraźniejszej ani upływ czasu. Odwracalność praw natury względem czasu jest uważana często za jeszcze jeden krok w kierunku usunięcia go z fizycznej koncepcji przyrody. Od pełnego usunięcia czasu z fizyki dzieli nas jeszcze tylko kilka kroków. Następny uczyni teoria względności Einsteina, która twierdzeniu o nierealności czasu dostarczy najmocniejszego dowodu.

31 Gdzie opiszemy i wyjaśnimy paradoks polegający na tym, że prawa termodynamiki, takie jak prawo mówiące, że entropia może tylko wzrastać, są nieodwracalne względem czasu, podczas gdy bardziej podstawowe prawa są odwracalne. 32 Ludwig Boltzmann, Lectures on Gas Theory, Dover Publications, 2011.

Rozdział 6

Względność i bezczasowość Gdy miałem dziewięć lat, mój ojciec przyniósł do naszego domu na Manhattanie książkę Lincolna Barnetta The Universe and Dr. Einstein (Wszechświat i doktor Einstein) i wspólnie zastanawialiśmy się nad jego objaśnieniem teorii względności. Nawet teraz przypominam sobie wykresy prędkości pociągu i zakrzywionych promieni świetlnych gwiazd. Wtedy też po raz pierwszy zetknąłem się z fizyką. Potem, gdzieś w wieku szesnastu lat, jadąc metrem do mego kuzyna, członka kapeli rockowej, czytałem pierwszą publikację Einsteina o ogólnej teorii względności. Nowatorskie prace Einsteina były wtedy dostępne, tak jak i teraz, w formie tanich wydań książkowych33. Zachęcony do fizyki dzięki jego dziełom, z którymi na szczęście zetknąłem się, zanim otworzyłem jakikolwiek podręcznik, nie zdawałem sobie wtedy sprawy, że mam do czynienia z przykładem najbardziej klarownych idei wyrażających sedno nauki.

Było to coś takiego, jakby kogoś nawykłego od dziecka do stołowania się we francuskich pięciogwiazdkowych restauracjach zmuszać w przyszłości do jedzenia płatków zbożowych oraz kanapek z dżemem i masłem orzechowym. Potem odkryłem, jak mało jest w fizyce teorii tak eleganckich i klarownych koncepcyjnie jak teorie względności Einsteina. Nie ma tego ani w mechanice kwantowej, ani współczesnej kwantowej teorii pola, ani nawet w mechanice newtonowskiej, których prezentacje w podręcznikach to często logiczny bałagan, pogłębiany pogmatwanymi i pokrętnymi definicjami podstawowych pojęć, takich jak masa i siła. Ponieważ jednak zaczynałem od Einsteina, to jego prace wyznaczyły mój standard naukowy, jego teorie względności stały się moimi kamieniami węgielnymi, to ich zasady powinny być dla każdego przykładem sceptycyzmu naukowego. Tak się stało, że teorie Einsteina najmocniej wskazują na czas jako iluzję maskującą prawdziwy, bezczasowy Wszechświat. Gdy uwierzyłem w to, że czas jest iluzją, główną przyczyną mej wiary były teorie względności. Einstein stworzył dwie teorie względności. Pierwsza, szczególna, jest teorią świata, w którym nie istnieje grawitacja. Została przedstawiona w dwóch jego publikacjach z 1905 roku, później nazwanego „cudownym rokiem”34. Ogólna teoria względności zawierała już grawitację i uczony rozwijał ją przez następne dziesięć lat.

W zasadzie obie teorie względności Einsteina są teoriami czasu – albo bezczasowości. Mają zupełnie niezasłużoną opinię bardzo trudnych, ale dla mnie są cudownie proste i łatwe do wyjaśnienia. To prawda, że względność wydaje się sprzeczna z intuicją, ponieważ zastępuje złą intuicję intuicją głębszą i, jak przekonuje eksperyment, bliższą prawdy. Studiowanie teorii względności to przejście od jednej metody percepcji świata do radykalnie innej. Trzeba pozbyć się pewnych nieświadomych założeń co do czasu, ale potem główne idee wynikają logicznie jedna z drugiej. W tym rozdziale będę omawiał idee i rezultaty teorii względności, które mają związek z naturą czasu. Będę stawiał pewne założenia, które, mam nadzieję, są jasne, ale nie zamierzam robić tego, co zwykle czyni się w książkach popularnonaukowych z fizyki, to znaczy wyjaśniać postulatów Einsteina i ich sprzecznych z intuicją konsekwencji35. Ograniczymy się do dwóch koncepcji pochodzących z teorii względności. Pierwszą jest względność jednoczesności. Drugą, która z pierwszej wynika, jest koncepcja Wszechświata-bloku. Każda z nich miała duży wpływ na usunięcie czasu z fizyki. Tworząc szczególną teorię względności, Einstein kierował się dwoma strategiami mającymi związek z istotą czasu. Po pierwsze, opowiedział się po stronie zwolenników względności czasu w debacie o tym, czy czas jest względny, czy absolutny: jest on związany

ze zmianą, co oznacza, że jest związany z dostrzeganymi relacjami. Nie ma czegoś takiego jak czas absolutny albo uniwersalny. Po drugie, w swych wcześniejszych pracach Einstein posługiwał się także strategią zwaną operacjonizmem. Zgodnie z nią jedynym sensownym sposobem definiowania wielkości takich jak czas jest scharakteryzowanie metody ich mierzenia. Jeśli chcemy mówić o czasie, należy określić, czym jest zegar i jak on działa. Gdy podchodzimy operacyjnie do nauki, pytamy nie o to, co jest rzeczywiste, ale o to, co może zmierzyć obserwator. Należy brać pod uwagę sytuację obserwatora we Wszechświecie, a szczególnie to, gdzie się znajduje i z jaką prędkością się porusza. Uwzględnienie tych parametrów umożliwia pytanie o to, czy różni obserwatorzy w identyczny sposób opisują to samo zjawisko. Niektóre z najbardziej interesujących odkryć Einsteina dotyczą tego, co nie jest zgodne w opisie zjawiska dokonanego przez różnych obserwatorów. A co z rzeczywistością? Czy fizycy nie są raczej zainteresowani tym, co jest realne, niż tym, co jest obserwowane? Tak, ale choć większość operacjonistów interesuje się rzeczywistością, wierzą jednak, że dostęp do niej uzyskujemy poprzez to, co obserwujemy. O tym, że coś jest rzeczywiste – obiektywnie prawdziwe – świadczy fakt, iż wszyscy obserwatorzy są co do tego zgodni.

Wielkie odkrycie dotyczące czasu w szczególnej teorii względności nazywa się względnością jednoczesności. Chodzi o to, czy można uznać, iż dwa zdarzenia odległe od siebie zachodzą w tej samej chwili. Einstein odkrył niejednoznaczność w każdej definicji jednoczesności odległych przestrzennie zdarzeń. Obserwatorzy znajdujący się w ruchu względem siebie dojdą do zupełnie innych wniosków co do tego, czy odległe od siebie zdarzenia są jednoczesne czy nie, gdy zdarzenia te są przestrzennie rozdzielone. To całkiem naturalne, że ktoś, budząc się w Toronto, zastanawia się, co robi w tym momencie jego ukochana w Singapurze. Jeśli to ma sens, to może go też mieć pytanie o to, co dzieje się w tym samym momencie na Plutonie, planecie w Galaktyce Andromedy albo w całym Wszechświecie. Einstein wykazał, że mówienie o zdarzeniu zachodzącym w tej chwili w dużej od nas odległości, uważane dotąd za sensowne, w istocie jest błędne. Dwaj obserwatorzy poruszający się względem siebie dojdą do odmiennych wniosków w sprawie jednoczesności odległych zdarzeń. Względność jednoczesności zależy od pewnych założeń, z których jednym jest uniwersalność prędkości światła – co oznacza, że dwóch obserwatorów mierzących prędkość fotonów zgodzi się co do wyniku bez względu na to, jak poruszają się względem siebie czy względem fotonu. Musimy także założyć, że nic nie może się poruszać z prędkością większą od tej

prędkości uniwersalnej36. Przy tych założeniach jedno zdarzenie może wpływać na inne tylko wtedy, gdy sygnał wysłany z pierwszego zdarzenia i poruszający się z prędkością światła lub mniejszą dotrze do drugiego. Jeśli to nastąpi, to mówimy, że oba zdarzenia mają związek przyczynowy, w tym sensie, iż jedno może być przyczyną drugiego. Jednak dwa zdarzenia mogą zajść w tak dużej odległości od siebie i w tak małych odstępach czasu, że żaden sygnał z jednego nie dotrze do drugiego. W takich wypadkach mówimy o zdarzeniach, które nie mają związku przyczynowego. Einstein wykazał, że nie możemy wówczas określić, czy zaszły one jednocześnie, czy też jedno zaszło przed drugim, czy po nim. Obie sytuacje są możliwe, a wszystko zależy od ruchu względnego obserwatorów i ich zegarów, które dokonują pomiaru czasu. Dla fizyki ważne jest, aby obserwatorzy zgodzili się na kolejność powiązanych przyczynowo zdarzeń w celu uniknięcia zamieszania przy określaniu przyczyny i skutku. Nie ma zaś powodu, aby zgadzali się co do porządku zdarzeń, które prawdopodobnie nie mogą mieć na siebie wpływu. W szczególnej teorii względności obserwatorzy nie są zgodni. Dlatego rozmyślanie naszego przyjaciela w Toronto o tym, co robi dokładnie teraz jego ukochana w Singapurze, nie ma sensu37. Natomiast ogólnie ma

sens jej zastanawianie się, co on robił kilka sekund wcześ​niej. Te kilka sekund to wystarczająco dużo czasu, aby mógł przesłać jej wiadomość, którą ona teraz czyta. Jego tekst i jej lektura są zdarzeniami związanymi przyczynowo. I wszyscy obserwatorzy zgodzą się co do tego, że tekst, który ona mu teraz przesyła, zmieni całą resztę jego życia, poczynając od momentu, gdy zacznie czytać jej wiadomość minutę później. Oprócz istnienia uniwersalnej granicy prędkości, co do której wszyscy obserwatorzy są zgodni, szczególna teoria względności opiera się na jeszcze innej hipotezie. To tak zwana zasada względności. Mówi ona, że prędkość, inna niż prędkość światła, jest wielkością względną – nie ma możliwości ustalenia, który z obserwatorów jest w ruchu, a który w spoczynku. Przypuśćmy, że dwóch obserwatorów zbliża się wzajemnie i każdy porusza się ze stałą prędkością. Zgodnie z zasadą względności każdy z nich może uważać się za pozostającego w stanie spoczynku, a zbliżanie przypisać ruchowi tego drugiego. Tak więc nie ma dobrego rozwiązania dla zagadnień, co do których obserwatorzy nie są zgodni, na przykład takiego jak pytanie, czy dwa zdarzenia odległe od siebie zachodzą jednocześnie. W taki sposób jednoczesność nie może być obiektywnie rzeczywista ani rzeczywiste nie może być „teraz”. Względność jednoczesności była wielkim ciosem dla realności czasu. Obserwatorzy będą zgodni co do tak zwanej struktury

przyczynowej. Weźmy dwa dowolne zdarzenia z historii Wszechświata i nazwijmy je X i Y. Jedno z nich będzie prawdziwe. Albo X jest przyczyną Y, albo Y będzie przyczyną X, albo żadne z nich nie jest przyczyną drugiego. Na te związki przyczynowe zgodzą się wszyscy obserwatorzy. Strukturę przyczynową tworzy lista tych trzech relacji dla wszystkich zdarzeń we Wszechświecie. Stąd wynika, że fizycznie realna w historii Wszechświata jest jego struktura przyczynowa. To obraz bezczasowy, ponieważ odnosi się do całej historii Wszechświata naraz. Nie ma preferowanej chwili, nic nie określa, jaki czas jest teraz, nie ma w ogóle odniesienia do czegokolwiek, co mogłoby odpowiadać naszemu doznawaniu chwili teraźniejszej. Nie wiadomo, co znaczy „przyszłość” , „przeszłość” albo „teraźniejszość”. Jeśli w szczególnej teorii względności usuniemy wszystko, co odpowiada obserwacjom dokonanym przez obserwatorów, to pozostaje struktura przyczynowa. A to wszystko, co jest niezależne od obserwatora, musi być – jeśli teoria jest poprawna – fizyczną rzeczywistością. Jeżeli zatem teoria względności jest zbudowana na poprawnych podstawach, to Wszechświat jest bezczasowy. Jest bezczasowy w dwóch znaczeniach: nie ma nic, co odpowiadałoby odczuciu teraźniejszości, a najbardziej podstawowym opisem jest historia związków

przyczynowych traktowana jako całość. Ten obraz historii Wszechświata wyrażony przez związki przyczynowe realizuje marzenie Leibniza o świecie, w którym czas jest w pełni definiowany przez relacje zachodzące pomiędzy zdarzeniami. Relacje są jedyną rzeczywistością odpowiadającą czasowi – relacje z rodzaju przyczynowych. W istocie oprócz struktury przyczynowej jest jeszcze inna informacja, co do której obserwatorzy będą zgodni. Weźmy zegar odmierzający sekundy, który unosi się swobodnie w przestrzeni. Wskazuje godzinę dwunastą w południe, a minutę później – minutę po dwunastej. Pierwsze zdarzenie można uznać za przyczynę drugiego. Pomiędzy nimi zegar tyka sześćdziesiąt razy. Co do liczby tyknięć zegara pomiędzy tymi dwoma zdarzeniami także zgodzą się wszyscy obserwatorzy, niezależnie od stanu ich ruchu. To tak zwany czas własny38. Obraz historii Wszechświata, ujęty w całość, jako układ zdarzeń związanych relacjami przyczynowymi, został nazwany wszechświatem-blokiem. Powodem tej dość szczególnie brzmiącej nazwy jest to, że wskazuje ona na rzeczywistość historii Wszechświata traktowanej jako całość – ta nazwa jest aluzją do kamiennego bloku, z którego można wyrzeźbić coś trwałego i niezmiennego. Koncepcja ta jest kulminacją dążenia, rozpoczętego przez Galileusza i Kartezjusza, aby traktować czas jako

jeszcze jeden wymiar przestrzeni. Daje ono opis całej historii Wszechświata w postaci obiektu matematycznego, który, jak zauważyliśmy w rozdziale 1, jest bezczasowy. Jeśli uwierzymy, że odpowiada on temu, co jest obiektywnie realne w naturze, to musimy stwierdzić, że Wszechświat jest fundamentalnie bezczasowy. Ten obraz wszechświata-bloku, wynikający ze szczególnej teorii względności Einsteina, jest następnym krokiem w dziele wykluczania czasu. Wszechświat-blok łączy w sobie czas i przestrzeń. Może być wyrażony jako pewien rodzaj czasoprzestrzeni, z trzema wymiarami przestrzennymi i czwartym czasowym (zobacz rysunek 10). Zdarzenie, które zachodzi w jakiejś chwili jest reprezentowane przez punkt w czasoprzestrzeni, a historia cząstki jest wykreślana w czasoprzestrzeni w postaci krzywej zwanej jej linią świata. W ten sposób czas został zaliczony do pojęć geometrycznych. Mówimy, że został „uprzestrzeniony” lub „zgeometryzowany”. Prawa fizyczne przedstawiane są geometrycznie. Na przykład linie świata trzech cząstek są w czasoprzestrzeni liniami prostymi. Jeśli cząstka jest fotonem, to reprezentuje ją prosta nachylona pod kątem 45 stopni (co odpowiada mierzeniu przestrzeni za pomocą jednostek czasu, gdy mówimy o latach świetlnych). Każda zwykła cząstka musi poruszać się wolniej od fotonu, nośnika światła, a zatem jej linia świata musi być nachylona pod ostrzejszym kątem do osi czasu.

Rysunek 10. Obraz czasoprzestrzeni jako wszechświata-bloku. Czasoprzestrzeń z jednym wymiarem przestrzennym i jednym czasowym. Wybieramy jednostki czasu i przestrzeni, tak aby promień światła wędrował pod kątem 45 stopni. Struktura przyczynowa jest ukazana geometrycznie; dwa zdarzenia mają związek przyczynowy, jeśli mogą być połączone linią nachyloną pod kątem 45 stopni lub ostrzejszym w stosunku do osi czasu. Widzimy także linię świata cząstki przebiegającą od przeszłości do przyszłości poprzez zdarzenie A. Narysowano też dwa promienie światła przebiegające przez zdarzenie A. Obszary zacieniowane zawierają zdarzenia, które nie mogą mieć związku przyczynowego ze zdarzeniem A.

Ta

elegancka

geometryczna

reprezentacja

szczególnej teorii względności została wymyślona w 1909 roku przez Hermanna Minkowskiego, który był jednym z wykładowców matematyki w trakcie studiów Einsteina. W powyższym obrazie każdy fakt fizyczny dotyczący ruchu w ramach szczególnej teorii względności jest wyrażany twierdzeniem o geometrii czasoprzestrzeni. Wynalazek Minkowskiego, czyli to, co nazywamy teraz przestrzenią Minkowskiego, był decydującym krokiem w eliminacji czasu, ponieważ wszystko, co możemy powiedzieć o ruchu zachodzącym w czasie, da się przełożyć na język twierdzeń matematycznych o bezczasowej geometrii. Jak ujął to Hermann Weyl, jeden z największych matematyków XX wieku: „Świat obiektywny po prostu jest, a nie się dzieje. To tylko moja świadomość, pełznąc wzdłuż linii świata mego ciała, ożywia wycinek świata jako przelotny obraz w przestrzeni, który w sposób ciągły zmienia się w miarę upływu czasu”39. Aby ukazać siłę obrazu wszechświata-bloku, podam pewien argument wysuwany przez niektórych filozofów, który ma ten obraz wspierać. Odwołuje się on jedynie do względności jednoczesności. Zacznijmy od zgody na to, że teraźniejszość jest realna. Nie możemy być pewni, czy przyszłość albo przeszłość są realne – w istocie chodzi o to, jak bardzo są one realne – ale nie mamy wątpliwości, że teraźniejszość jest realna. Na teraźniejszość składa się wiele zdarzeń, a żadne z nich nie jest bardziej realne niż inne. Nie wiemy, czy

dwa zdarzenia w przyszłości są realne, ale zgodzimy się, że jeśli zajdą one w tym samym momencie, to są równie realne, niezależnie, czy jest to teraźniejszość, przeszłość czy przyszłość. Jeśli jesteśmy operacjonistami, musimy mówić o tym, co obserwatorzy widzą. A więc stwierdzimy, że dwa zdarzenia są równie realne, jeśli niektórzy obserwatorzy zgodzą się co do ich jednoczesności. Założymy także, że relacja bycia równie realnym jest przechodnia, to znaczy jeśli A i B są równie realne i B i C są równie realne, to A i C też są równie realne. Następnie wykorzystujemy fakt, że w szczególnej teorii względności teraźniejszość jest zależna od obserwatora. Weźmy dowolne dwa zdarzenia z historii Wszechświata, z których jedno jest przyczyną drugiego. Nazwijmy je A i B. Zawsze będzie jakieś inne zdarzenie X, które ma następującą własność: istnieje obserwator, Maria, który widzi, że A jest jednoczesne z X. Istnieje też inny obserwator, Freddie, który widzi, że X jest jednoczesne z B. Pokazano to na rysunku 11.

Rysunek 11. Argument przemawiający za pojęciem wszechświata-bloku, który wynika z pojęcia jednoczesności. Dla dwóch dowolnych zdarzeń A i B połączonych związkiem przyczynowym istnieje zawsze zdarzenie X takie, że dla jakiegoś obserwatora jest jednoczesne z A, i istnieje taki obserwator, dla którego X jest jednoczesne z B.

Aby zrozumieć, dlaczego musi istnieć X, trzeba wiedzieć, nie tylko że jednoczesność jest względna, lecz także, że jest możliwie najbardziej względna, w następującym sensie. Jedną z konsekwencji postulatów Einsteina jest to, że jeśli dla pewnego obserwatora dwa zdarzenia zachodzą jednocześnie, to wszyscy inni obserwatorzy uważają, że nie są one związane ze sobą

przyczynowo. Jest także prawdą, że jeśli dwa zdarzenia nie są związane przyczynowo, to znajdzie się taki obserwator, dla którego są one jednoczesne. W ten sposób jednoczesność jest maksymalnie względna, w odniesieniu do przyczynowości. Jeśli B znajduje się głęboko w przyszłości A, wówczas X musi być tak odległe od obu, aby żaden promień światła nie mógł dotrzeć z A do X albo z X do B. Ponieważ jednak przestrzeń, którą opisał Minkowski, jest nieskończona, nie sprawia to problemu40. Teraz możemy rozumować w następujący sposób: zgodnie z kryterium, które przedstawiłem, A jest tak samo realne jak X, ale B jest także równie realne jak X. Tak więc A i B są na równi realne. Są one dowolnymi dwoma związanymi przyczynowo zdarzeniami w historii Wszechświata. Jeśli zatem jest sens mówienia o realności zdarzenia we Wszechświecie, to ta realność dotyczy każdego innego zdarzenia. Tak więc nie ma różnicy między teraźniejszością, przeszłością i przyszłością. Realne są bowiem wszystkie zdarzenia we Wszechświecie traktowane jako całość. Wniosek wynika z tego taki, że na realność świata składa się całość jego historii. Natomiast nie jest realny ani upływ poszczególnych chwil, ani same chwile. Moc tkwiąca w argumencie o wszechświecie-bloku polega na tym, że aby go przyjąć, trzeba uwierzyć w to, że teraźniejszość jest realna; konsekwentnie więc

wierzymy, że przyszłość i przeszłość są tak samo realne jak teraźniejszość. Natomiast jeśli nie ma rozróżnienia między teraźniejszością, przeszłością i przyszłością – jeśli powstanie Ziemi albo narodziny mej praprapraprababki są tak samo realne jak chwila, w której piszę tę książkę – to nie ma żadnego powodu, aby to teraźniejszości przypisywać realność, i wówczas realna jest cała historia Wszechświata. Hilary Putnam, wybitny współczesny filozof, ma na ten temat swe przemyślenia: Dochodzę do wniosku, że problem realności i określoności przyszłych zdarzeń został już teraz rozwiązany. W dodatku dokonała tego fizyka, a nie filozofia (…) W istocie nie wierzę, że istnieją jeszcze jakieś filozoficzne problemy związane z czasem; jest tylko fizyczny problem z wyznaczeniem dokładnej geometrii czterowymiarowego kontinuum, które 41 zamieszkujemy . Teza o wszechświecie-bloku występuje także czasami pod nazwą eternalizmu. Współcześni filozofowie stworzyli obszerną literaturę obejmującą wszystkie szczegóły tego zagadnienia. Jeden z jego wątków to pytanie, czy teza o wszechświecie-bloku jest zgodna z tym, jak rozumiemy czas. Zarówno zwykli ludzie, jak

i filozofowie używają takich określeń jak „teraz”, „przyszłość” i „przeszłość”. Czy mają one jakiś sens, jeśli realna jest tylko całość historii Wszechświata? Co znaczy: „Teraz jestem w pociągu jadącym pod kanałem La Manche”, jeśli „teraz” nie jest bardziej realne niż jakakolwiek inna chwila? Pogląd zwany kompatybilizmem utrzymuje, że dopóty nie ma kłopotów ze zwykłym słownictwem, dopóki słowa takie jak „teraz” i „jutro” rozumie się jako punkt widzenia dający szczególnie bezpośredni dostęp do pewnych faktów o bezczasowej rzeczywistości, podczas gdy inne fakty czyni trudno dostępnymi. Z łatwością mówimy „tutaj” i „tam”, wierząc, że obiekty bliskie i dalekie są równie realne. Dlatego pewni filozofowie dowodzą, że „teraz” i „przyszłość” nie różnią się zbytnio od „tutaj” i „tam”; to wszystko oznacza pewien punkt widzenia, który oddziałuje na to, co wokół obserwujemy, ale nie ma wpływu na to, co jest realne. Gdy używam słowa „teraz”, nie muszę sugerować, że „teraz” jest szczególne. Ja tylko opisuję swój punkt widzenia. Zawsze jest jakieś domyślne odniesienie, które określa znaczenie „teraz”, i zakładam, że jest zrozumiałe dla mojego rozmówcy. To wszystko pięknie, ale sprawdza się tylko wtedy, gdy wszechświat-blok jest poprawnym opisem natury. Inni filozofowie w to wątpią. John Randolph Lucas pisze: „Wszechświat-blok jest wielce wadliwym poglądem na czas. Nie pozwala wytłumaczyć upływu

czasu, prymatu teraźniejszości, dyskretnej natury czasu i różnicy między przyszłością a przeszłością”42. Właśnie do tej debaty odnoszą się argumenty podane w książce. Nie przedstawiam ich w postaci zwykle faworyzowanej przez filozofów, która ściśle wiąże się z analizą językową. Jestem raczej zainteresowany prawdziwością tych argumentów w fizyce – a najbardziej tym, czy szczególna teoria względności może być stosowana do historii Wszechświata jako całości. Odpowiedź jest negatywna, ponieważ szczególna teoria względności nie zawiera w sobie całości fizyki, a konkretnie nie zawiera grawitacji. Może być, co najwyżej, tylko przybliżeniem teorii, która zawiera grawitację. Problem rozszerzenia teorii względności na grawitację został rozwiązany przez Einsteina dzięki wynalezieniu jeszcze głębszej teorii, zwanej ogólną teorią względności. Uczony poświęcił na to dziesięć lat wytężonej pracy. Jednak zagadnienia filozoficzne związane ze szczególną teorią względności obejmują także ogólną teorię względności. Względność jednoczesności nadal pozostaje prawdziwa. Tak więc dyskusja filozoficzna, którą dopiero co przedstawiłem, rozszerza się na ogólną teorię względności i prowadzi do tej samej konkluzji, że realna jest jedynie historia całego Wszechświata potraktowanego jako całość. W ogólnej teorii względności prawdą pozostaje także to, że cała informacja niezależna od obserwatora ujęta

jest w strukturze przyczynowej i czasie własnym. Jeśli historia całego Wszechświata jest przedstawiona przez ogólną teorię względności, to nadal obowiązuje obraz wszechświata-bloku. Ogólna teoria względności nie tylko zachowuje cechy szczególnej teorii względności wskazującej, że czas jest nierealny, lecz także zapowiada nowe własności, które prowadzą do tego samego efektu. Po pierwsze, oferuje o wiele więcej możliwości podziału czasoprzestrzeni na przestrzeń i czas (zobacz rysunek 12). Czas można określać za pomocą układu zegarów rozrzuconych po całym Wszechświecie, ale zegary potrafią zachowywać się zabawnie – to znaczy chodzić w różnym tempie w różnych miejscach oraz w każdym miejscu przyspieszać albo spowalniać swój bieg. Opisujemy to zjawisko, mówiąc, że w ogólnej teorii względności czas może być wielopalczasty. Po drugie, geometria przestrzeni i czasoprzestrzeni nie jest już prosta ani regularna. Z reguły należy się tu spodziewać jakiejś zakrzywionej powierzchni, a nie po prostu płaszczyzny czy sfery. Geometria staje się dynamiczna. Fale, nazywane falami grawitacyjnymi, rozprzestrzeniają się poprzez geometrię czasoprzestrzeni. Czarne dziury mogą powstawać, poruszać się i orbitować wokół siebie nawzajem. Konfiguracja świata nie jest już zadana przez położenie cząstek w przestrzeni; teraz konfiguracją staje się sama geometria przestrzeni.

Rysunek 12. Porównujemy zwykłe pojęcie czasu z tym stosowanym w ogólnej teorii względności. Zazwyczaj myślimy, że czas wszędzie płynie w takim samym tempie, że powierzchnie równego czasu są oddzielone równymi odstępami, jak pokazano na górnym rysunku. W ogólnej teorii względności czas w każdym punkcie może być mierzony zegarami chodzącymi dowolnie szybko względem innych zegarów, o ile powierzchnie równego czasu nie pozostają ze sobą w związku przyczynowym. Takie uwolnienie czasu nazywamy „wielopalczastym”, jak zilustrowano na dolnym rysunku.

Jaki związek z grawitacją ma geometria przestrzeni i czasoprzestrzeni? Ogólna teoria względności opiera się na najprostszej ze wszystkich idei naukowych, czyli tym, że spadanie jest stanem naturalnym. Wielkie rewolucje w fizyce można rozpoznać po zmianach w pojmowaniu, czym jest ruch naturalny, z tym że przez słowo „naturalny” rozumiemy ruch niewymagający wyjaśnień. Dla Arystotelesa ruchem naturalnym był stan spoczynku względem środka Ziemi. Każdy inny ruch był nienaturalny i wymagał wyjaśnienia, takiego jak siły powodujące i utrzymujące ów stan. Dla Galileusza i Newtona ruchem naturalnym był ruch po linii prostej ze stałą prędkością, a do siły odwoływano się tylko wtedy, gdy następowała zmiana prędkości ciała lub kierunku jego ruchu – czyli gdy występowało przyspieszenie. Dlatego nie odczuwamy ruchu w samolocie albo pociągu, o ile poruszają się one bez przyspieszenia. Można zadać sobie takie pytanie: jeśli wszystkie ruchy są względne, to czy ma znaczenie, względem kogo samolot lub pociąg przyspiesza? Odpowiedź brzmi: oczywiście ma, ma znaczenie względem obserwatorów, którzy nie przyspieszają. Czy nie jest to pokrętne wyjaśnienie? Nie, jeśli dodamy, że istnieje duża klasa obserwatorów, którzy nie czują swego ruchu i poruszają się ze stałą prędkością i w stałym kierunku względem siebie. Tych specjalnych obserwatorów nazywamy obserwatorami inercjalnymi, i to oni stanowią

układ odniesienia dla praw Newtona. Pierwsze prawo Newtona mówi, że cząstki swobodne (w tym sensie, że nie działa na nie żadna siła lub wypadkowa sił, jest równa zeru) poruszają się ze stałą prędkością i bez zmiany kierunku względem obserwatorów inercjalnych. Przy okazji, ma to znaczenie w wypadku pytania, czy porusza się Ziemia, czy może Słońce. Kierunek ruchu Ziemi zmienia się w sposób ciągły – względem jakiegokolwiek obserwatora inercjalnego – w czasie jej obiegu po orbicie wokół Słońca. Jest to ruch przyspieszony; wymagane jest wyjaśnienie jego źródła, a stanowi je wpływ grawitacji Słońca. Dla Newtona grawitacja była siłą, taką jak inne znane mu siły. Natomiast Einstein uświadomił sobie, że jest coś szczególnego w ruchu spowodowanym grawitacją, a polega to na tym, że wszystkie ciała poruszają się z tym samym przyspieszeniem niezależnie od ich masy lub innych własności. Jest to konsekwencja praw Newtona. Przyspieszenie ciała jest odwrotnie proporcjonalne do jego masy, ale Newton postuluje, że siła grawitacji przyciągająca ciało jest proporcjonalna do jego masy. W efekcie masa się upraszcza, dlatego przyspieszenia spowodowane przez grawitację nie zależą od masy ciała i wszystkie ciała spadają z takim samym przyspieszeniem. Einstein uchwycił naturę spadania w postaci najpiękniejszego prawa w całym jego dorobku naukowym – i w całej fizyce – które nazwał zasadą

równoważności. Mówi ona mniej więcej tyle, że w czasie swobodnego spadku nie czuje się własnego ruchu. Odczucia kogoś w spadającej windzie są podobne do tych, jakie ma ktoś swobodnie unoszący się w przestrzeni. Nasze odczucie siły grawitacji jest takie, że nie spadamy. Siła, którą odczuwamy, gdy siadamy albo stoimy, to nie siła grawitacji ciągnąca nas w dół, ale siła, z jaką podłoga lub krzesło oddziałuje na nas, przeciwstawiając się naszemu spadaniu. Gdy siedzę przy biurku, poruszam się w sposób nienaturalny. Na tym właśnie polega geniusz Einsteina. Nie na matematycznej złożoności teorii – to są detale, z którymi łatwo dają sobie radę studenci matematyki i fizyki – ale na sposobie, w jaki zmienił postrzeganie najbardziej podstawowych aspektów naszych doznań. Przed Einsteinem myślano, że to, czego doznajemy codziennie, to grawitacja ciągnąca nas w dół. Einstein zdał sobie sprawę, że to błędne odczucie. Czujemy bowiem nacisk podłogi. Einstein z pomocą przyjaciela matematyka, Marcela Grossmanna, przekształcił tę najprostszą i najbardziej fizyczną ideę w hipotezę dotyczącą geometrii świata. Hipotezę opartą na najprostszym pojęciu geometrii, to znaczy linii prostej. Linia prosta zdefiniowana jest w geometrii jako tor wyznaczający najkrótszą odległość pomiędzy dwoma punktami. Ta definicja odnosi się do prostej leżącej na płaszczyźnie, ale może być także uogólniona

na powierzchnie zakrzywione. Pomyślmy o sferze, takiej jak na przykład powierzchnia Ziemi. Może nam się wydawać, że nie ma tam już żadnych linii prostych, ponieważ powierzchnia jest zakrzywiona, ale dostrzeżemy, że tak nie jest, jeśli zdamy sobie sprawę, iż z definicji linia prosta wyznacza najkrótszą drogę między dwoma punktami. Krzywe spełniające taką definicję nazywamy geodetykami. Gdy przestrzenią jest płaszczyzna, to geodetykami są linie proste; gdy przestrzenią jest sfera, geodetykami są segmenty wielkiego okręgu i po takich najkrótszych trasach poruszają się samoloty pomiędzy portami lotniczymi43. Jeśli tory obiektów spadających w polu grawitacyjnym są naturalne, to powinny być uogólnionymi liniami prostymi, wzdłuż których, zgodnie z prawami Newtona, poruszają się obiekty niepodlegające działaniu sił. Teraz mamy wybór, ponieważ podobnie jak cząstki swobodne poruszają się w przestrzeni wzdłuż linii prostych, w czasoprzestrzeni Minkowskiego wędrują one wzdłuż linii prostych. A więc czy chcemy, aby grawitację reprezentowało zakrzywienie przestrzeni, czy zakrzywienie czasoprzestrzeni? Z punktu widzenia wszechświata-bloku odpowiedź jest oczywista. To czasoprzestrzeń musi być zakrzywiona. Z powodu względności jednoczesności różni obserwatorzy różnią się w ocenie jednoczesności zdarzeń. Nie istnieje prosty, obiektywny, niezależny

od obserwatora opis zakrzywienia przestrzeni. Gdy Einstein wybrał realizację zasady równoważności przez zakrzywienie czasoprzestrzeni, miał na myśli to, że obiekt spadający w polu grawitacyjnym porusza się wzdłuż geodetyki. Ciała spadają swobodnie ku Ziemi nie dlatego, że działa na nie siła, ale dlatego, że czasoprzestrzeń jest zakrzywiona i geodetyki prowadzą ku środkowi Ziemi. Planety orbitują wokół Słońca nie dlatego, że wywiera ono na nie siłę, ale dlatego, że jego ogromna masa zakrzywia geometrię czasoprzestrzeni w taki sposób, że geodetyki zakrzywiają się wokół niego. W ten sposób Einstein wyjaśnił grawitację za pomocą geometrii czasoprzestrzeni. Geometria działa na materię, kierując ją wzdłuż geodetyk. Najwspanialsze w teorii Einsteina jest to, że ta akcja jest odwzajemniana. Uczony bowiem postulował, że masa zakrzywia czasoprzestrzeń, tak aby geodetyki przyspieszały ruch ku ciałom masywnym. Aby wprowadzić w życie tę ideę, zaproponował równania, które zakrzywiając czasoprzestrzeń, naśladują dokładnie działanie grawitacji. Dzięki tym równaniom można było dokonać wielu przewidywań, które zostały potwierdzone z ogromną dokładnością za pomocą obserwacji. Z teorii wynika, że Wszechświat jako całość się rozszerza. Równania przewidują, że orbity planet wokół Słońca i Księżyca wokół Ziemi różnią się nieznacznie od tych

przewidzianych w fizyce newtonowskiej, i zostało to potwierdzone w obserwacjach astronomicznych. Równania przewidują także, że czasoprzestrzeń wokół ekstremalnie zwartych ciał zakrzywia się tak bardzo, iż światło nie może stąd uciec; są to czarne dziury i takie bardzo masywne obiekty – masywne jak miliony gwiazd – istnieją w centrach większości galaktyk. Być może najbardziej niezwykłą konsekwencją równań ogólnej teorii względności jest to, że geometria czasoprzestrzeni może zostać zaburzona wskutek przemieszczających się przez nią fal. Są one podobne do zaburzeń obserwowanych na powierzchni jeziora; w trakcie biegu fali, oscylacjom ulega tutaj sama geometria przestrzeni. Fale grawitacyjne są spowodowane gwałtownymi zmianami ruchu bardzo masywnych ciał, takich jak dwie gwiazdy neutronowe orbitujące wokół siebie, i niosą ze sobą obraz bardzo gwałtownych zdarzeń zachodzących we Wszechświecie. Obecnie w detekcję takich fal angażuje się spore środki, co powinno dać nowe możliwości obserwacji wnętrza zapadających się grawitacyjnie supernowych lub pierwszych momentów Wielkiego Wybuchu, a nawet tego, co zdarzyło się wcześniej. Skutki działania fal grawitacyjnych obserwowano pośrednio. Gdy dwie gwiazdy neutronowe gwałtownie się okrążają, fale grawitacyjne przez nie wytworzone unoszą ze sobą energię, powodując, że obie zbliżają się do siebie po torze spiralnym. To spiralne opadanie

na siebie zostało zaobserwowane i z ogromną precyzją zgadza się z przewidywaniami ogólnej teorii względności. Tworząc ogólną teorię względności, Einstein zapoczątkował radykalną zmianę koncepcji czasu i przestrzeni. W fizyce newtonowskiej geometria przestrzeni jest ustalona raz na zawsze. Przestrzeń ma euklidesową geometrię trójwymiarową. Jest coś zastanawiająco asymetrycznego w relacji przestrzeni i materii w fizyce newtonowskiej: przestrzeń określa ruch materii, ale sama nigdy nie podlega zmianom. Nie ma tu wzajemności. Ruch materii, lub sama jej obecność, nigdy nie ma wpływu na przestrzeń. Przestrzeń, jak się wydaje, pozostałaby niezmienna, gdyby w ogóle nie było w niej materii. Ta asymetria została skorygowana przez ogólną teorię względności, w której przestrzeń staje się dynamiczna. Materia wpływa na zmiany geometrii, tak jak geometria wpływa na zmianę ruchu materii. Geometria staje się w pełni aspektem fizyki, podobnie jak pole elektromagnetyczne. Równania Einsteina, wyrażając dynamikę czasoprzestrzeni, są zatem podobne do innych hipotez: badają własności fizyczne zjawisk oraz ich wzajemne związki. Gdyby geometria czasoprzestrzeni była raz na zawsze ustalona, powiedzielibyśmy, że przestrzeń i czas są absolutne, a tylko szczegóły odróżniają to

twierdzenie od koncepcji Newtona, w której własności czasu i przestrzeni są bezczasowe i stałe. Założenie, że geometria jest dynamiczna i podlega wpływowi rozkładu masy, realizuje ideę czysto relacyjnego charakteru przestrzeni i czasu zaproponowaną przez Leibniza. Einstein kierował się poglądami Macha, gdy formułował relacyjną teorię przestrzeni i czasu. Mach wprowadził zasadę, zwaną teraz zasadą Macha, która mówi, że liczy się tylko ruch względny. Jeśli zatem dostaniemy zawrotu głowy od obracania się w koło, to tylko dlatego, że obracamy się względem odległych galaktyk. Twierdzenie, iż jest to wynik ruchu względnego, sugeruje, że będziemy czuli mdłości także wtedy, gdy będziemy stali nieruchomo, a cały Wszechświat będzie wirował wokół nas. Choć radykalna w tym aspekcie, ogólna teoria względności jest jednocześnie konserwatywna w innym, elegancko bowiem wpasowuje się w paradygmat newtonowski. Jest tam przestrzeń możliwych konfiguracji geometrii razem z materią. Jeśli zadane są warunki początkowe, to równania Einsteina określą całą przyszłą geometrię czasoprzestrzeni i jej zawartości, łącznie z materią i promieniowaniem. A historia świata w ogólnej teorii względności jest wciąż reprezentowana przez obiekt matematyczny. Czasoprzestrzeń ogólnej teorii względności odpowiada obiektowi matematycznemu znacznie bardziej

złożonemu niż trójwymiarowa przestrzeń euklidesowa teorii newtonowskiej. Natomiast z punktu widzenia wszechświata-bloku ten obiekt jest nieskazitelnie bezczasowy, nie rozróżnia przyszłości od przeszłości i brak w nim oznak świadomości chwili obecnej. Ogólna teoria względności zadała jeszcze jeden cios fundamentalnej roli czasu w fizyce. Niejawnym założeniem realności czasu jest to, że nie może mieć on początku. Jeśli ma początek, to musi go wyjaśniać coś, co nie jest czasem. A jeśli czas ma być wyjaśniany za pomocą czegoś pozaczasowego, to nie jest on już fundamentalnym zjawiskiem, natomiast bardziej fundamentalne jest to, z czego on się wywodzi. W jakimkolwiek przekonującym modelu Wszechświata wyrażanym w równaniach ogólnej teorii względności czas zawsze ma początek. W ciągu roku od publikacji ogólnej teorii względności w 1916 roku Einstein zastosował swoje równania do opisu całego Wszechświata. Założył, że Wszechświat jest skończony w swych rozmiarach, ale nie ma granicy – tak jak sfera. Był to zasadniczy przełom; po raz pierwszy Wszechświat mógł być zamkniętą i skończoną całością. Nie istnieje zatem sposób, aby się wydostać na zewnątrz. Pojęcie: „na zewnątrz Wszechświata”, nie ma w ogóle sensu. Zamykając Wszechświat, Einstein musiał założyć, że każdy zegar używany do pomiaru czasu musiał znajdować się wewnątrz układu. Mógł tak zrobić,

ponieważ równania jego teorii miały zupełnie nowe cechy, to znaczy, zachowywały sens niezależnie od tego, jakie zegary zostały użyte do pomiaru czasu, a jakie urządzenia – do pomiaru przestrzeni. Czas i przestrzeń mogły być mierzone w najbardziej nawet udziwniony i skomplikowany sposób, a równania wciąż pozostawały poprawne. Tak więc teoria nie była już związana z pomiarami dokonanymi przez specjalne zegary chodzące na zewnątrz układu44. Usuwając potrzebę umieszczania zegara na zewnątrz układu, ogólna teoria względności przybliżyła się do relacyjnej teorii fizycznej. Wciąż jednak oparta jest na paradygmacie newtonowskim, ponieważ została sformułowana za pomocą bezczasowych praw działających w bezczasowej przestrzeni konfiguracyjnej. Początkowo Einstein tworzył model wszechświata, który oprócz skończoności przestrzeni był wieczny i niezmienny. Jakkolwiek był on jednym z najbardziej oryginalnych fizyków w historii nauki, zawiodła go tym razem wyobraźnia, jak się bowiem wydaje, nie przyszło mu do głowy nic innego, tylko wszechświat statyczny i wieczny. Wówczas pojawił się problem, ponieważ siły grawitacyjne są przyciągające i zawsze powodują skupianie się obiektów materialnych. Oznaczało to, że grawitacja będzie powodować kurczenie się całego Wszechświata. Jeśli Wszechświat się rozszerzał, to grawitacja powinna spowalniać rozszerzanie. Jeśli ani się nie rozszerza, ani nie kurczy, to grawitacja

spowoduje, że zacznie się kurczyć. A zatem Einstein mógł przewidzieć, że Wszechświat musi być zmienny w czasie: albo się rozszerzać, albo kurczyć. Zamiast tego zmienił swoją teorię tak, aby utrzymać Wszechświat statyczny i dzięki temu dokonał innego, niezamierzonego odkrycia – odkrycia, które dopiero teraz zostało potwierdzone obserwacyjnie. Einstein zmodyfikował równania swej teorii, dodając człon, który przeciwstawiając się grawitacji, powoduje rozszerzanie się Wszechświata. Ta modyfikacja wymagała wprowadzenia nowej stałej przyrody nazwanej stałą kosmologiczną. O jej obecności świadczy odkryte niedawno przyspieszone rozszerzanie się Wszechświata. Bardziej ogólną przyczyną tego przyspieszenia jest ciemna energia, ale jeśli jej gęstość jest stała w przestrzeni i czasie, to może być ona stałą kosmologiczną Einsteina. Jak dotąd obserwacje potwierdzają ten fakt, ale kilka scenariuszy kosmologicznych zakłada zmienność gęstości ciemnej energii. Nie wydaje mi się, aby Einstein kiedykolwiek przypuszczał, że pewnego dnia jego stała zostanie zmierzona, a jednak tak się stało. Ma ona niezwykle małą wartość – i odpowiednio ogromne konsekwencje. Choć jest tak mała, to jednak efekty jej działania kumulują się w całym Wszechświecie. Stąd biorą się dwie przeciwstawne siły nań działające. Grawitacja pochodząca z całej materii powoduje kurczenie się

Wszechświata, podczas gdy stała kosmologiczna przyspiesza jego ekspansję. Einstein zakładał, że Wszechświat jest statyczny, a obie te siły doskonale się równoważą. Stwarza to jednak problem – mianowicie równowaga była niestabilna. Gdyby Wszechświat został tylko na chwilę wyprowadzony ze stanu równowagi, to jedna z tych tendencji natychmiast przeważyłaby, tak że albo by się stale kurczył, albo rozszerzał. Kosmos przecież jest pełen poruszających się gwiazd, czarnych dziur i fal grawitacyjnych, które mogłyby dostarczyć impulsu naruszającego równowagę chwiejną. Zdumiewający jest wniosek, że Wszechświat musi mieć historię. Może się rozszerzać, może się też kurczyć, ale nie może wciąż pozostawać taki sam. W latach dwudziestych XX wieku kilku astronomów i fizyków rozwiązało równania ogólnej teorii względności, które opisywały rozszerzanie się Wszechświata. Był to wielce szczęśliwy fakt, ponieważ w 1927 roku astronom Edwin Hubble odkrył dowód na to, że Wszechświat się rozszerza – co wskazywało, że także musiał mieć swój początek. I rzeczywiście, wszystkie te nowe niestabilne rozwiązania obejmowały ów pierwszy moment. Rozwiązania te noszą imiona swych odkrywców, Alexandra Friedmanna, H.P. Robertsona, Arthura Walkera i Georges’a Lemaître’a, ogólnie nazywa się je wszechświatami FRWL. Są to bardzo proste modele

zakładające, że Wszechświat jest taki sam w każdym swoim punkcie przestrzeni: to znaczy, ma taką samą gęstość materii i promieniowania. W pierwszym momencie istnienia wszechświata FRWL gęstość materii i promieniowania oraz natężenie pola grawitacyjnego mają nieskończenie wielką wartość i moment ten nazywany jest osobliwością początkową. W punkcie tym ogólna teoria względności przestaje działać, ponieważ równania nie opisują już ewolucji teraźniejszości w przyszłość. Nie radzą sobie z wielkościami nieskończonymi. Większość fizyków uważała, że teoria załamuje się z powodu zbyt uproszczonego modelu. Argumentowali, że wprowadzenie większej liczby detali, tak aby wszechświat mógł mieć lokalne własności, takie jak gwiazdy, galaktyki i fale grawitacyjne, spowoduje, iż osobliwości znikną i będzie można ekstrapolować czas poza moment początkowy. Trudno było dowieść tej hipotezy, ponieważ w czasach przed pojawieniem się superkomputerów niemożliwością było badanie pełnych rozwiązań ogólnej teorii względności. Przez kilkadziesiąt lat więc hipoteza ta przeżyła po prostu dlatego, że nie można było jej przetestować. W końcu jednak okazała się fałszywa. W latach sześćdziesiątych Stephen Hawking i Roger Penrose udowodnili twierdzenie, że we wszystkich rozwiązaniach, które mogłyby opisać nasz Wszechświat, występują osobliwości.

Jeśli ogólna teoria względności stanowi prawdziwy opis naszego Wszechświata, to trudno nie dojść do wniosku, że czas nie może być wielkością podstawową. W przeciwnym razie mielibyśmy kłopotliwe zagadnienie do rozwiązania: co było, zanim pojawił się czas? Oraz co zapoczątkowało Wszechświat? Jeszcze bardziej skomplikowane są pytania o pozaczasowe prawa: Jeśli prawa są bezczasowe, to co działo się z nimi, zanim powstał Wszechświat, który im podlega? Oczywista odpowiedź brzmi, że przed powstaniem Wszechświata nie było czasu, co oznacza, że prawa muszą być znacznie głębszym aspektem świata niż czas. W niektórych z tych rozwiązań czas, gdy już się pojawia, to istnieje wiecznie, podczas gdy Wszechświat rozszerza się i staje coraz bardziej rozrzedzony. W innych natomiast Wszechświat osiąga maksimum ekspansji, a potem zaczyna się kurczyć aż do Wielkiego Krachu, w którym wiele obserwowanych wielkości znów staje się nieskończenie wielkie. Te ostatnie rozwiązania opisują wszechświat, w którym czas także ma koniec. Czas zaczynający się i kończący nie jest problemem dla modelu wszechświata-bloku, w którym realna jest tylko jego historia jako bezczasowej całości. Tej rzeczywistości nie zagraża fakt, że czas ma początek lub koniec. Natomiast odkrycie, że w równaniach ogólnej teorii względności opisujących całość Wszechświata czas ma swój początek, wzmacnia model

wszechświata-bloku, a osłabia go każde twierdzenie, że czas jest bardziej fundamentalny niż prawa fizyki. Wysłuchaliśmy długiej opowieści o usuwaniu czasu z fizycznej koncepcji przyrody. Zaczęliśmy od tego, od czego zaczynali Galileusz i Kartezjusz, od uchwycenia ruchu i zatrzymania czasu metodą graficzną, w której czas jest jeszcze jednym wymiarem przestrzeni. W teorii względności takie obrazy ruchu uszeregowane w czasie stają się czasoprzestrzenią, bezczasowym obrazem historii Wszechświata, w którym w chwili teraźniejszej nie ma nic rzeczywistego. Względność jednoczesności mówi nam, że nie można się cofnąć, aby odseparować czas od przestrzeni. Możemy tylko iść do przodu w obrazie wszechświatabloku, w którym jego historia występuje jako bezczasowa całość. Dzięki szczególnej i ogólnej teorii względności, dobrze potwierdzonej eksperymentalnie, my, fizycy, mamy uzasadnione powody, aby przyjąć bezczasowy obraz rzeczywistości. 33 The Principle of Relativity (Dover Publications, 1952), składająca się z siedmiu prac Einsteina, dwóch Hendrika Antoona Lorentza i po jednej Hermanna Weyla oraz Hermanna Minkowskiego. 34 Zur Elektrodynamik bewegter Körper, „Annalen der Physik” 1905, nr 17(10), s. 891–921; Ist die Trägheit eines Körpers von seinem Energieinhalt abhängig?, „Annalen der Physik” 1905, nr 18, s. 639– 941.

35 Ci z czytelników, którzy chcą się zapoznać z argumentami w ten sposób wyjaś​nionymi, mogą zerknąć na stronę www.timereborn.com. 36 Mówiąc ściśle, nie trzeba zakładać, że prędkość światła jest prędkością graniczną, ale jest to prostsze ze względów pedagogicznych. 37 To nie to samo co powiedzieć, że jednoczesność dwóch zdarzeń jest faktem, ale nie można stwierdzić, czy ono zachodzi. Dlatego nie ma obiektywnego znaczenia, ponieważ różni obserwatorzy nie będą się zgadzać co do tego, czy dwa zdarzenia są jednoczesne. 38 To nie znaczy, że wszystkie zegary tykają tyle samo razy pomiędzy dwoma zdarzeniami. Rozważmy dwa poruszające się zegary, które mijają się, gdy na obu wybija południe, a potem się rozdzielają. Jeden z nich przyspiesza, a potem zawraca, mija ponownie ten drugi, gdy na tamtym jest 12.01. Przyspieszający zegar będzie pokazywać inny czas. Problem jednak w tym, że wszyscy obserwatorzy będą zgodni co do tego, ile razy konkretny zegar tyka pomiędzy zdarzeniami. Zegar, który tyka najwięcej pomiędzy dwoma zdarzeniami, jest tym, który spada swobodnie – a ponieważ czas mierzony przez swobodnie spadający zegar jest w ten sposób wyróżniony, nazywamy go czasem własnym. 39 Hermann Weyl, Philosophy of Mathematics and Natural Science, Princeton University Press, Princeton 1949. 40 Jeśli region czasoprzestrzeni jest ograniczony przestrzennie, to z każdego A można dotrzeć do każdego B w kauzalnej przyszłości A poprzez serię kroków, używając pośrednich X-ów. Dlatego nieskończony rozmiar czasoprzestrzeni Minkowskiego pomaga przeprowadzić dowód w eleganckiej zwięzłej postaci, ale to nieistotne.

41 Hilary Putnam, Time and Physical Geometry, „The Journal of Philosophy” 1967, nr 64, s. 240–247. 42 John Randolph Lucas, The Future, Blackwell, Oxford 1990, s. 8. 43 Po linii geodezyjnej czasoprzestrzeni ciało porusza się z czasem własnym, w przeciwieństwie do przestrzeni, gdzie w ruchu po geodezyjnej przebywa najkrótszą drogę. To dziwaczny sposób sformułowania geometrii czasoprzestrzeni; swobodnie spadający zegar tyka szybciej, a więc częściej niż jakikolwiek inny zegar poruszający się między dwoma zdarzeniami. Stąd dobra rada – jeśli chcesz pozostawać młody, przyspieszaj. 44 Matematyczny termin opisujący tę własność nazywa się niezmienniczością względem transformacji współrzędnych; jest blisko związany z inną własnością zwaną niezmienniczością względem dyfeomorfizmu. Mechanika newtonowska może także być sformułowana w taki sposób, że zegar będzie częścią układu; pod tym względem panuje pełna dowolność. Takie sformułowanie zostało rozwinięte przez Juliana Barboura we współpracy z Brunonem Bertottim. Ma ono na celu uczynienie paradygmatu newtonowskiego bardziej relacyjnym, ale wciąż oparte jest na bezczasowych prawach działających na bezczasową przestrzeń konfiguracyjną.

Rozdział 7

Kosmologia kwantowa i koniec czasu W ciągu przerwy bożonarodzeniowej pod koniec pierwszego semestru studiów w Hampshire College pojechałem do Nowego Jorku i zatrzymałem się w apartamencie kuzyna w Greenwich Village. Rankiem pojechałem metrem na moją pierwszą konferencję z fizyki, dostojnie nazwaną „6th Texas Symposium on Relativistic Astrophysics”, która odbywała się w wykwintnym hotelu położonym w centrum Manhattanu. Nie byłem zaproszony i nie zarejestrowałem się, lecz mój profesor fizyki, Herb Bernstein, powiedział, abym wpadł. Nie znałem tam nikogo, ale jakoś udało mi się poznać Kipa Thorne’a z Caltechu; ten poradził mi, aby ogólnej teorii względności uczyć się z podręcznika, który niedawno napisał wspólnie z Charlesem Misnerem i Johnem Archibaldem Wheelerem 45. Spotkałem tam też Lane’a Hughstona, młodego amerykańskiego matematyka studiującego w Oksfordzie, który poświęcił

mi godzinę na wyjaśnienie rewolucyjnie nowej teorii twistorów, a potem przedstawił mnie jej twórcy, Rogerowi Penrose’owi. Na jednej z sesji siedziałem na krześle przy przejściu, gdy jakiś człowiek na wózku inwalidzkim zaczął manewrować obok mnie. Stephen Hawking był już sławny dzięki swym osiągnięciom w badaniu ogólnej teorii względności, a działo się to na rok przed jego zdumiewającym odkryciem, że czarne dziury są gorące. Wysoki brodaty mężczyzna o eleganckich manierach przystanął przy nim, aby przez chwilę pogawędzić, zanim został wezwany na podium. Był to Bryce DeWitt. Nie przypominam sobie, o czym wygłaszał referat, ale słyszałem o nim i jego równaniach opisujących wszechświaty kwantowe. Nie miałem odwagi, aby porozmawiać z każdym z nich, i z pewnością nie wyobrażałem sobie, że gdy ukończę swój doktorat siedem lat później, ci dwaj giganci współczesnej fizyki zaproszą mnie do współpracy. Bryce DeWitt, John Wheeler, Charles Misner i Stephen Hawking to pionierzy, którzy wtedy byli w trakcie tworzenia nowej dziedziny – kosmologii kwantowej. Połączenie ogólnej teorii względności z teorią kwantów, którego dokonali, to niewątpliwe apogeum bezczasowego świata fizyki współczesnej. W tym kwantowym wszechświecie czas jest nie tylko zbędny, lecz całkowicie znika. Kwantowy kosmos nie ewoluuje, nie zmienia się, nie rozszerza ani kurczy, on

po prostu jest. Warto podkreślić, że ta dziedzina badań jest wysoce spekulatywną i poetycką domeną współczesnej fizyki, nieposiadającą jak dotąd solidnych podstaw obserwacyjnych. Konkluzje, jakie z niej wynikają, nie mają tak mocnych fundamentów naukowych jak teoria względności, której tryumf jest wciąż na nowo potwierdzany eksperymentalnie i która wciąż zadziwia precyzją przewidywań. Zaczniemy od mechaniki kwantowej, którą można uznać za sukces metod fizyki zjawisk w pudełku. Z początku muszę wyjaśnić tylko kilka podstawowych spraw, jak na przykład podukłady Wszechświata są prezentowane w mechanice kwantowej, aby utorować drogę dla dwustopniowej ekstrapolacji współczesnej fizyki. Najpierw musimy zunifikować mechanikę kwantową z ogólną teorią względności, aby otrzymać kwantową teorię grawitacji. Są różne podejścia do tej unifikacji, lecz dotąd nie wykonano żadnego eksperymentu, który mógłby zadecydować o wyborze jednego z nich. Na szczęście wiemy wystarczająco, jak taka teoria mogłaby być sformułowana, aby przejść do fazy następnej, czyli włączenia całego Wszechświata do teorii kwantowej. Przekonamy się, że rezultatem będzie bezczasowy obraz natury. Mechanika kwantowa dostarcza bardzo udanego opisu układów mikroskopowych, takich jak atomy

i molekuły. Okazuje się on jednak zaskakujący. Chcąc go zrozumieć, wymyślono kilka radykalnie odmiennych interpretacji mechaniki kwantowej. Różnią się one co do swych implikacji dotyczących czasu i tego, czy teoria kwantów może być stosowana do Wszechświata jako całości – oba te zagadnienia są dla naszej opowieści fundamentalne46. Moim zdaniem wyjaśnianie mechaniki kwantowej najlepiej rozpocząć od omówienia pytania, do czego nauka jest stworzona. Wielu z nas uważa, że jej zadaniem jest prawdziwy opis natury – czyli stworzenie takiego obrazu świata, jaki naszym zdaniem byłby prawdziwy, nawet gdyby nas nie było, aby to widzieć własnymi oczami. Jeśli tak myślimy, to bardzo się rozczarujemy mechaniką kwantową, ponieważ nie określa ona tego, co dzieje się w pojedynczym eksperymencie. Niels Bohr, jeden z twórców teorii kwantów, twierdził, że ci, którzy są tym rozczarowani, mają zupełnie błędne pojęcie o tym, czym jest nauka. Problemem nie jest bowiem teoria, lecz nasze wobec niej oczekiwania. Bohr ogłosił, że zadaniem teorii naukowej nie jest opis natury, ale dostarczenie zasad manipulacji obiektami w świecie i stworzenie języka, którym możemy się posługiwać w celu przekazywania rezultatów. Język teorii kwantów zakłada aktywny wpływ na stan fizyczny natury, gdyż mówi o tym, jak eksperymentator

bada układ mikroskopowy. Może on przygotować układ tak, by był izolowany i gotowy do pomiaru. Może także przekształcać układ, poddając go działaniu różnych czynników zewnętrznych. A potem dokonywać pomiarów urządzeniami, które dają odpowiedź na interesujące badacza zagadnienia dotyczące tak przygotowanego układu. Matematyczny język mechaniki kwantowej wyraża każdy z kroków w procesie przygotowywania układu, jego przekształcania i pomiaru. Ze względu na nacisk położony na to, co robimy z układem kwantowym, taką procedurę można nazwać operacyjnym podejściem do fizyki kwantowej. Głównym obiektem matematycznym w kwantowym opisie układu jest to, co nazywamy stanem kwantowym. Zawiera on wszelką dostępną obserwatorowi informację o układzie kwantowym w trakcie jego przygotowania, a potem pomiaru. Ta informacja jest ograniczona i w większości wypadków nie wystarcza do dokładnego przewidzenia, gdzie znajdują się cząstki, z których zbudowany jest układ. Zamiast tego otrzymujemy prawdopodobieństwa, z jakimi moglibyśmy znaleźć cząstki, gdybyśmy zamierzali zmierzyć ich położenia. Weźmy pod uwagę atom składający się z jądra i kilku elektronów wokół niego. Najbardziej dokładnym opisem byłby ten, w którym moglibyśmy podać położenie każdego z elektronów. Każde ułożenie elektronów jest konfiguracją. Zamiast tego w mechanice kwantowej najlepszym opisem jest podanie

prawdopodobieństwa wystąpienia każdej możliwej konfiguracji, w jakiej da się znaleźć elektrony47. Jak można sprawdzić przewidywania teorii, gdy dotyczą one jedynie prawdopodobieństw? Pomyślmy, jak przewiduje się wypadnięcia orła w połowie rzutów monetą. Aby to sprawdzić, nie wystarczy rzucić monetą tylko jeden raz; rezultatem będzie albo orzeł, albo reszka i oba te położenia są zgodne z przewidywaniem. Trzeba rzucić więcej razy i zanotować, jaką część przypadków stanowi orzeł. Im więcej będzie rzutów, tym bliższa 50 procent będzie proporcja orłów. To samo dotyczy probabilistycznych przewidywań mechaniki kwantowej: aby je sprawdzić, trzeba przeprowadzić eksperyment wiele razy48. Dokonanie pomiaru na pojedynczym układzie kwantowym jest jak rzucenie monetą tylko raz. Jakikolwiek losowy rezultat będzie zgodny z prawie każdym przewidywaniem teorii. Ta metoda ma sens, gdy jest zastosowana do małego, izolowanego układu, takiego jak atom wodoru. Aby sprawdzić przewidywania, wymagana jest duża liczba identycznych kopii układu; jeśli mamy tylko jeden układ, nie możemy tego dokonać – ponieważ mają one naturę probabilistyczną! Musimy mieć także możliwość manipulowania zbiorem tych układów, przygotowując je na początek do interesującego nas stanu kwantowego, a potem mierząc jego własności. Jeśli mamy wiele kopii układu w świecie, to każda z nich musi być małą cząstką

tego, co istnieje. Poza układem zaś znajdują się urządzenia pomiarowe i osie układu współrzędnych, względem których mierzymy konfiguracje. Zastosowanie mechaniki kwantowej wydaje się więc ograniczone do układów izolowanych. Jest to rozszerzenie paradygmatu newtonowskiego – rozszerzenie fizyki zjawisk w pudełku. Aby się przekonać, jak ściśle metoda mechaniki kwantowej opiera się na badaniu układów izolowanych, popatrzmy, jak jest w niej opisana zmiana czasu. Prawa fizyki newtonowskiej są deterministyczne, co oznacza, że teoria dokładnie przewiduje ewolucję układu w czasie. Podobnie prawo mechaniki kwantowej określa, jak stan układu kwantowego ewoluuje w czasie. To prawo jest także deterministyczne w takim sensie, że kiedy jest dany kwantowy stan początkowy, to można dokładnie przewidzieć, jaki będzie ów stan w późniejszym czasie. Prawo ewolucji stanów kwantowych jest zwane równaniem Schrödingera. Działa podobnie do praw Newtona, ale określa, jak stany, a nie położenia cząstek zmieniają się w czasie. Jeśli zadamy kwantowy stan początkowy, to równanie Schrödingera powie nam, jaki będzie on w każdym późniejszym momencie. Tak jak w fizyce newtonowskiej, zegar musi się znajdować na zewnątrz układu razem z obserwatorami i ich urządzeniami pomiarowymi. Chociaż ewolucja stanu kwantowego jest

deterministyczna, to jej implikacje dotyczące dokładnej konfiguracji atomów są tylko probabilistyczne – ponieważ sam związek między stanem kwantowym a konfiguracją jest probabilistyczny. Wymaganie, aby zegar mierzący czas w mechanice kwantowej musiał się znajdować na zewnątrz układu, ma poważne konsekwencje, gdy staramy się zastosować teorię kwantów do Wszechświata jako całości. Z definicji bowiem nic nie może być na zewnątrz Wszechświata, nawet zegar. Jak więc stan kwantowy Wszechświata zmienia się względem zewnętrznego zegara? A ponieważ nie ma takiego zegara, jedyna odpowiedź może brzmieć: nie zmienia się względem zewnętrznego zegara. Stan kwantowy Wszechświata, w rezultacie, widziany z mitycznego punktu odniesienia poza nim, wydaje się zatrzymany w czasie. To wprawdzie dziwny argument słowny, który mógłby łatwo prowadzić do mylnych wniosków, ale w tym wypadku wspiera go matematyka, dając taki sam rezultat, gdy zastosujemy równanie Schrödingera do kwantowego stanu Wszechświata; stan ten nie zmienia się z czasem. W teorii kwantów zmiana w czasie jest związana z energią. To konsekwencja podstawowej cechy fizyki kwantowej zwanej dualnością korpuskularno-falową. Newton traktował światło jak strumień cząstek. Później w celu wyjaśnienia zjawisk dyfrakcji i interferencji wprowadzono hipotezę, że światło jest

falą. W 1905 roku Einstein rozwiązał dylemat natury światła, proponując jego obraz jako jednocześnie fali i jako cząstek. Prawie dwadzieścia lat później Louis de Broglie zaproponował, że ta dualność falowokorpuskularna jest powszechna. Wszystko, co się porusza, jest jednocześnie falą i składa się z cząstek materii. Może się to wydawać zagadkowe. Z pewnością trudno wyobrazić sobie coś, co jest jednocześnie falą i cząstką. Właśnie! Jak już zauważyłem, mechanika kwantowa opisuje zjawiska, które nie mogą być wizualizowane. Możemy manipulować cząstkami kwantowymi w czasie eksperymentu i mówić o tym, jak reagują pod wpływem pomiaru, ale nie da się wizualizować tego, co się dzieje, gdy nie dokonujemy żadnych manipulacji na naturze. Jednym z aspektów falowych światła jest jego częstość, czyli liczba oscylacji w ciągu jednej sekundy. Cząstkowym aspektem zaś – jego energia; każda z cząstek światła niesie odpowiednią wielkość energii. W mechanice kwantowej energia w obrazie korpuskularnym jest zawsze proporcjonalna 49 do częstości z obrazu falowego . Uzbrojeni w tę wiedzę o dualności korpuskularnofalowej powróćmy do kwantowego stanu Wszechświata. Stan ten nie może się zmieniać, ponieważ nie ma zegara na zewnątrz Wszechświata. Dlatego jego częstość oscylacji musi być równa zeru – jeśli się nie zmienia, to nie ma oscylacji. A skoro częstość jest proporcjonalna

do energii, oznacza to, że energia Wszechświata musi być równa zeru. Istnieje ujemna ilość energii skumulowana w każdym skupisku scalanym siłami grawitacji. Na przykład Układ Słoneczny. Gdybyśmy chcieli wyrzucić Wenus z jej orbity wokół Słońca, usunąć ją z Układu Słonecznego, wymagałoby to dostarczenia jej energii. A ponieważ musielibyśmy dostarczyć energię, aby znalazła się w stanie o energii równej zeru, to więziona na swej orbicie Wenus ma energię ujemną. Ta ujemna energia nazywana jest grawitacyjną energią potencjalną. Wszechświat może mieć całkowitą energię równą zeru, gdy całkowita grawitacyjna energia potencjalna jest równoważona przez dodatnią energię zawartą w masie i ruchu całej materii. Ze względu na zerową i energię, i częstość kwantowy stan Wszechświata jest stały. Kwantowy wszechświat ani się nie rozszerza, ani nie kurczy. Nie ma także rozchodzących się w nim fal grawitacyjnych. Nie ma formowania się galaktyk ani planet orbitujących wokół gwiazd. Kwantowy wszechświat po prostu jest50. Te konsekwencje zastosowania mechaniki kwantowej do całości Wszechświata zostały odkryte w połowie lat sześćdziesiątych przez pionierów grawitacji kwantowej: DeWitta, Wheelera i Petera Bergmanna. Modyfikacja równania Schrödingera, do której nawiązywaliśmy, stwierdzając, że stan kwantowy jest stały, nosi nazwę: równania Wheelera–DeWitta. Szybko zauważono, że

czas znika, i zaczęto dyskutować nad implikacjami tego faktu. I wciąż nad tym dyskutujemy. Co kilka lat gdzieś odbywa się konferencja poświęcona Zagadnieniu Czasu w Kosmologii Kwantowej. A ponieważ ludzka wyobraźnia jest nieograniczona, dlatego proponowana jest wciąż szeroka gama rozwiązań. Stałość kwantowego stanu Wszechświata nie jest jedynym problemem, gdy staramy się zastosować teorię kwantów w kosmologii51. Istnieje tylko jeden Wszechświat, nie można więc zbudować populacji układów w identycznych stanach kwantowych i porównać dokonanych na nich pomiarów z prawdopodobieństwami, jakie przewiduje mechanika kwantowa. Natychmiast pojawia się zagadnienie porównania teorii z eksperymentem lub obserwacjami. Jest nawet jeszcze gorzej, ponieważ nie można przygotować wszechświata z jakimś kwantowym stanem początkowym, aby przynajmniej zbadać konsekwencje różnych wyborów tego stanu. Wszechświat wydarzył się raz i miał taki stan początkowy, jaki miał. Nie było nas wtedy, aby dokonać wyboru jego stanu początkowego, a nawet gdybyśmy byli, nie moglibyśmy manipulować Wszechświatem, ponieważ bylibyśmy jego częścią. Sam pomysł przygotowywania stanu początkowego Wszechświata wymaga wyobrażenia siebie w postaci pseudobóstwa egzystującego na zewnątrz kosmosu. Długa jest lista ograniczeń kosmologii kwantowej: nie możemy przygotować kwantowego stanu

początkowego Wszechświata i nie możemy działać nań z zewnątrz, aby go przekształcać. Nie mamy dostępu do zbioru wszechświatów, aby nadać znaczenie prawdopodobieństwom, jakie otrzymujemy w wyniku zastosowania formalizmu kwantowego. A na samym szczycie listy znajduje się brak miejsca poza Wszechświatem, aby umieścić tam instrumenty pomiarowe. Dlatego takie pojęcie jak pomiar zmian zegarem zewnętrznym względem badanego układu kwantowego nie może istnieć. Z operacyjnego punktu widzenia zastosowanie mechaniki kwantowej do Wszechświata było szaleństwem od samego początku. Nie udało się, bo stosowaliśmy ją tam, gdzie nie ma sensu żadna z definicji operacyjnych zawartych w teorii. To wszystko skutek błędu polegającego na rozszerzaniu na całość Wszechświata metod stosowanych do małych jego części. Problem okazuje się nawet poważniejszy, niż go tutaj przedstawiam, ponieważ wybór współrzędnych czasowych w ogólnej teorii względności jest, jak już wiemy, zupełnie dowolny. Dlatego należy zapytać: „Gdyby na zewnątrz Wszechświata znajdował się zegar, to jaki czas wewnątrz niego by mierzył?”. „A gdyby istniał oscylujący stan kwantowy, to które zegary wewnątrz Wszechświata ukazałyby go jako regularne oscylacje?”. Odpowiedź jest następująca: „Każdy możliwy czas i wszystkie zegary”. W rezultacie nie ma

jednego równania Wheelera–DeWitta, lecz jest ich nieskończenie wiele. Wszystkie one wskazują, że częstość, z jaką stan kwantowy oscyluje, jest równa zeru dla każdego dowolnego pojęcia czasu i każdego zegara wewnątrz Wszechświata. Dla dowolnego zegara noszonego przez dowolnego obserwatora nic nie wydarza się w kwantowym stanie Wszechświata. Te rozważania przez blisko dwie dekady miały jedynie akademicki charakter, ponieważ nikt nie był w stanie rozwiązać równań Wheelera–DeWitta. Aż do wynalezienia podejścia zwanego pętlową grawitacją kwantową, dzięki której można było sformułować je na tyle precyzyjnie, aby dały się rozwiązać. Tę rewolucję zapoczątkował Abhay Ashtekar odkryciem w 1985 roku nowego sformułowania ogólnej teorii względności52. Kilka miesięcy później wraz z Tedem Jacobsonem znaleźliśmy dokładne rozwiązania równań Wheelera–DeWitta, a w istocie nieskończenie wiele ich rozwiązań. Pracowaliśmy wówczas na Uniwersytecie Kalifornijskim w Santa Barbara w Instytucie Fizyki Teoretycznej (teraz nazywanym Instytutem Fizyki Teoretycznej im. Kavliego)53. Aby opisać pełny stan pola grawitacyjnego, trzeba było rozwiązać jeszcze inne równania, i zrobiliśmy to dwa lata później z Carlem Rovellim, pracującym wtedy na Uniwersytecie Rzymskim w Narodowym Instytucie Fizyki Jądrowej54. Sprawy nabrały tempa i w latach dziewięćdziesiątych

Thomas Thiemann z Uniwesytetu Harvarda odkrył znacznie większy zbiór rozwiązań 55. Od tego czasu rozwinięto jeszcze lepsze metody rozwiązywania oparte na czymś, co nazywamy teraz modelami piany kwantowej56. Te rezultaty ukazały pilną konieczność rozstrzygnięcia problemu czasu w bezczasowym Wszechświecie, aby nadać fizyczny sens wszystkim tym matematycznym rozwiązaniom grawitacji kwantowej. Sedno sprawy polega na zbadaniu, czy czas „wyłania się” z bezczasowego Wszechświata, aby teoria nie była w jawnym konflikcie z tymi aspektami czasu, które obserwujemy na świecie. Niektórzy moi koledzy sugerują, że czas jest częścią przybliżonego opisu Wszechświata – opisu użytecznego w wielkiej skali, ale tracącego przydatność w coraz mniejszych skalach. Czymś podobnym jest temperatura: ciała makroskopowe mają temperaturę, ale pojedyncze cząstki już nie, ponieważ temperatura ciała jest średnią energią atomów, z których to ciało się składa. Niektórzy fizycy sugerują, że czas, tak jak temperatura, ma znaczenie tylko w świecie makroskopowym, ale w skali Plancka już nie. Inne podejścia mają na celu odkrycie czasu w korelacjach pomiędzy różnymi podukładami Wszechświata. Spędziłem wiele godzin, rozmyślając, jak w tych podejściach czas mógł się wyłonić z bezczasowego Wszechświata, i wciąż pozostaję przekonany, że żadne

z nich nie jest poprawne. W pewnych wypadkach powody mają naturę matematyczną, a ich opis na nic nam się tu nie przyda. Na głębszych powodach mego sceptycyzmu wobec kosmologii kwantowej skupimy się w części II. Moi przyjaciele, po przeciwnej stronie tej debaty, dowodzą, że założenia prowadzące do równań Wheelera–DeWitta nie zawierają nic więcej oprócz razem wziętych zasad mechaniki kwantowej i ogólnej teorii względności. Wiedząc, że każda z tych zasad w dziedzinie swego stosowania jest dobrze potwierdzona eksperymentalnie, rozsądniej jest najpierw zrozumieć wszystkie ich implikacje, a potem je rozwijać. Byłem jednym ze stażystów po doktoracie u Bryce’a DeWitta. Zawsze skłaniał nas do tego, abyśmy nie narzucali teorii swych metafizycznych uprzedzeń, lecz przyjmowali interpretacje, jakie z niej w sposób naturalny wynikają. Wciąż słyszę jego łagodny głos: „Pozwólcie teorii przemówić”. Brytyjski fizyk, filozof i historyk nauki Julian Barbour zaproponował najlepiej przemyślane podejście do kosmologii kwantowej ujętej równaniami Wheelera– DeWitta. Opisał je w swej książce The End of Time (Koniec czasu) z 1999 roku. Ideę Barboura, choć radykalną, nietrudno wyrazić opisem słownym. Zakłada ona, że wszystko, co istnieje, w gruncie rzeczy jest ogromnym zbiorem chwil. Każda z chwil przyjmuje

postać konfiguracji Wszechświata. Wszystkie konfiguracje istnieją – i są odczuwane przez każdą istotę zawartą w tej konfiguracji – jako chwile. Barbour nazywa ten zbiór „stertą chwil”. Chwile w stercie nie są ułożone jedna za drugą. Nie istnieje pomiędzy nimi relacja porządkująca. One po prostu są. W metafizycznym obrazie przedstawionym przez Barboura w ogóle nie istnieje nic oprócz czystych chwil. Można się sprzeciwić: „Przecież odczuwam upływ czasu”. Barbour twierdzi, że nie. Wszystko, co odczuwamy, według niego to chwile – migawki doznań. Strzel palcami – to była migawka, jedna chwila ze sterty. Znów strzel palcami – to jeszcze inna chwila. Masz wrażenie, że druga nastąpiła po pierwszej, ale to iluzja. Myślisz tak, ponieważ w drugiej chwili miałeś wspomnienie pierwszej. Jednak to wspomnienie nie jest doświadczaniem upływu czasu (o którym Barbour twierdzi, że nie ma czegoś takiego), po prostu wspomnienie pierwszej chwili jest częścią doznania drugiej. Według Barboura wszystko, czego doznajemy – i wszystko, co jest rzeczywistością – to pojedyncze chwile ze sterty. Jednak w stercie istnieje pewien element struktury. Chwile mogą się pojawiać więcej niż raz. Można wtedy mówić o względnej częstości chwil; jedna może być obecna miliard razy więcej niż inna. Owe względne częstości chwil są tym samym, czym prawdopodobieństwa dla stanu kwantowego. Dwie

konfiguracje mają względne prawdopodobieństwo w stercie zadane przez względne prawdopodobieństwo w stanie kwantowym. To wszystko. Nie ma kwantowego wszechświata opisanego jednym stanem kwantowym. Ten wszechświat składa się z bardzo wielkiego zbioru chwil. Niektóre są bardziej pospolite niż inne, w istocie są o wiele bardziej pospolite od innych. Pewne pospolite konfiguracje w stercie są nudne. Opisują one chwile we Wszechświecie wypełnionym gazem fotonów albo gazem atomów wodoru. Barbour twierdzi, że w rzeczywistym stanie kwantowym Wszechświata większość nudnych konfiguracji ma małą objętość. Stąd przewiduje korelację między czymś małym i nudnym. Jeśli założymy istnienie czasu, to musielibyśmy stwierdzić, że Wszechświat był nudny, gdy był mały. Barbour mówi, że to wystarcza, aby stwierdzić, że w stercie bycie małym i bycie nudnym to dwie skorelowane własności chwil. Inne konfiguracje w stercie są interesujące – reprezentują pełną złożoność z istotami żywymi, takimi jak my sami, żyjącymi na planetach orbitujących wokół gwiazd w galaktykach, które są zorganizowane w płaszczyzny i gromady. Barbour twierdzi, że we właściwym stanie kwantowym pełna złożoność i życie są skorelowane z dużą objętością. Dlatego wiele, a może większość konfiguracji z dużymi objętościami będzie zawierała w sobie istoty żywe.

Ponadto Barbour uważa, że we właściwym stanie kwantowym najbardziej pospolite konfiguracje mają struktury odnoszące się niejawnie do innych chwil. Te odniesienia nazywa „kapsułami czasu”. Są to wspomnienia, książki, artefakty, skamieliny, DNA i tak dalej. Opowiadają one historie, które można interpretować za pomocą sekwencji chwil, w jakich coś się zdarzyło, i które prowadzą do złożoności, są więc zbudowane jedne na drugich. To znaczy, iż kapsuły czasu podtrzymują iluzję, że czas płynie. Zgodnie z teorią Barboura przyczynowość także jest iluzją. Nic nie może być przyczyną czegoś, ponieważ w rzeczywistości nic się nie zdarza we Wszechświecie. Istnieje tylko ogromna sterta chwil, z których część jest doznawana przez istoty takie jak my. W rzeczywistości każde doznanie chwili jest tylko tym. Nie ma związku z resztą. Są tylko chwile, ale nie ma wśród nich porządku, nie ma upływu czasu. Równania Wheelera–DeWitta pozwalają na wyłonienie się przybliżonych pojęć porządku i przyczynowości, tak więc wśród najbardziej pospolitych chwil istnieją korelacje powodujące powstanie wrażenia pewnej sukcesji chwil, pomiędzy którymi może się pojawić związek przyczynowy. W bardzo dużym przybliżeniu opowieść o następstwie chwil może być pomocna przy wyjaśnianiu struktur występujących w ich zbiorze. Jednak nie jest to zagadnienie podstawowe i gdy przyjrzeć się mu z bliska,

okazuje się, że nie istnieje porządek ani przyczynowość, tylko sterta chwil. Teoria Barboura ma elegancką własność. Rozwiązuje trafnie problem prawdopodobieństwa, jakim może się posługiwać kosmologia kwantowa. Istnieje tylko jeden wszechświat, ale zawiera wiele chwil. Kwantowe prawdopodobieństwa są względnymi częstościami chwil istniejących jako część rzeczywistości. Schemat Barboura wyjaśnia, jak pojawia się wrażenie, że świat ma historię, której procesy przyczynowe tworzą złożone struktury. Ta propozycja tłumaczy także widoczną kierunkowość czasu. Istnieje uprzywilejowany kierunek w przestrzeni konfiguracyjnej prowadzący od konfiguracji o małej objętości ku tym o objętości większej. Gdy wyłania się czas, powstaje współzależność między rosnącą objętością i rosnącym czasem i to wyjaśnia, dlaczego wydaje się, że Wszechświat ma strzałkę czasu. Bezczasowa kwantowa kosmologia Barboura staje się pocieszeniem, gdy konfrontujemy się z własną śmiertelnością. Ja to czuję i chciałbym w nią uwierzyć. Doznajesz swego istnienia w zbiorze chwil. A według Barboura to wszystko, co jest. Chwile są zawsze, wiecznie. Przeszłość nie jest utracona. Przeszłość, teraźniejszość i przyszłość są z nami zawsze. Nasze doznanie może być skończonym zbiorem chwil, ale te chwile nie znikają ani nie giną. Dlatego nic się nie kończy, gdy dobiega nasz czas. Działa to tak, że teraz

doznajesz chwili, która zawiera w sobie wszystkie wspomnienia, jakie zgromadzisz. Nic nie ustaje, bo nic się nigdy nie zaczęło. Strach przed śmiercią opiera się na iluzji, która z kolei jest wynikiem pomyłki intelektualnej. Upływ czasu się nie kończy, bo upływu czasu nie ma. W życiu są tylko chwile, które zawsze były i zawsze będą. Nie będę spekulował, co Einstein powiedziałby na temat bezczasowej kosmologii kwantowej Juliana Barboura, ale istnieją dowody, że zniknięcie czasu w obrazie wszechświata-bloku dało mu wiele satysfakcji i przyniosło pocieszenie. Już jako nastolatek dzięki kontemplacji uciekał ze skomplikowanego ludzkiego świata w bezczasowy świat praw natury. W liście do wdowy po swoim przyjacielu Michele Besso pisał: „Odszedł z tego dziwnego świata trochę wcześniej ode mnie. Nie ma to jednak znaczenia. Ludzie tacy jak my, wierzący w fizykę, wiedzą, że różnica między przeszłością, teraźniejszością a przyszłością jest upor​czywą, trwałą iluzją”. 45 Charles W. Misner, Kip S. Thorne, John Archibald Wheeler, Gravitation, W.H. Freeman, San Francisco 1973. 46 Więcej informacji o różnych interpretacjach teorii kwantów i ich wpływie na argumentację zawartą w tej książce można znaleźć w dodatkach zamieszczonych on line.

47 Stan kwantowy uzyskuje to prawdopodobieństwo dwustopniowo. W pierwszym kroku stan kwantowy może być reprezentowany liczbą przypisaną do każdej możliwej konfiguracji, zwaną amplitudą kwantową tej konfiguracji. W drugim kroku bierzemy kwadrat amplitudy każdej konfiguracji, aby otrzymać prawdopodobieństwo, że układ się w niej znajduje. Dlaczego te dwa kroki? Amplituda jest liczbą zespoloną – kombinacją dwóch liczb rzeczywistych. Taka procedura pozwala na wprowadzenie rozkładu prawdopodobieństwa innych wielkości, takich jak moment pędu, do tego samego stanu kwantowego. 48 Jeśli więc chcemy sprawdzić przewidywanie dotyczące prawdopodobieństwa przebywania elektronu w atomie w różnych miejscach na podstawie stanu kwantowego atomu, to musimy przygotować wiele atomów w takim stanie i zmierzyć w każdym z nich położenie elektronu w atomie. Otrzymamy z tych pomiarów eksperymentalny rozkład prawdopodobieństwa. Następnie możemy porównać prawdopodobieństwa eksperymentalne z tymi, jakie daje teoretyczne przewidywanie obliczone na podstawie stanu kwantowego. Jeśli zgadzają się w rozsądnych granicach błędu, to mamy dowód, że początkowe twierdzenie o układzie w danym stanie kwantowym jest poprawne. 49 Współczynnikiem proporcjonalności jest stała h, słynna stała Plancka, przedstawiająca wartość kwantu energii i nazwana tak na cześć jej odkrywcy, Maxa Plancka. 50 Istnieją przybliżone opisy kwantowych stanów kosmologicznych odpowiadających rozszerzającym się wszechświatom, ale w bardzo dużym stopniu zależą one od wyboru warunków początkowych. Ich stan jest superpozycją rozszerzających się i kurczących wszechświatów. Powinienem także wspomnieć, że to niejedyny argument w sprawie eliminacji czasu w kosmologii kwantowej, ale wystarczy dla naszych celów. Inne argumenty podawane są w kontekście podejścia do kwantowej grawitacji w wydaniu całek po trajektoriach; także

Connes i Rovelli sugerują, że czas wyłania się w konsekwencji tego, iż Wszechświat ma skończoną temperaturę. 51 Pojawia się jeszcze jeden problem związany z faktem, że w mechanice kwantowej nie wszystkie własności, które są obserwowalne, mają określone wartości przez cały czas. Stąd nie wszystkie stany kwantowe układu mają sprecyzowane wartości energii, ale niektóre tak. Jak się okazuje, te stany o określonej energii oscylują także z określoną częstością. Rzeczywiście, tak właśnie jest – oscylują w miejscu z częstością proporcjonalną do energii układu. Wiele układów ma dyskretny zbiór stanów z określonymi energiami. Mówimy wtedy, że energia tego układu jest skwantowana. Natomiast większość stanów kwantowych nie ma sprecyzowanych wartości energii; w takim stanie określone są prawdopodobieństwa posiadania przez układ różnych energii. Układy w takich stanach także nie mają określonych częstości oscylacji. Aby układ kwantowy robił coś więcej, niż oscylował w miejscu, trzeba sprowadzić go do stanu nieposiadającego określonej wartości energii. Łatwo to wykonać ze względu na zasadę znaną jako zasada superpozycji, która mówi, że stany kwantowe można dodawać. To aspekt falowych cech układu kwantowego. Struna gitary lub fortepianu drga z kilkoma częstościami jednocześnie, a ruch struny jest sumą oscylacji o indywidualnych częstościach. Wrzućmy dwa kamienie do wiadra z wodą. Każdy z nich wytworzy falę, a wzorzec utworzony na wodzie, gdy się spotykają, jest sumą wzorców utworzonych osobno przez każdy z kamieni. Tak działa zasada superpozycji. Mając dwa stany kwantowe, można z nich utworzyć trzeci, po prostu dzięki dodawaniu. Ta zdolność do dodawania stanów kwantowych jest istotna w wypadku argumentu, że fizyka newtonowska jest przybliżeniem mechaniki kwantowej. Potrzebujemy jej, aby wskazać prosty fakt, że w fizyce newtonowskiej konfiguracje zmieniają się, gdy cząstki poruszają się w przestrzeni. Tego nie można wydedukować ze stanu oscylującego tylko w czasie, jak w wypadku stanów o sprecyzowanej energii. Aby odtworzyć ruch, musimy mieć stany, których zachowanie

jest bardziej złożone, a to wymaga stanów o niesprecyzowanej wartości energii. Buduje się wówczas superpozycję stanów z różnymi energiami. W kosmologii kwantowej wszystkie stany mają taką samą energię, dlatego zawodzi zwykła metoda wydzielenia ruchu w fizyce kwantowej. Nie możemy formułować przewidywań w ramach ogólnej teorii względności na podstawie kwantowego stanu Wszechświata. 52 Abhay Ashtekar, New Variables for Classical and Quantum Gravity, „Physical Review Letters” 1986, nr 57:18, s. 2244–2247. 53 Ted Jacobson, Lee Smolin, Nonperturbative Quantum Geometries, „Nuclear Physics B” 1988, nr 299:2, s. 295–345. 54 Carlo Rovelli, Lee Smolin, Knot Theory and Quantum Gravity, „Physical ​Review Letters” 1988, nr 61:10, s. 1155–1158. 55 Thomas Thiemann, Quantum Spin Dynamics (QSD): II. The Kernel of the Wheeler–DeWitt Constraint Operator, „Classical and Quantum Gravity” 1998, nr 15, s. 875–905. 56 Niedawno rozwinięte modele kosmologii kwantowej dotyczą badania kwantowych wersji uproszczonych modeli kosmologicznych, takich jak te omawiane w rozdziale 6. Są to modele pętlowej kosmologii kwantowej. Wcześniej w modelach kosmologii kwantowej dokonywano zbyt wielkich przybliżeń, które zaciemniały zagadnienia podstawowe; obecne modele są na tyle proste i precyzyjnie zdefiniowane, aby mogły dać dokładne rozwiązania równań. Choć sprawiają wielkie wrażenie, to trzeba przyznać, że są bardzo proste. Szczególnie problem czasu jest odsunięty na bok z tego powodu, że zamiast o czasie mówi się o korelacjach pomiędzy wielkościami różnych obserwabli. Jedno z pól traktowane jest jak zegar, który mierzy zmiany zachodzące w innych polach. W tym podejściu,

przybliżonym i relacyjnym, czas jest wydobywany z bezczasowego opisu świata. Ponadto te kwestie nie ograniczają się do pętlowej grawitacji kwantowej albo pętlowej kosmologii kwantowej, nawet jeśli w tym kontekście mają bardzo ważne znaczenie. Teoria strun w takim ujęciu, które może być stosowane w kosmologii, ma analog równania Wheelera–DeWitta. Niektóre rozważania na temat nieskończonych wszechświatów, wiecznej inflacji itp. osadzone są w kontekście tych równań. Problemy z interpretacją bezczasowego Wszechświata, który z tego wynika, są wyzwaniem dla wszystkich teoretyków zainteresowanych unifikacją albo bardzo wczesnym Wszechświatem.

CZĘŚĆ II

ŚWIATŁO: CZAS ODRODZONY

Interludium

Niezadowolenie Einsteina Ostatnim krokiem w procesie usuwania czasu z fizyki stał się wszechświat-blok obu teorii względności Einsteina. Sam uczony natomiast miał ambiwalentne uczucia, jeśli chodzi o znikanie czasu z koncepcji natury, do której stworzenia sam przecież znacznie się przyczynił. Przekonaliśmy się, jakim pocieszeniem był dla niego obraz bezczasowego kosmosu zawarty w modelu wszechświata-bloku – a jednak wygląda na to, że Einstein nie był zadowolony z jego implikacji. Wiemy o tym z Intellectual Autobiography (Autobiografii intelektualnej) wiedeńskiego filozofa Rudolfa Carnapa, który przytacza rozmowę z Einsteinem na temat czasu: Einstein kiedyś powiedział, że bardzo go niepokoi zagadnienie Teraz. Wyjaśnił, że doznawanie teraźniejszości oznacza dla człowieka coś bardzo szczególnego, coś istotnie

różnego od przeszłości i przyszłości, ale ta ważna różnica nie pojawia się i nie może pojawić się w fizyce. Fakt, że to doznanie nie może być ujęte naukowo, powodował u niego poczucie bardzo bolesnego zwątpienia. Einstein przyjął stanowisko raczej refleksyjne, ale Carnap nie miał żadnych wątpliwości w tej kwestii: Zauważyłem, że wszystko, co istnieje obiektywnie, może być ujęte naukowo; z jednej strony czasowy ciąg zdarzeń opisywany jest przez fizykę, a z drugiej szczegóły ludzkiego doznawania upływu czasu, łącznie z odmiennym odczuciem przeszłości, teraźniejszości i przyszłości, mogą być opisane i (w zasadzie) wyjaśnione w ramach psychologii. Nie mam pojęcia, co Carnap miał na myśli. Nie wiem, jak psychologia lub biologia mogłaby wyjaśnić doznawanie czasu w bezczasowym świecie57. Einstein również nie był usatysfakcjonowany tym, co pisał Carnap: „(…) myślał, że taki naukowy opis nie potrafiłby zaspokoić naszych ludzkich potrzeb; że w Teraz jest coś bardzo istotnego, co po prostu istnieje zupełnie poza domeną nauki”58. Niezadowolenie Einsteina sprowadza się do prostego

spostrzeżenia. Teoria naukowa, aby osiągnąć powodzenie, musi wyjaśnić dokonywane przez nas obserwacje przyrody. A najbardziej podstawową obserwacją jest to, że czynnik organizujący przyrodę stanowi czas. Jeśli teoria musi wyjaśnić wszystko, co obserwujemy w przyrodzie, to czy nie powinna także tłumaczyć doznawania świata w formie strumienia chwil? Czy podstawowa teoria fizyki nie powinna zawierać w sobie najbardziej podstawowego faktu, w jaki sposób to doznanie staje się częścią przyrody? Wszystko, czego doznajemy, każda myśl, wrażenie, działanie, intencja jest częścią danej chwili. Świat jawi się nam jako ciąg chwil. Nie mamy w tej materii żadnego wyboru. Nie wybieramy chwil, których doznajemy teraz, ani tego, czy chronologia zdarzeń jest zgodna z upływem czasu czy przeciwna. Nie istnieje żadna możliwość przeskakiwania chwil w przód. Nie mamy wpływu na tempo ich upływu. W tym sensie czas jest zupełnie niepodobny do przestrzeni. Można oponować, dowodząc, że wszystkie zdarzenia także zachodzą w konkretnym miejscu. Jednak mamy wybór, w jaki sposób możemy poruszać się w przestrzeni. To nie jest drobna różnica; określa ona całość naszego doświadczenia. Einstein i Carnap zgadzali się co do jednego: doświadczanie świata jako ciągu chwil teraźniejszych nie jest częścią fizycznej koncepcji natury. Przyszłość fizyki – i, można dodać, fizyka przyszłości – sprowadza

się do prostego wyboru. Czy zgadzamy się z Carnapem, że w nauce nie ma miejsca dla chwili teraźniejszej, czy podążymy za instynktem największego fizyka XX wieku i postaramy się stworzyć nową naukę, w której „bolesna rezygnacja” Einsteina nie była już potrzebna? Dla Einsteina chwila teraźniejsza jest realna i powinna w jakiś sposób być częścią obiektywnego opisu rzeczywistości. Wierzył on (jak to ujmuje Carnap), że „w Teraz jest coś bardzo istotnego, co po prostu istnieje zupełnie poza domeną nauki”. Co najmniej sześćdziesiąt lat minęło od tamtej rozmowy. Dowiedzieliśmy się w tym czasie bardzo wiele o fizyce i kosmologii. Wystarczająco, aby wprowadzić Teraz, w końcu, do opisu natury. Wyjaśnię w tej części książki, dlaczego obecna wiedza wymaga, aby czas został ponownie uwzględniony w podstawowych koncepcjach fizyki. W części I prześledziliśmy dziewięć kroków poczynionych w celu wykluczenia czasu z fizycznej koncepcji przyrody – od odkrycia Galileusza dotyczącego spadania ciał, na bezczasowej kosmologii kwantowej Juliana Barboura kończąc. Wkrótce ujrzymy, jak czas się odradza, ale najpierw trzeba rozebrać na części pozornie mocne argumenty podane w części I. Dziewięć uzasadnień można pogrupować w trzy klasy: Argumenty newtonowskie (to znaczy wynikające z fizyki newtonowskiej lub newtonowskiego

paradygmatu uprawiania fizyki): Zatrzymanie ruchu dzięki graficznemu sposobowi rejestracji obserwacji dokonanych w przeszłości. Zastosowanie bezczasowej przestrzeni konfiguracyjnej. Paradygmat newtonowski. Argument determinizmu. Odwracalność czasu. Argumenty einsteinowskie wynikające z obu teorii względności: Względność jednoczesności. Obraz wszechświata-bloku czasoprzestrzeni. Początek czasu w teorii Wielkiego Wybuchu. Argumenty kosmologiczne wynikające z rozszerzenia fizyki na całość Wszechświata: Kosmologia kwantowa i koniec czasu. Tych dziewięć argumentów zaprzecza realności chwili teraźniejszej i prowadzi do obrazu przyrody jako bloku Wszechświata, w którym realna jest tylko historia jego całości. W takim obrazie czas traktowany jest na równi z wymiarem przestrzeni, dlatego przyczynowość w ramach czasu zastąpiło bezczasowe

logiczne wnioskowanie. Ogólna teoria względności i mechanika newtonowska mogą przedstawiać historię rozwijającą się w czasie, ale ten czas to tylko relacja porządkująca w sensie matematycznym, odarta z roli kreatora chwil teraźniejszych. W tych teoriach czas nie jest realny w takim sensie, jaki zdefiniowałem we wstępie, gdy dowodziłem, że wszystko, co rzeczywiste, jest rzeczywiste w danej chwili. Aby uwydatnić różnice, będę nazywał takie teorie bezczasowymi. Czy to wykluczenie czasu jest ceną, jaką trzeba zapłacić za postęp naukowy? Następnym przystankiem w naszej podróży będzie wskazanie błędu w tych argumentach. Wszystkie dziewięć argumentów opiera się na wspólnym błędnym przekonaniu, że paradygmat newtonowski – który zakłada, że możemy przewidzieć przyszły stan każdego układu na podstawie jego warunków początkowych i praw, jakim podlega – da się rozszerzyć na teorię Wszechświata. Jak jednak wkrótce to wykażę, żadne rozszerzenie paradygmatu newtonowskiego nie może stworzyć akceptowalnej teorii Wszechświata jako całości. I chociaż to bardzo potężna metoda fizyki zjawisk w pudełku, staje się bezsilna wobec zagadnień kosmologicznych. Najsilniejszy argument za wykluczeniem czasu z fizyki pochodzi od teorii względności. W rozdziale 14 go obalimy. Po dekonstrukcji aktu wykluczenia czasu

z fizyki zastanowimy się nad tym, co fizyka i kosmologia zyskają dzięki hipotezie o realności czasu. 57 Jim Brown mówi mi, że Carnap miał na myśli coś podobnego do rozróżnienia między jakościami pierwotnymi a wtórnymi. Odczuwamy kolor czerwony, ale tak naprawdę realnie atomy drgają i wydzielają światło o określonych częstościach. Odczuwamy upływ czasu, ale tak naprawdę jesteśmy wiązkami linii świata we wszechświecie-bloku, mającymi zdolność do postrzegania i zapamiętywania wspomnień. Dla mnie to sposób na sformułowanie zagadnienia, ale nie na jego rozwiązanie. 58 Paul Arthur Schillp (red.), The Philosophy of Rudolf Carnap: Intellectual ​Autobiography, Open Court, La Salle 1963, s. 37–38.

Rozdział 8

Kosmologiczny błąd rozumowania W części I podążaliśmy mistyczną ścieżką, poszukując transcendencji naszego ograniczonego w czasie doświadczenia i starając się odkryć wieczne prawdy. Śledziliśmy zwłaszcza wielki sukces pewnej metody badania natury zwanej paradygmatem newtonowskim. Sukces ten jednak miał cenę, było nią wykluczenie czasu z fizycznej koncepcji przyrody. W części II zobaczymy, że tej ceny nie trzeba płacić, ponieważ próba stosowania paradygmatu newtonowskiego do całości Wszechświata jest skazana na niepowodzenie. Potrzebujemy nowej teorii, aby rozszerzyć naukę na Wszechświat – teorii, której głównym elementem będzie czas. Powróćmy do początków nauki, do osoby, którą nazywa się pierwszym uczonym, mianowicie presokratejskiego filozofa Anaksymandra (610–546 p.n.e.). Jak pisze Carlo Rovelli w swej najnowszej książce, Anaksymander był pierwszym filozofem, który

zamiast objaśniać zjawiska naturalne kapryśną wolą bogów, wolał raczej poszukiwać ich przyczyn w przyrodzie59. W tamtych czasach nawet najbardziej wykształceni ludzie czuli się mieszkańcami Wszechświata otoczonego dwoma płaskimi ośrodkami. Poniżej ich stóp znajdowała się Ziemia, rozpościerająca się wokół w każdym kierunku. Ponad ich głowami wznosiło się niebo. W ich pojęciu cały Wszechświat miał wyróżniony kierunek, kierunek spadania ciał. Podstawowe prawo natury, potwierdzone przez ich całe życiowe doświadczenie, mówiło, że ciała spadają w dół. Jedynym wyjątkiem było niebo i umocowane tam ciała niebieskie. Gdy próbowali rozszerzyć to skuteczne prawo na Wszechświat (Ziemię i niebo), pojawiał się paradoks: jeśli wszystko, co nie jest umocowane na niebie, spada w dół, to czemu sama Ziemia też nie spada? Przecież tendencja do spadania w dół jest powszechna, zatem musi ona mieć pod sobą coś, co ją podtrzymuje – jednym z możliwych wyjaśnień zaistniałej sytuacji była obecność gigantycznego żółwia, o którego się opierała. A wtedy pojawia się pytanie: na czym stoi ten żółw? Czy możliwe jest istnienie nieskończonego ciągu żółwi „aż do końca w dół”? Anaksymander zdał sobie sprawę, że potrzebna jest rewolucja pojęciowa, aby stworzyć teorię Wszechświata, która uniknie pułapki reductio ad

absurdum nieskończonej wieży utworzonej z żółwi. Zaproponował pewną ideę oczywistą dla nas, lecz szokującą w tamtych czasach – że „w dół” nie jest powszechnym kierunkiem, lecz po prostu zwróconym ku Ziemi. A zatem poprawne jest sformułowanie, że rzeczy nie spadają w dół, lecz w kierunku Ziemi. Umożliwiło to następną rewolucję – odkrycie, że Ziemia nie jest płaska, lecz okrągła. Tego zapierającego dech w piersiach kroku nie dokonał Anaksymander, ale jego redefinicja kierunku „w dół” pozwoliła ujrzeć Ziemię jako ciało unoszące się w przestrzeni. W ten sposób mógł wypowiedzieć zadziwiającą sugestię, że niebo rozciąga się wokół Ziemi – zarówno pod naszymi stopami, jak i nad głowami. To spostrzeżenie znacznie uprościło kosmologię tamtych czasów, ponieważ fakt pojawiania się z rana na wschodzie Słońca, Księżyca i gwiazd i znikania ich wieczorem na zachodzie można było rozumieć jako efekt dziennego ruchu sfer niebieskich. Nie trzeba już było nowego Słońca pojawiającego się rankiem na wschodzie i jego zgonu wieczorem na zachodzie. Po zachodzie Słońce powracało do swego punktu początkowego trajektorią biegnącą pod stopami. Wyobraźmy sobie euforię, jaka towarzyszyła zrozumieniu tego faktu po raz pierwszy! Usunięto ogromne obawy starożytnych, że jakiekolwiek bóstwo odpowiedzialne za to zjawisko może zaspać z rana pewnego dnia albo w ogóle zaniedbać swej powinności.

Możliwe, że rewolucja Anaksymandra była ważniejsza niż kopernikańska, ponieważ jego redefinicja kierunku „w dół” redukowała potrzebę wyjaśnienia, co podtrzymuje Ziemię. Filozofowie, którzy poszukiwali odpowiedzi na pytanie, co podtrzymuje Ziemię, popełniali prosty błąd, stosując prawo o zakresie lokalnym do całości Wszechświata. Ich Wszechświatem była Ziemia i niebo, a naszym jest ogromny kosmos wypełniony galaktykami, ale ten sam błąd leży u podstaw współczesnego rozumowania kosmologicznego. A jednak nic nie brzmi bardziej naturalnie niż pytanie, że skoro prawo jest uniwersalne, to dlaczego nie stosować go do Wszechświata? To bardzo wielka pokusa wziąć zasadę lub prawo, które są z powodzeniem stosowane do wszystkich podukładów Wszechświata, i zastosować je do Wszechświata jako całości. Jednakże czyniąc tak, popełniamy błąd, który nazywam kosmologicznym błędem rozumowania. Wszechświat jest bytem zupełnie odmiennym od jakiejkolwiek swej części ani nie jest prostą sumą swych części. W fizyce wszystkie włas​ności obiektów we Wszechświecie są rozumiane jako wynik ich relacji lub oddziaływań z innymi obiektami. Natomiast Wszechświat jest sumą wszystkich tych relacji i jako taki nie ma własności definiowanych przez relacje z innym, podobnym bytem. Dlatego Ziemia we wszechświecie Anaksymandra jest

jedynym obiektem, który nie spada, ponieważ to na nią spadają wszystkie inne rzeczy. Podobnie nasz Wszechświat jako jedyny nie może mieć przyczyny pochodzącej od czegoś zewnętrznego albo zewnętrznego wyjaśnienia, ponieważ sam jest sumą wszystkich przyczyn. Jeśli porównanie obecnej kosmologii do starożytnej greckiej nauki jest trafne, to pojawią się paradoksy i pytania bez odpowiedzi, które wynikną z aktu rozszerzania zakresu stosowania praw poprawnych w małej skali na Wszechświat traktowany jako całość. I rzeczywiście się pojawiły. Nasza wiara w paradygmat newtonowski doprowadziła nas do dwóch prostych pytań, na które żadna teoria na nim oparta nigdy nie będzie zdolna do sformułowania poprawnej odpowiedzi: Dlaczego takie prawa? Dlaczego Wszechświat podlega właśnie temu zbiorowi praw? Co wyróżniło rzeczywiste prawa od innych, którymi mógłby się rządzić? Wszechświat powstał w Wielkim Wybuchu z określonym zbiorem warunków początkowych. Dlaczego właśnie tym zbiorem warunków początkowych? Gdy już mamy ustalone prawa, to pozostaje wciąż nieskończenie wiele warunków

początkowych, w jakich Wszechświat mógłby powstać. Jaki mechanizm dokonał wyboru tych warunków z nieskończenie wielu możliwości? Paradygmat newtonowski nie może nawet zapoczątkować odpowiedzi na te dwa ogromnie ważne pytania, ponieważ prawa i warunki początkowe są w nim danymi wejściowymi. Jeśli fizyka nie wyjdzie poza ramy owego paradygmatu, to odpowiedzi na te dwa najważniejsze pytania pozostaną na zawsze tajemnicą. Przywykliśmy myśleć, że wiemy, jak powinna brzmieć odpowiedź na pytanie, dlaczego te prawa. Wielu teoretyków wierzy, że tylko jedna matematycznie spójna teoria kwantowa powinna opisywać cztery podstawowe siły natury – elektromagnetyzm, silne i słabe oddziaływanie jądrowe oraz grawitację. Gdyby tak było, to odpowiedź na przytoczone pytanie brzmiałaby: tylko jedno prawo fizyki mogłoby spowodować powstanie Wszechświata w przybliżeniu takiego, w jakim żyjemy. Nadzieje te jednak okazały się płonne. Dotąd, jak dowiedziono, nie ma jednej teorii mogącej ogarnąć wszystko, co wiemy o przyrodzie – godzącej ze sobą ogólną teorię względności z mechaniką kwantową. W ostatnich trzydziestu latach dokonano znacznego postępu w ramach kilku różnych podejść do grawitacji kwantowej, ale jeśli osiągną one jakiś sukces, to i tak nie

da się ich ujednolicić. Najlepiej zbadaną koncepcją jest pętlowa grawitacja kwantowa i wydaje się, że uwzględnia ona szeroki wybór cząstek elementarnych i oddziaływań. Sytuacja wygląda tak samo w odniesieniu do teorii strun, która także obiecuje unifikację grawitacji z teorią kwantów. Są jednak dowody na to, że istnieje nieskończenie wiele teorii strun, z których wiele zależy od dużego zbioru parametrów – liczb dopasowywanych tak, aby teoria dawała poprawne wyniki. Wszystkie te teorie wydają się w równym stopniu matematycznie poprawne. Ogromna ich liczba opisuje światy ze spektrum cząstek elementarnych i oddziaływań w przybliżeniu takim, jakie ma nasz świat – chociaż, jak dotąd, żadna z teorii strun nie potrafi precyzyjnie odtworzyć w swoich ramach Modelu Standardowego. Początkowo była nadzieja, że teoria strun stanie się zunifikowaną teorią podstawową, która precyzyjnie odtworzy Model Standardowy i umożliwi dokonanie przewidywań wykraczających poza ten model. Nadzieje te stały się płonne wraz z odkryciem w 1986 roku przez Andrew Stromingera, że teoria strun ma ogromną liczbę wersji60. To właśnie skłoniło mnie do zastanawiania się, jak Wszechświat mógł dokonać selekcji swych praw – i w końcu do zajęcia się zagadnieniem realności czasu. Tyle w sprawie pytań niemających odpowiedzi. A co z dylematami?61. Tak się składa, że w paradygmacie

newtonowskim istnieje wielki dylemat związany z samym pojęciem prawa fizyki. Mówiąc o czymś, że jest „prawem”, rozumiemy, iż stosuje się ono do wielu przypadków, jeśli bowiem sprawdza się w tylko jednym, jest po prostu obserwacją. Jak zaś przekonaliśmy się w rozdziale 4, zastosowanie prawa do jakiejkolwiek części Wszechświata związane jest ze stosowaniem przybliżeń, ponieważ musimy zaniedbać wszystkie oddziaływania między tą częścią i resztą Wszechświata. Tak więc wiele sprawdzalnych praw natury jest w istocie przybliżeniami. Aby prawo natury nie było przybliżeniem, musi być zastosowane do całego Wszechświata. Jest wszak tylko jeden Wszechświat – a jeden przypadek nie wystarcza, aby uzasadnić twierdzenie, że prawo natury ma zastosowanie. Można to nazwać dylematem kosmologicznym. Dylemat kosmologiczny nie musi uniemożliwiać stosowania praw natury – takich jak ogólna teoria względności albo newtonowskie prawa ruchu – do podukładów Wszechświata. Sprawdzają się one praktycznie w każdym wypadku i dlatego nazywamy je prawami. Jednak każde ich zastosowanie jest przybliżeniem opartym na fikcyjnym traktowaniu takiego podukładu jak wszystkiego, co jest62. Nie musi on także przeczyć temu, że rozwiązania równań ogólnej teorii względności z materią opisaną przez Model Standardowy tworzą historię Wszechświata, lecz nie

wyjaśnia, dlaczego właśnie to rozwiązanie zostało wybrane do realizacji w naturze. Jedno rozwiązanie nie dowodzi także, że prawa natury, które istnieją, są połączeniem ogólnej teorii względności z Modelem Standardowym, ponieważ mogłoby ono być przybliżonym rozwiązaniem wielu różnych praw63. Oto przykład ilustrujący, dlaczego prawo musi się sprawdzać w więcej niż jednym przypadku, aby dało się je odróżnić od obserwacji. Rodzina ma jedno dziecko, Mirę, która uwielbia lody. Jej ulubione to czekoladowe – a w istocie były to pierwsze lody, jakich skosztowała, i odtąd je uwielbia. Rodzice Miry wierzą, że ogólnym prawem jest to, iż dzieci uwielbiają lody, ale bez obserwacji innych dzieci nie mają sposobu, aby to sprawdzić, czyli odróżnić od tego, co obserwują, a więc że Mira lubi lody. Ojciec Miry wierzy także w inne prawo, które mówi, że wszystkie dzieci najbardziej lubią lody czekoladowe. Gdy rodzice odpoczywają po ułożeniu Miry do łóżka, jej mama sprzeciwia się jeszcze innej hipotezie, mianowicie że wszystkie dzieci preferują takie lody, jakich po raz pierwszy spróbowały. Obie możliwości są zgodne z dowodami, jakie posiadają. Rodzice Miry dokonują jednak dwóch różnych przewidywań, które można przetestować, przeprowadzając sondaż wśród matek i ojców na placu zabaw, a stąd można przyjąć, że oba przewidywania to potencjalne prawa. Przypuśćmy, że Mira jest jedynym

dzieckiem, jakie istnieje. Nie byłoby wtedy sposobu zbadania, która z hipotez jej rodziców jest prawem ogólnym, a która obserwacją. Rodzice Miry mogą dowodzić, opierając się na biologii człowieka, że dzieci uwielbiają wszelkie produkty mleczne zawierające cukier, i to uzasadnia przynajmniej jedną z ich hipotez. Mogą one być poprawne, ale ich rozumowanie opiera się na wiedzy zdobytej na badaniu wielu ludzi. Tutaj analogia się załamuje, ponieważ w kosmologii mamy autentycznie tylko jeden przypadek. W dowodzeniu naukowym Wszechświat nie może być potraktowany jako pojedynczy przypadek z ogólniejszej klasy obiektów, ponieważ żadnej z cech tej klasy nie da się zbadać. Fakt, że prawa stosowane do podukładów muszą być przybliżeniem, stanowi istotę dylematu kosmologicznego, dlatego pozwólcie, że od lodów przejdę do prostego przykładu z fizyki. Pierwsze prawo ruchu Newtona zakłada, że wszystkie cząstki swobodne poruszają się po torach będących liniami prostymi. Zostało ono sprawdzone w niezliczonych doświadczeniach, lecz każdy taki test zawiera w sobie pewne przybliżenie, ponieważ żadna cząstka nie jest do końca swobodna. Każda cząstka w naszym Wszechświecie podlega oddziaływaniu grawitacyjnemu innych cząstek. Gdybyśmy chcieli sprawdzać prawo dokładnie, to nie istnieją takie przypadki, do jakich moglibyśmy je stosować.

Pierwsze prawo Newtona może, co najwyżej, być przybliżeniem innego, bardziej dokładnego prawa. I rzeczywiście, jest przybliżeniem drugiego prawa Newtona, które opisuje, jak ruch cząstki zmienia się pod działaniem sił do niej przyłożonych. A teraz coś bardzo interesującego! Każda cząstka we Wszechświecie przyciąga grawitacyjnie inne cząstki. Istnieją także siły działające pomiędzy parami cząstek naładowanych elektrycznie. To niewyobrażalnie wiele sił do uwzględnienia. Żeby dokładnie sprawdzić poprawność drugiego prawa Newtona, musielibyśmy wziąć pod uwagę około 1080 oddziaływań, aby przewidzieć ruch tylko jednej cząstki we Wszechświecie. W praktyce, oczywiście, nie robimy czegoś podobnego. Bierzemy pod uwagę tylko jedną lub kilka sił pochodzących od najbliższych sąsiadów cząstki, a ignorujemy całą resztę. Na przykład w wypadku grawitacji możemy zaniedbać siły pochodzące od bardzo odległych obiektów, ponieważ mają bardzo małą wartość. (To nie takie oczywiste, jak wygląda, ponieważ siły od obiektów odległych są słabsze, ale tych obiektów jest znacznie więcej niż bliskich). W każdym razie nikt nigdy nie próbował sprawdzić, czy drugie prawo jest dokładnie prawdziwe. Sprawdziliśmy tylko z taką dokładnością, jaka jest technicznie możliwa. Inny duży problem z ekstrapolacją newtonowskiego pojęcia „prawa” na cały Wszechświat polega na tym, że mamy co prawda jeden Wszechświat, ale nieskończenie

wielki wybór warunków początkowych. Odpowiada to nieskończenie wielkiej liczbie rozwiązań równań domniemanego prawa kosmologicznego – rozwiązań, które opisują nieskończony zbiór wszechświatów. A przecież istnieje tylko jeden Wszechświat. Sam fakt, że prawo prowadzi do nieskończenie wielu rozwiązań opisujących nieskończenie wiele historii, sugeruje wniosek, że jego zakresem stosowania są podukłady Wszechświata, które istnieją w niezliczonej liczbie wersji. Obfitość rozwiązań odpowiada obfitości natury. Tak więc gdy stosujemy prawo do podukładu Wszechświata, wolność wyboru warunków początkowych jest niezbędnym warunkiem powodzenia prawa. Z tego samego powodu gdy stosujemy prawo, które ma nieskończenie wiele rozwiązań, do pojedynczego układu, takiego jak Wszechświat, pozostawiamy wiele kwestii niewyjaśnionych. Wolność wyboru warunków początkowych będąca zaletą staje się ciężarem, ponieważ teraz okazuje się, że istotne zagadnienia związane z Wszechświatem nie zostają rozwiązane w ramach teorii (którą to prawo wyraża). Obejmuje to każdą własność Wszechświata, która zależy od jego warunków początkowych. Co mamy myśleć o wszystkich innych historiach, które także są rozwiązaniami domniemanego prawa kosmologicznego, ale nie mają zastosowania do Wszechświata? Dlaczego istnieje taka ogromna

rozrzutność rozwiązań, z których co najwyżej tylko jedno może mieć coś wspólnego z przyrodą? Te rozważania prowadzą do jednego wniosku: Mylimy się co do tego, jak powinno wyglądać prawo natury w skali kosmologicznej. Składają się na to trzy przyczyny: Twierdzenie, że prawo stosuje się w skali kosmologicznej, pociąga za sobą ogromną liczbę informacji o przypuszczalnie nieistniejących przypadkach – to znaczy innych wszechświatach. Wskazuje to, że coś znacznie słabszego niż prawo może objaśnić Wszechświat. Nie potrzebujemy wyjaśnienia tak rozrzutnego, by przewidywało nieskończenie wiele przypadków, które nigdy się nie zdarzą. Wystarczy tylko wyjaśnienie rzeczywistych wydarzeń zachodzących w naszym pojedynczym Wszechświecie. Zwykły rodzaj prawa nie może wyjaśnić, dlaczego rozwiązanie, które opisuje nasz Wszechświat, jest tym, którego doświadczamy. Prawo nie może być przyczyną siebie samego. Nie podaje żadnych racjonalnych powodów, dlaczego właśnie ono, a nie raczej jakieś inne, ma obowiązywać.

Zatem konwencjonalne prawo, zastosowane do Wszechświata, wyjaśnia o wiele za dużo i jednocześnie dużo mniej, niż potrzeba. Jedynym sposobem uniknięcia tych dylematów i paradoksów jest poszukiwanie metodologii, która wykracza poza paradygmat newtonowski – nowego paradygmatu, który można stosować w fizyce, w skali Wszechświata. Jeśli nie chcemy, aby fizyka ugrzęzła w irracjonalizmie i mistycyzmie, musimy czymś zastąpić metodę stanowiącą podstawę jej dotychczasowego sukcesu. Wszystkie wyłożone w części I argumenty dotyczące wykluczenia czasu z fizyki oparte były na założeniu, że paradygmat newtonowski da się rozszerzyć na całość Wszechświata. Jeśli nie, to te argumenty zawodzą. Gdy porzucimy paradygmat newtonowski, musimy także zrezygnować z tych argumentów, i w końcu będzie można uwierzyć, że czas jest realny. Czy przyjęcie realności czasu pomogłoby nam w budowaniu poprawnej teorii kosmologicznej? W następnych rozdziałach wyjaśnię, dlaczego odpowiedź brzmi – tak. 59 Carlo Rovelli, The First Scientist: Anaximander and His Legacy, Westholme Publishing, Yardley, PA 2011. 60 Andrew Strominger, Superstrings with Torsion, „Nuclear Physics” 1986, nr B274:2, s. 253–284.

61 Dylemat to polemika prowadząca do wyboru dwóch konkluzji, z tym że obie nie są możliwe do przyjęcia. 62 Ktoś może zaprotestować, zarzucając nam, że tworząc modele kosmologiczne w ogólnej teorii względności, stosujemy równania Einsteina do całego Wszechświata. Tak jednak nie jest. Równania Einsteina są zastosowane do podukładu zawartego w granicach promienia krzywizny Wszechświata. Wszystko, co małe – łącznie z nami, obserwatorami – jest wycięte z takiego modelu. 63 Na przykład Model Standardowy mógłby być rozszerzony o ekstremalnie masywne cząstki, które prawie nie miałyby wpływu na Wszechświat przez większość jego historii.

Rozdział 9

Kosmologiczne wyzwanie Wielkie teorie XX wieku – teoria względności, mechanika kwantowa i Model Standardowy – stanowią najwyższe osiągnięcia fizyki. Są pełne pięknych równań, których rezultatem są bardzo dokładne przewidywania, potwierdzone w wielu eksperymentach z dużą dokładnością. A jednak przed chwilą dowodziłem, że nic, co wynika z tych teorii, nie może służyć jako teoria podstawowa. To bardzo śmiała konstatacja, biorąc pod uwagę sukces, jaki osiągnęły. Aby wzmocnić swe twierdzenie, wskażę na pewną własność, jaka cechuje wszystkie uznane teorie fizyki, a która sprawia, że trudno rozszerzać je na Wszechświat traktowany jako całość. Każda z nich dzieli świat na dwie części, jedną, która zmienia się wraz z upływem czasu, i drugą z założenia ustaloną i niezmienną. Pierwszą częścią jest badany układ, którego stopnie swobody zmieniają się wraz z czasem. Drugą – reszta Wszechświata, którą możemy nazwać tłem.

Druga część może nie być jawnie opisana, ale niejawnie istnieje gdzieś tam, nadając sens ruchowi opisanemu w części pierwszej. Pomiar odległości niejawnie nawiązuje do ustalonych punktów i linijek potrzebnych do jej pomiaru; określony czas implikuje istnienie zegara mierzącego czas poza układem. Jak zobaczyliśmy w przykładzie gry w łapanie piłki opisanej w rozdziale 3, położenie piłki ma sens, jeśli jest odniesione do miejsca, w którym znajduje się Danny. Ruch jest definiowany przy użyciu zegara, który z założenia tyka w stałym tempie. Zarówno Danny, jak i zegar znajdują się poza układem opisanym przez przestrzeń konfiguracyjną i z założenia są w bezruchu. Ten podział świata na część dynamiczną i statyczną jest fikcją, ale okazuje się bardzo użyteczny, gdy trzeba opisać małe części Wszechświata. Druga część, z założenia statyczna, w rzeczywistości składa się z innych układów dynamicznych znajdujących się na zewnątrz układu badanego. Ignorując ich dynamikę i ewolucję, tworzymy ramy, w których odkrywamy proste prawa. Dla większości teorii z wyjątkiem ogólnej teorii względności ustalonym tłem jest geometria przestrzeni i czasu. W to tło włączony zostaje także wybór praw, ponieważ są one z założenia niezmienne. Nawet ogólna teoria względności, która opisuje geometrię dynamiczną, zakłada inne osadzone struktury, takie jak topologię i wymiar przestrzeni64.

Podział świata – na część dynamiczną i otoczenie, które definiuje warunki, w jakich ją opisujemy – wynika z ducha paradygmatu newtonowskiego, ale jednocześnie jest tym, co powoduje, że nie nadaje się on do stosowania do Wszechświata jako całości. Wyzwanie, przed jakim stanęliśmy podczas próby rozszerzenia nauki o teorię całego Wszechświata, polega na tym, że nie ma części statycznej, ponieważ wszystko we Wszechświecie podlega zmianom, a ponadto poza nim nie ma nic – nic nie może służyć za tło, względem którego mierzy się ruch reszty. Przezwyciężenie tej bariery można nazwać wyzwaniem kosmologicznym. Wyzwanie kosmologiczne wymaga sformułowania teorii, która mog​ł aby zostać zastosowana do Wszechświata jako całości. Musi to być teoria, w której każdy dynamiczny składnik jest definiowany tylko przez inne składniki dynamiczne. W takiej teorii nie ma miejsca dla stałego tła ani takiej potrzeby. Takie teorie nazywamy niezależnymi od tła65. Możemy teraz się przekonać, że dylemat kosmologiczny jest wbudowany w strukturę paradygmatu newtonowskiego, ponieważ te jego własności, które zapewniają sukces teorii stosowanej w małych skalach – to znaczy zależność od stałego tła i fakt, że jedno prawo ma nieskończenie wiele rozwiązań – uniemożliwiają teraz oparcie na nich teorii kosmologicznej.

Mamy to szczęście, że żyjemy w czasach, gdy sukces fizyki zainspirował pierwsze próby naukowego podejścia do kosmologii. Nie jest niczym dziwnym fakt, że w odpowiedzi na dylemat kosmologiczny założono, iż nasz Wszechświat jest jednym z ogromnego zbioru innych wszechświatów, ponieważ obecne teorie mają sens jedynie w zastosowaniu do części jakiegoś ogromnego układu. Ja, w każdym razie, tak widzę atrakcyjność różnorodnych scenariuszy wieloświata. Gdy przeprowadzamy eksperyment w laboratorium, to kontrolujemy warunki początkowe. Zmieniamy je, aby zbadać hipotezy dotyczące praw. Natomiast gdy mamy do czynienia z obserwacjami kosmologicznymi, warunki początkowe zostały ustalone we wczesnym Wszechświecie, dlatego musimy stawiać hipotezy na ich temat. W ten sposób, aby wyjaśnić rezultat obserwacji kosmologicznej w ramach paradygmatu newtonowskiego, stawiamy dwie hipotezy: jakie były warunki początkowe i jakim prawom one podlegały. Jest to jeszcze większe wyzwanie niż zwykły kontekst, w jakim uprawiamy fizykę zjawisk w pudełku, gdy mamy możliwość zmiany warunków początkowych, aby zbadać hipotezę dotyczącą praw fizyki. Fakt, że musimy jednocześnie badać hipotezy dotyczące warunków początkowych i praw, jakim one podlegają, znacznie osłabia jakość samych badań. Gdy przewidujemy coś, a obserwacja temu zaprzecza, to mamy dwa sposoby, aby skorygować teorię: Możemy

dokonać modyfikacji albo hipotezy dotyczącej praw, albo dotyczącej warunków początkowych. Każda z tych modyfikacji może mieć wpływ na rezultaty eksperymentu. To zaś sprowadza nowy problem, bo skąd ma być wiadomo, którą z dwóch hipotez należy skorygować? Gdy obserwacja dotyczy małej części Wszechświata, takiej jak gwiazda lub galaktyka, opieramy nasz test prawa na analizie wielu przypadków. Wszystkie one podlegały temu samemu prawu, tak więc jakiekolwiek różnice należy przypisać odmienności warunków początkowych. Gdy natomiast mamy do czynienia z Wszechświatem, nie możemy odróżnić efektów zmiany hipotezy o prawie od efektów zmiany hipotezy o warunkach początkowych. Problem ten od czasu do czasu przeszkadza w badaniach kosmologicznych. Jeden z najważniejszych testów teorii wczesnego Wszechświata polega na przewidzeniu prawidłowości pojawiających się w kosmicznym promieniowaniu tła. Promieniowanie to pochodzi z bardzo wczesnego Wszechświata i zawarte jest w nim migawkowe zdjęcie warunków panujących 400 000 lat po Wielkim Wybuchu. Jedna z najintensywniej badanych teorii kosmologicznych, teoria inflacji, przyjmuje, że bardzo wcześnie w swej historii Wszechświat został poddany ogromnej i gwałtownej ekspansji. Jego początkowe własności na skutek tego zjawiska uległy rozciągnięciu

i zredukowaniu, a po ustąpieniu gwałtownej fazy inflacji pozostał on wielki i względnie monotonny, taki jaki obserwujemy. Inflacja przewiduje także pewne prawidłowości w promieniowaniu tła podobne do tych, które zmierzono. Kilka lat temu obserwatorzy zaprezentowali dowód na nową włas​ność mikrofalowego promieniowania tła, niegaussowskość, której według zwykłej teorii inflacji nie powinno być66. (Nieważne, czym jest niegaussowskość; wszystko, co musimy wiedzieć w tym wypadku, polega na tym, że jest to pewna prawidłowość, którą można zaobserwować w promieniowaniu tła, a standardowa teoria inflacji przewiduje, iż nie powinna ona występować). Mamy dwie opcje, aby wyjaśnić tę nową obserwację: możemy zmodyfikować teorię albo warunki początkowe. Teoria inflacji należy do paradygmatu newtonowskiego, tak więc jej przewidywania zależą od warunków początkowych, na które działają prawa fizyki. Kilka dni po publikacji pierwszej pracy przedstawiającej dowód niegaussowskości, pojawiły się artykuły starające się wyjaśnić tę obserwację. W niektórych zmodyfikowano prawa, w innych zaś – warunki początkowe. Obie strategie przeszły test retrodykcji w postaci opublikowanych obserwacji – istotnie, wiedziano już wcześniej, że każda z tych strategii powinna się powieść67. Jak to często bywa

na froncie badań naukowych, następne obserwacje nie potwierdziły początkowych twierdzeń. W chwili pisania tej książki nie wiemy wciąż, czy rzeczywiście w promieniowaniu mikrofalowym tła występuje niegaussowskość.68 To przykład, w którym pojawiają się dwie różne metody dopasowywania teorii do wyników obserwacyjnych. Jeśli weźmiemy pod uwagę, że prawa i warunki początkowe opisane są przez pewne parametry, to mamy dwa odrębne dopasowania parametrów do danych obserwacyjnych. Obserwatorzy nazywają taki rodzaj sytuacji degeneracją. Zwykle gdy występuje degeneracja, wykonujemy dodatkowe obserwacje, aby się przekonać, które dopasowanie jest poprawne. Natomiast w odniesieniu do promieniowania tła, które jest skutkiem zdarzenia, jakie wystąpiło tylko raz, nie będziemy nigdy mogli rozstrzygnąć tej wątpliwości. Biorąc pod uwagę, jak dokładnie potrafimy mierzyć promieniowanie tła, musimy uznać za możliwe, że nie zdołamy nigdy rozwikłać dylematu, które podejście jest poprawne, czy modyfikacja warunków początkowych, czy modyfikacja praw69. A bez możliwości poznania roli praw i warunków początkowych paradygmat newtonowski traci swą moc wyjaśniania przyczyn zjawisk fizycznych. Jesteśmy już gotowi zmienić wymagania, którymi kierowała się fizyka od czasów Newtona aż do całkiem

niedawna. Poprzednio myśleliśmy o mechanice newtonowskiej i mechanice kwantowej, że są kandydatkami na teorie fundamentalne, które – jeśli osiągną ten cel – będą doskonałym odwzorowaniem świata naturalnego w takim sensie, że wszystko, co zachodzi w naturze, będzie miało swe odwzorowanie w matematycznej strukturze teorii. W tym odwzorowywaniu istotną rolę miała odegrać sama struktura paradygmatu newtonowskiego, opartego na bezczasowych prawach działających na bezczasową przestrzeń konfiguracyjną. W mojej ocenie próba zastosowania tego paradygmatu do całości Wszechświata była metafizyczną fantazją prowadzącą do uprzednio przedstawionych dylematów i konsternacji. Stanowisko to wymaga zmiany statusu obu teorii w ramach paradygmatu newtonowskiego – z kandydatek na teorie fundamentalne na poziom teorii dających przybliżony opis małych podukładów Wszechświata. To odmienne podejście można już zaobserwować wśród fizyków, a składają się na nie dwie powiązane ze sobą zmiany punktu widzenia: Wszystkie teorie, z jakimi mamy do czynienia, włączając w to Model Standardowy i ogólną teorię względności, są teoriami przybliżonymi, działającymi na odizolowanym od reszty natury układzie,

ograniczonym do podzbioru stopni swobody Wszechświata. Takie przybliżone teorie nazywamy teoriami efektywnymi. We wszystkich eksperymentach i obserwacjach na wydzielonym z natury układzie rejestrujemy tylko wartości ograniczonego podzbioru stopni swobody Wszechświata i ignorujemy całą resztę. Otrzymane wyniki porównujemy z przewidywaniami, jakie dają teorie efektywne. Dotąd więc sukces fizyki oparty jest głównie na badaniu wydzielonych z natury układów, których modelami są teorie efektywne. Sztuka uprawiania fizyki na poziomie eksperymentalnym polega na projektowaniu doświadczeń, w których wydziela się kilka stopni swobody i ignoruje resztę Wszechświata. Celem metodologii fizyków teoretyków jest odkrywanie teorii efektywnych za pomocą modeli układów zamkniętych wobec reszty natury, które następnie badają eksperymentatorzy. W historii fizyki nigdy nie mieliśmy możliwości porównania przewidywań prawdziwie fundamentalnej teorii z eksperymentem, takiej teorii, która nie byłaby rozumiana jako teoria efektywna. Chciałbym te kwestie wyjaśnić bardziej szczegółowo:

FIZYKA EKSPERYMENTALNA TO BADANIE OKROJONEJ NATURY. Podukład Wszechświata ujęty w modelu tak, jakby był jedyną rzeczą we Wszechświecie, z pominięciem wszystkiego, co istnieje na zewnątrz niego, nazywany jest układem zamkniętym. Powinniśmy pamiętać, że odseparowanie od całości nigdy nie jest zupełne. Jak już podkreślałem, w świecie realnym istnieją zawsze oddziaływania między każdym podukładem, jaki możemy sobie wyobrazić, a jego zewnętrznym otoczeniem. W mniejszym lub większym stopniu podukłady Wszechświata są zawsze tym, co fizycy określają jako układy otwarte, mianowicie ograniczonymi układami, które oddziałują z tym, co pozostaje poza ich granicami. Zatem kiedy uprawiamy fizykę zjawisk w pudełku, to przybliżamy układ otwarty układem zamkniętym. W fizyce eksperymentalnej wiele wysiłku przeznacza się na przekształcanie układów otwartych w (przybliżone) układy zamknięte. Tego przekształcenia nigdy nie da się dokonać w stopniu doskonałym. Z jednego powodu pomiary, jakich dokonujemy na układzie, zawsze go zakłócają. (To bardzo ważne zagadnienie dotyczące interpretacji mechaniki kwantowej; ale na razie zostańmy przy makroświecie). W każdym eksperymencie staramy się wyodrębnić dane

pożądane z nieuchronnie istniejących niepożądanych zakłóceń z zewnątrz niedoskonale izolowanego układu. Eksperymentatorzy poświęcają sporo wysiłku na to, aby przekonać siebie i swoich recenzentów, że to, co otrzymują, jest rzeczywistym sygnałem pozbawionym zakłóceń, i robią, co tylko mogą, aby redukować wpływ tych zakłóceń. Ekranujemy nasze eksperymenty od szkodliwych zewnętrznych wibracji, pól i promieniowania. W wielu eksperymentach to wystarcza, ale niektóre są tak delikatne, że znaczenie ma szum wywoływany w detektorach przez promieniowanie kosmiczne. Aby dobrze chronić laboratorium przed promieniowaniem kosmicznym, umieszcza się je w kopalniach kilka kilometrów pod powierzchnią ziemi. Tak właśnie badamy neutrina słoneczne. Ten zabieg skutecznie zmniejsza szum tła, a cząstki i tak mogą wciąż docierać do aparatury, nie ma bowiem praktycznego sposobu, aby odizolować laboratorium od neutrin. Głęboko w lodach bieguna południowego zakopano detektory, aby badać te neutrina, które przeszywają Ziemię na wskroś od strony bieguna północnego. Nawet gdyby zbudowano ekran z gęstego ołowiu o astronomicznej grubości, to i tak wciąż coś przenikałoby, a tym czymś byłaby grawitacja. W zasadzie nic nie może stanowić tamy dla oddziaływania grawitacyjnego ani fal grawitacyjnych, tak więc nie ma czegoś takiego jak perfekcyjnie

zamknięty układ. Odkryłem tę ważną prawdę podczas studiów doktoranckich. Chciałem stworzyć model pudełka, które zawierałoby fale grawitacyjne odbijające się tam i z powrotem wewnątrz niego, ale każdy z takich modeli okazywał się fałszywy, ponieważ fale grawitacyjne zawsze przechodziły przez jego ścianki. Wyobrażałem sobie coraz większą i większą gęstość ścian pudełka aż do takiej, przy której mogłyby się odbijać fale grawitacyjne, ale zanim osiągnąłem taką wielkość, materiał ścianek stawał się czarną dziurą. Przez jakiś czas łamałem sobie głowę nad tym problemem, aż w końcu doszedłem do wniosku, że przeszkoda, jakiej nie mogłem pokonać, jest bardziej interesującym odkryciem niż problem, który zamierzałem rozwiązać. Po dalszym zastanowieniu potrafiłem wykazać, dodając kilka innych założeń, że żadne ściany nie mogą zatrzymać fal grawitacyjnych70. Bez względu na to, z czego są zbudowane albo jak są grube, albo gęste. Aby dojść do tego wniosku, musiałem skorzystać z ogólnej teorii względności i założyć, że energia zawarta w materiale jest dodatnia, a dźwięk nie porusza się szybciej od światła. To oznacza – nie tylko w praktyce, ale z zasady – że nie ma czegoś takiego jak układ, który jest odizolowany od reszty Wszechświata. Warto ten wniosek ująć w formie zasady, którą nazwałbym zasadą nieistnienia układów zamkniętych. Fakt, że nie można przewidzieć destrukcyjnych

losowych zakłóceń układu zamkniętego, świadczy o tym, iż zawsze jest on tylko przybliżeniem modelu układu otwartego. Potrafimy mierzyć, przewidywać szum i sobie z nim radzić, ale świat zewnętrzny może znacznie poważniej zakłócić wysiłki włożone w izolowanie układu. Budynek, w którym mieści się laboratorium, może ulec zniszczeniu na skutek upadku samolotu albo podczas trzęsienia ziemi. Asteroida może zniszczyć Ziemię. Chmura ciemnej materii może przemieścić się przez Układ Słoneczny, zmieniając orbitę Ziemi i powodując jej kolizję ze Słońcem71. Albo ktoś po prostu wyłączy zasilanie elektryczne w budynku, przesuwając dźwignię wyłącznika awaryjnego w piwnicy. Lista zdarzeń we wszechświecie tak wielkim jak nasz, które mogłyby przerwać eksperyment, jest nieskończenie wielka. Gdy eksperyment przebiega w warunkach odpowiadających modelowi układu zamkniętego, nie przewidujemy tego typu sytuacji. Uwzględnienie wszystkiego, co może dotrzeć z zewnątrz do naszego laboratorium, wymagałoby stworzenia modelu całego Wszechświata. Nie jesteśmy w stanie uprawiać fizyki bez wykluczenia wszystkich takich możliwości z modelu i obliczeń. Ich usunięcie zaś sprawia, że fizyka oparta jest na przybliżeniach.

TEORIE EFEKTYWNE, ALE PRZYBLIŻONE.

Wszystkie główne teorie fizyki są modelami uproszczonej natury stworzonymi przez eksperymentatorów. Gdy były odkrywane, wyobrażano je sobie jako teorie fundamentalne, ale z czasem teoretycy zaczęli rozumieć owe konstrukcje jako efektywny opis ograniczonej liczby stopni swobody. Fizyka cząstek elementarnych jest dobrym przykładem roli, jaką odgrywają teorie efektywne. Dotychczasowe eksperymenty dotyczyły badania zjawisk fundamentalnych mikroświata tylko do pewnej skali długości. Obecnie wartość ta wynosi około 10‒17 centymetra i udaje się ją osiągnąć w Wielkim Zderzaczu Hadronów w CERN. Oznacza to, że Model Standardowy fizyki cząstek elementarnych, który daje poprawne wyniki we wszystkich dotąd przeprowadzonych eksperymentach, musi być uznany za przybliżenie (nie mówiąc już o tym, że nie obejmuje on w ogóle grawitacji). Nie pozwala przewidzieć nieznanych dotąd zjawisk, które mogą się ujawnić, gdy będziemy mieli możność dokonywania eksperymentów w jeszcze mniejszej skali odległości. W fizyce kwantowej ze względu na zasadę nieoznaczoności pojawia się odwrotna proporcjonalność między skalą odległości a skalą energii. Aby dokonywać eksperymentów w określonej skali odległości, potrzebujemy cząstek albo promieniowania o co najmniej pewnej określonej energii. Aby przejść do jeszcze mniejszej skali

odległości, potrzebujemy cząstek o bardzo wysokiej energii. Dolna granica skali odległości odpowiada więc górnej granicy energii procesów, jakie obserwowaliśmy. Skoro zaś masa i energia są tymi samymi wielkościami (zgodnie ze szczególną teorią względności), to przeprowadzając eksperymenty w określonej skali energetycznej, nie możemy mieć informacji o cząstkach, których masy są zbyt wielkie, aby mogły powstać w dotychczas używanych zde​rzaczach. Zjawiska, o których nie mamy z tego powodu pojęcia, mogą dotyczyć nie tylko nowych rodzajów cząstek elementarnych, ale także nieznanych do tej pory oddziaływań. Równie dobrze może się okazać, że podstawowe zasady mechaniki kwantowej wymagają modyfikacji, gdyż są niewystarczające, aby poprawnie opisać zjawiska pojawiające się na mniejszych odległościach i przy wyższych energiach. Z powodu tych obaw mówimy, że Model Standardowy jest teorią efektywną, taką, która dobrze opisuje eksperymenty, ale niezawodną tylko w ograniczonym zakresie. Pojęcie teorii efektywnych obala pewne oklepane frazesy, takie jak stwierdzenie, że prostota i piękno to cechy charakterystyczne prawdy. Wiele hipotez fizyki wykraczających poza wyznaczone im granice jest wynikiem tej lub innej teorii efektywnej, ponieważ nie wiemy, co może się pojawić w wyższej skali energetycznej. Teorie efektywne zatem cechują się

nieodłączną prostotą, ponieważ odpowiadają najprostszym i najbardziej eleganckim sposobom rozszerzania ich na nieznane domeny. Elegancja ogólnej teorii względności i Modelu Standardowego związana jest w dużej mierze z faktem, że są to teorie efektywne. Ich piękno jest konsekwencją tego, że są efektywne i przybliżone. Prostota i piękno nie są więc oznakami prawdy, ale dobrze zbudowanego, przybliżonego modelu zjawisk zachodzących w ograniczonej domenie72. Pojęcie teorii efektywnej wskazuje na dojrzałość w podejściu do teorii cząstek elementarnych. Marzyło nam się kiedyś, że mamy już w zasięgu ręki podstawowe prawa natury. Tymczasem kilkudziesięcioletnie stosowanie Modelu Standardowego upewniło nas, że jest on poprawny w ograniczonej dziedzinie, w której został eksperymentalnie przetestowany, i jednocześnie coraz bardziej przekonujemy się do tego, że nie można go rozszerzać poza tę domenę. Czy podobnie nie jest w realnym życiu? Gdy stajemy się starsi, nabieramy pewności co do naszej rzeczywistej wiedzy i jednocześnie łatwiej przyznajemy się do tego, czego nie wiemy. Może się to wydawać niespełnieniem oczekiwań. Fizyka przecież ma odkrywać podstawowe prawa przyrody. A z definicji teoria efektywna tego nie czyni. Mając zbyt naiwny stosunek do nauki, można pomyśleć, że teoria nie może być zgodna ze wszystkimi dotąd

przeprowadzonymi eksperymentami i jednocześnie stanowić co najwyżej przybliżenia prawdy. Właśnie z tego względu ważna okazuje się koncepcja teorii efektywnej, ponieważ jest wyrazem owej bardzo subtelnej różnicy. Egzemplifikuje ona także postęp, jaki dokonał się w fizyce cząstek elementarnych. Uświadamia, że fizyka jest procesem konstruowania coraz lepszych i lepszych teorii przybliżonych. Gdy stworzymy eksperymenty w mniejszej skali odległości i przy udziale większych energii, możemy odkryć nowe zjawiska, a jeśli tak się stanie, będziemy potrzebowali nowego modelu, aby je opisać. Zupełnie tak jak Model Standardowy, będzie to teoria efektywna, aczkolwiek mająca zastosowanie w znacznie szerszej domenie. Pojęcie teorii efektywnej wskazuje, że postęp fizyki pociąga za sobą rewolucję, która kompletnie zmienia koncepcyjne podstawy naszej wiedzy o naturze i jednocześnie zachowuje osiągnięcia teorii wcześniejszych. Fizykę newtonowską można uważać za teorię efektywną stosowaną w domenie, w której prędkości są znacznie mniejsze od prędkości światła i w której ignoruje się zjawiska kwantowe. W tym zakresie pozostaje ona nadal tak samo skuteczna, jak zawsze. Ogólna teoria względności jest innym przykładem teorii, która już kiedyś była kandydatką na teorię dającą podstawowy opis natury, ale która dzisiaj jest uważana

za teorię efektywną. Tylko z jednego powodu nie opisuje bowiem domeny kwantowej. Ogólna teoria względności co najwyżej może być traktowana jako przybliżenie kwantowej teorii przyrody i można by było do niej dojść, uprościwszy tę drugą, bardziej podstawową. Także mechanika kwantowa jest pewnie przybliżeniem bardziej fundamentalnej teorii. Jedną z tego oznak jest fakt, że jej równania są liniowe – co oznacza, że efekty są zawsze wprost proporcjonalne do przyczyn. W każdym innym wypadku, gdy w fizyce używa się równania liniowego, teoria powstaje jako przybliżenie bardziej fundamentalnej (ale wciąż efektywnej) teorii, która jest nieliniowa (w takim sensie, że efekt jest proporcjonalny do wyższej potęgi przyczyny), i wydaje się, że dotyczy to także mechaniki kwantowej. Faktem jest, że każda teoria, którą do tej pory posługiwaliśmy się w fizyce, zaliczała się do efektywnych. Ich sukces polegał na tym, że były przybliżeniem. Gdy zdaliśmy sobie z tego sprawę, nastąpiło otrzeźwienie. Wciąż możemy pragnąć stworzenia fundamentalnej teorii przyrody opisującej ją bez przybliżeń. Zarówno logika, jak i historia podpowiadają nam, że jest to niemożliwe dopóty, dopóki będziemy się trzymać paradygmatu newtonowskiego. Tak bardzo godne podziwu osiągnięcia: fizyka newtonowska, ogólna teoria

względności, mechanika kwantowa i Model Standardowy nie mogą być szablonem, według którego powstanie fundamentalna teoria kosmologiczna. Jedynym wyjściem jest podjęcie wyzwania kosmologicznego i opracowanie teorii, która nie opierałaby się na paradygmacie newtonowskim i mogłaby być stosowana do całości Wszechświata bez przybliżeń. 64 Inne osadzone w tle struktury zawierają geometrię przestrzeni, w jakiej przebywa stan kwantowy; pojęcie odległości w takiej przestrzeni używane do definiowania prawdopodobieństw i geometrie przestrzeni, w jakiej przebywają stopnie swobody Modelu Standardowego. Struktury tła stosowane w ogólnej teorii względności zawierają różniczkowe struktury czasoprzestrzeni i często geometrię granic asymptotycznych. 65 Termin zależne od tła i niezależne od tła ma wąskie zastosowanie w dyskusjach o kwantowych teoriach grawitacji; w tym kontekście teoria zależna od tła to taka, która zakłada ustalone tło klasycznej czasoprzestrzeni. Teorie perturbacyjne, takie jak perturbacyjna kwantowa ogólna teoria względności i perturbacyjna teoria strun, są zależne od tła. Niezależne od tła podejścia do kwantowej grawitacji obejmują pętlową grawitację kwantową, zbiory kauzalne, kauzalną triangulację dynamiczną i quantum graphity. 66 Amit P.S. Yadav i Benjamin Wandelt, Detection of Primordial NonGaussianity (fNL) in the WMAP 3-Year Data at Above 99.5% Confidence, arXiv:0712.1148 [as-tro-ph], PRL100,181301, 2008. 67 Xingang Chen et al., Observational Signatures and Non-

Gaussianities of General Single Field Inflation, arXiv:hep-th/0605045v4 (2008); Clifford Cheung et al., The Effective Field Theory of Inflation, arXiv.org/abs/0709.0293v2 [hep-th] (2008); R. Holman, Andrew J. Tolley, Enhanced Non-Gaussianity from Excited Initial States, arXiv:0710.1302v2 (2008). 68 To nie znaczy, że w teorii inflacji wpływ warunków początkowych na promieniowanie tła nigdy nie może odróżniać się od zmian, przynajmniej w pewnych klasach modeli. Zob.: van Agullo, Jose Navarro-Salas, Leonard Parker, arXiv:1112.1581v2. Dziękuję Matthew Johnsonowi za dyskusje na ten temat. 69 Unikatowość Wszechświata komplikuje inne podejścia do testów teorii wczes​nego Wszechświata. W zwykłej fizyce laboratoryjnej mamy zawsze do czynienia z błędami powstającymi na skutek statystycznej niepewności danych. Można je często zredukować dzięki wykonywaniu wielu pomiarów, ponieważ wpływ zakłóceń losowych zmniejsza się, gdy uśrednia się wiele prób. Natomiast Wszechświat zdarza się tylko raz i w obserwacjach kosmologicznych staje się to niemożliwe. Te statystyczne niepewności zwane są wariancją kosmiczną. 70 Lee Smolin, The Thermodynamics of Gravitational Radiation, „Gen. Rel. & Grav.” 1984, nr 16:3, s. 205–210; tegoż, On the Intrinsic Entropy of the Gravitational Field, „General Relativity and Gravitation” 1985, nr 17:5, s. 417–437. 71 Albo może dopadnie nas przejście fazowe, gdy fałszywa próżnia, w której żyjemy, się rozpadnie. Zob. np.: Sidney Coleman, Frank de Luccia, Gravitational Effects on and of Vacuum Decay, „Physical Review” 1980, nr D21:12, s. 3305–3315. 72 Przy okazji wyjaśnia to, dlaczego spadające ciała poruszają się po

paraboli – te krzywe spełniają równania, które są proste, dlatego że aby je zdefiniować, wymagają tylko dwóch danych, czyli przyspieszenia grawitacyjnego i wektora początkowej prędkości ruchu.

Rozdział 10

Zasady nowej kosmologii Zaczynamy teraz poszukiwanie teorii, która rzeczywiście może stać się teorią całego Wszechświata. Taka teoria musi być wolna od dylematu kosmologicznego i niezależna od tła – nie może zakładać podziału Wszechświata na dwie części, jednej zawierającej zmienne dynamiczne, która ewoluuje, i drugiej zawierającej stałe struktury, które są tłem nadającym sens częściom ewoluującym. Wszystko, co teoria przyjmuje za część rzeczywistości, musi być zdefiniowane przez związki z pozostałymi elementami rzeczywistości w sposób, który umożliwia dokonywanie zmian. Czego musimy wymagać od prawdziwej teorii kosmologicznej? Każda nowa teoria musi zawierać to, co już wiemy o przyrodzie. Obecne teorie – Model Standardowy fizyki cząstek, ogólna teoria

względności i mechanika kwantowa – muszą wynikać z dotąd nieznanej teorii kosmologicznej jako jej przybliżenia, wtedy gdy ograniczamy się do skali odległości i czasu mniejszych niż skala kosmosu. Nowa teoria musi mieć charakter naukowy. Prawdziwe wyjaś​nienia ukazują swą wiarygodność poprzez niezliczone nieoczekiwane konsekwencje. Nie można po prostu wymyślić cokolwiek tylko dlatego, że dzięki temu wszystko wygląda lepiej. Realna teoria musi prowadzić do konkretnych sprawdzalnych przewidywań. Nowa teoria powinna odpowiedzieć na pytanie „dlaczego właśnie te prawa?”. Dzięki niej musimy się dowiedzieć, jak i dlaczego zostały wybrane konkretne cząstki elementarne i oddziaływania opisywane przez Model Standardowy. Zwłaszcza musi wyjaśnić wyjątkowe, mało prawdopodobne wartości stałych uniwersalnych naszego Wszechświata – parametrów takich jak masy cząstek elementarnych i natężenia różnych sił występujących w Modelu Standardowym. Nowa teoria powinna wyjaśnić, dlaczego Wszechświat miał takie, a nie inne warunki początkowe. Dlaczego ma on własności, które wydają się niezwykłe w porównaniu z innymi

wszechświatami, które mogłyby podlegać tym samym prawom. Są to minimalne wymagania. Ponieważ zaś mówimy o teorii całego Wszechświata, kolektywna mądrość fizyków – zawarta w pismach największych umysłów, które starały się stworzyć teorie opisujące naturę, wśród nich Keplera, Galileusza, Newtona, Leibniza, Ernsta Macha i Einsteina – wskazuje, że jeszcze kilka moglibyśmy dodać73. Oto moja własna interpretacja tego, czego nauczyli nas ci mędrcy. W ramach tej teorii interpretacja zjawiska w naszym Wszechświecie musi zależeć tylko od tego, co istnieje albo występuje wewnątrz niego. Wyjaśnienia nie mogą mieć formy ciągu logicznych rozumowań wskazujących na zjawiska pochodzące z zewnątrz. Musimy więc stosować regułę hermetyczności wyjaśnień. Aby teoria była naukowa, nie musi dawać precyzyjnej odpowiedzi na każde pytanie, jakie tylko można wymyślić, ale powinno być wiele pytań, na które zdołalibyśmy odpowiedzieć, gdyby nasza wiedza o Wszechświecie była bardziej szczegółowa. Wprowadzona przez Leibniza reguła koniecznej przyczyny postuluje istnienie odpowiedzi na każde sensowne pytanie o to, dlaczego Wszechświat ma pewne szczególne cechy. Ważnym testem nowej teorii będzie zwiększenie liczby zagadnień, jakie uda się nam

rozwiązać. Postęp nastąpi wówczas, gdy odkryjemy powody pewnych aspektów Wszechświata, które pozostawały niewyjaśnione w ramach wcześniejszych teorii. Zasada Leibniza ma pewne konsekwencje, które powinny ograniczać teorię kosmologiczną. Zgodnie z jedną z nich we Wszechświecie nie może istnieć nic, co oddziaływałoby na inne obiekty, a samo nie podlegało oddziaływaniu. Wszystkie oddziaływania powinny być wzajemne. Nazywamy to zasadą nieistnienia nieodwzajemnionych działań. Einstein odwoływał się do tej zasady, aby wytłumaczyć zastąpienie newtonowskiej teorii grawitacji ogólną teorią względności. Chodziło mu o to, że newtonowska przestrzeń absolutna wpływa na ruch ciał, ale nie jest to odwzajemnione. Ciała we Wszechświecie nie mają na nią wpływu. Przestrzeń absolutna po prostu istnieje. W ogólnej teorii względności Einsteina relacja między materią a geometrią jest wzajemna. Geometria określa, jak porusza się materia, i na odwrót, materia wpływa na krzywiznę czasoprzestrzeni. Na newtonowski czas absolutny także nic nie wpływa. Newton podejrzewał, że jego upływ jest niezależny od tego, czy przestrzeń jest pusta, czy też wypełniona materią. W ogólnej teorii względności obecność materii zmienia upływ czasu. Ta zasada zabrania odwoływania się do jakichkolwiek struktur stałego tła – bytów, których własności są ustalone przez cały czas, niezależnie

od ruchu materii. Struktury tła są podświadomością fizyki, skrycie kształtując nasz sposób myślenia, nadają znaczenie podstawowym pojęciom, za pomocą których zazwyczaj wyobrażamy sobie świat. Wydaje się nam, że wiemy, co oznacza „położenie”, ponieważ podświadomie zakładamy istnienie absolutnego układu odniesienia. Na kilku etapach ewolucji fizyki dostrzeżono istnienie struktur statycznego tła, a potem z nich zrezygnowano i zastąpiono je dynamiczną przyczyną istniejącą wewnątrz Wszechświata. Uczynił to Ernst Mach, gdy odrzucił pogląd Newtona, sugerując, iż w czasie wirowania robi się nam mdło nie dlatego, że poruszamy się względem absolutnej przestrzeni, ale dlatego, że poruszamy się względem materii wypełniającej Wszechświat. Jeśli wymagamy wzajemnej akcji i odrzucamy struktury statycznego tła, to zakładamy, że każdy byt we Wszechświecie ewoluuje dynamicznie, oddziałując ze wszystkim innym. To istota filozofii relacjonizmu, którą przypisuje się zwykle Leibnizowi (przypomnijmy sobie rozważania o znaczeniu pojęcia „położenia” w rozdziale 3). Możemy rozszerzyć ten pogląd tak, aby wszystkie własności opisywane teorią kosmologiczną odzwierciedlały zmienne relacje pomiędzy bytami dynamicznymi. Jeśli natomiast własności ciała – własności, dzięki którym identyfikujemy je i odróżniamy od innych ciał –

są relacjami z innymi ciałami, to nie może być dwóch rozróżnialnych ciał mających ten sam zbiór relacji z resztą Wszechświata. Dwa przedmioty mające te same relacje ze wszystkim innym we Wszechświecie muszą być w rzeczywistości tym samym przedmiotem. To następna z zasad Leibniza nazwana zasadą identyczności rzeczy nierozróżnialnych. Jest ona także konsekwencją reguły koniecznej przyczyny, ponieważ jeśli istnieją dwa odróżnialne byty z tymi samymi relacjami z resztą świata, to nie ma powodu, aby ich nie zamienić ze sobą. A to równałoby się własności świata, która nie miałaby racjonalnego wytłumaczenia. Nie może więc być podstawowych symetrii w naturze. Symetria jest transformacją układu fizycznego, która zamieniając składowe układu, nie zmienia wszystkich jego obserwowalnych własności74. Przykładem symetrii w fizyce newtonowskiej jest translacja podukładu z jednego miejsca w przestrzeni w drugie. Przewidywania nie zmieniają się, jeśli laboratorium – i wszystko, co może wpłynąć na wyniki eksperymentu – zostanie przesunięte na przykład sześć metrów w lewo, ponieważ prawa fizyki nie zależą od tego, w jakim miejscu przestrzeni znajduje się układ. Mówiąc, że fizyka jest inwariantna względem translacji układów w przestrzeni, wyrażamy tym samym niezależność wyników eksperymentów od ich położenia w przestrzeni. Symetrie często występują we wszystkich teoriach

fizyki. Kilka najbardziej użytecznych metod teoretycznych fizyki wykorzystuje istniejące symetrie. A jednak jeśli zasady Leibniza są poprawne, to nie mogą być podstawowe. Symetrie powstają wtedy, gdy traktujemy podukład Wszechświata tak, jakby był jedynym istniejącym obiektem. Zakładając, że nie ma znaczenia przesunięcie laboratorium w przestrzeni, ignorujemy oddziaływania między resztą Wszechświata a atomami w naszym laboratorium. To także wyjaśnia, dlaczego nie ma znaczenia obrót układu, który badamy. Nie odgrywa on roli, ponieważ ignorujemy oddziaływania między podukładem a resztą Wszechświata. Jeśli zaś weźmiemy je pod uwagę, to z pewnością będzie miało znaczenie, jeśli podukład zostanie obrócony. A jeśli sam Wszechświat zostanie poddany translacji albo rotacji? Czy nie jest to symetria? Nie jest, ponieważ nie ulegnie zmianie żadne położenie względne wewnątrz Wszechświata. Z punktu widzenia relacji translacja albo rotacja Wszechświata nie ma znaczenia. Zatem takie symetrie jak translacje albo rotacje nie mogą być fundamentalne. Powstają one wskutek podziału świata na dwie części, jak opisano w poprzednim rozdziale. Te oraz inne symetrie są tylko własnościami praw przybliżonych zastosowanych do podukładów Wszechświata. Ma to szokującą konsekwencję. Jeśli symetrie są przybliżeniem, to także jest nim prawo zachowania

energii, prawo zachowania pędu i momentu pędu. Te podstawowe prawa zachowania powstały dzięki założeniu, że przestrzeń i czas są symetryczne względem translacji w czasie, w przestrzeni i podczas rotacji. Związek między symetriami a prawami zachowania jest treścią bardzo ważnej teorii udowodnionej na początku XX wieku przez matematyczkę Emmę Noether 75. Nie będę wyjaśniać tutaj jej dowodu, ale teoria ta jest jednym z filarów fizyki i powinna być szerzej znana. Nieznana teoria kosmologiczna nie powinna więc opierać się na symetriach ani na prawach zachowania76. Niektórzy fizycy cząstek elementarnych, na których sukces Modelu Standardowego wywarł ogromne wrażenie, lubią powtarzać, że im bardziej fundamentalna jest teoria, tym więcej symetrii powinna zawierać. A to jest właśnie błędne przekonanie77. Właśnie dochodzimy do najważniejszej kwestii dotyczącej nieznanej teorii kosmologicznej. Co musi ona mówić o naturze czasu? Czy czas się rozpłynie jak w ogólnej teorii względności? Czy zniknie i pojawi się tylko wtedy, gdy będzie potrzebny, jak w kosmologii kwantowej Barboura? Albo czy będzie grał główną rolę, jak dotąd w żadnej teorii od czasów Newtona? Wierzę, że czas jest potrzebny w każdej teorii, która odpowiada na pytanie: dlaczego te prawa? Jeśli prawa mają być wyjaśnione, to muszą ewoluować. Tego

dowodził Charles Sanders Peirce, którego cytowałem we wstępie. Przyjrzyjmy się temu cytatowi jeszcze raz, aby go rozwikłać. Zaczyna się tak: „Trudno uzasadnić sytuację, w której mogąc pojąć rozumem prawa natury, nie potrafimy wyjaśnić i uzasadnić szczególnej ich postaci”. Możemy to rozumieć jako sformułowanie reguły przyczyny koniecznej Leibniza: powinniśmy być zdolni dać odpowiedź na pytanie, dlaczego te, a nie inne odkryte przez nas prawa są prawami natury. Peirce ponownie podkreśla to w dalszych dwóch zdaniach: „Jednorodność to właśnie ta cecha, którą powinniśmy uwzględniać (…) Prawo jest pojęciem w najwyższym stopniu wymagającym podania powodu”. To sformułowanie pytania: dlaczego te prawa. Fakty dotyczące świata powinny być wyjaśnione, a najpilniejszą potrzebą jest odpowiedź na pytanie o to, dlaczego takie szczególne prawa obowiązują w naszym Wszechświecie. Potem filozof zapewnia, że „wyjaśnienia praw natury i, ogólnie mówiąc, jednorodności można dokonać tylko w jeden możliwy sposób, mianowicie przyjmując, że są one rezultatem ewolucji”. To bardzo mocne sformułowanie. Peirce nie dowodzi swojego wniosku, że prawa muszą ewoluować. Po prostu oświadcza, że to „jedyna możliwa” odpowiedź na pytanie: dlaczego te prawa. Nie wiem, czy kiedykolwiek w swych wielu dziełach i zapiskach opisał dowód wspierający ten

wniosek. Ale podam taki, który mógłby być sformułowany przez niego. Naszym zadaniem jest wyjaśnienie, dlaczego obiekt – w tym wypadku Wszechświat – ma szczególną własność, mianowicie taką, że cząstki elementarne i siły oddziałują ze sobą dzięki procesom opisanym w Modelu Standardowym. Ten problem jest wyzwaniem, ponieważ wiemy, że Model Standardowy, z jego szczególnymi parametrami, to tylko jedna z wielu możliwości wyboru praw natury. A więc jak wyjaśnimy, dlaczego jakiś byt ma taką własność wybraną z ogromnego ich zbioru? Ponieważ tych możliwości jest wiele, żadna zasada nie wyróżnia praw, jakie mamy. Jeśli nie ma koniecznej przyczyny wyboru, to musi być jakiś powód niedający się wyjaśnić logicznie. Może (albo mogło) się tak zdarzyć, że następował inny wybór. Jak wyjaśnimy sposób, w jaki został on dokonany w wypadku naszego Wszechświata? Jeśli rzeczywiście jest tylko jeden przypadek, nigdy nie znajdziemy dostatecznego wyjaśnienia, ponieważ, ipso facto, nie ma logicznej zasady, która określa wybór. Dostateczne wyjaśnienie wymaga istnienia innych wszechświatów obdarzonych prawami. To znaczy, musiało zajść więcej zdarzeń podobnych do naszego Wielkiego Wybuchu, podczas których dokonał się wybór praw natury. (Aby nie komplikować zagadnienia, zakładamy, że prawa zostają wybrane podczas dramatycznego zdarzenia podobnego do Wielkiego

Wybuchu; oczywiście nie ma dowodu, że od tego czasu uległy one zmianie). Powstaje zatem pytanie, jak wielkie wybuchy – zdarzenia, w których dochodzi do wyboru praw – są poukładane. Możemy teraz odwołać się do zasady mówiącej, że Wszechświat musi być przyczynowo zamknięty. To znaczy zakładamy, że zawiera on wszystkie łańcuchy przyczyn niezbędnych do wyjaśnienia czegokolwiek wewnątrz niego. Jeśli chcemy się dowiedzieć, jak owe prawa zostały wybrane podczas Wielkiego Wybuchu, możemy odwołać się tylko do zdarzeń, które zaszły po nim. Tę samą logikę możemy zastosować do wyboru praw podczas wybuchów zachodzących przed naszym. Musi być zatem sekwencja wybuchów rozciągająca się nieskończenie daleko w przeszłość. Wybierzmy dowolny punkt startu wiele wybuchów temu i prześledźmy wybory praw dokonywane w czasie, w przód. Zobaczymy prawa ulegające zmianie, w miarę jak będziemy dochodzić do naszego Wszechświata. Wysnuwamy więc wniosek podobny jak Peirce, że jeśli mamy mieć nadzieję na wyjaśnienie praw, to muszą one ewoluować78. Wybuchy mogą zachodzić czysto sekwencyjnie albo mogą się rozgałęziać – w przyszłość albo w przeszłość, albo tu i tu. Możemy tworzyć różne hipotezy co do tego, czy występuje rozgałęzianie, lub co dokładnie modyfikuje prawa podczas tych zdarzeń. We wszystkich tych wypadkach będziemy wyjaśniać wybór praw

dokonany podczas najnowszego wybuchu tylko za pomocą zdarzeń zachodzących w przeszłości i mających z nim przyczynowy związek. Tego typu scenariusz mógłby zostać sprawdzony eksperymentalnie. Zdarzenia poprzedzające nasz Wielki Wybuch udałoby się obserwować dzięki informacji pozostawionej w szczątkach (jeśli są), które przetrwały narodziny naszego Wszechświata. W rozdziale 11 i 18 zapoznamy się z przykładami przewidywań teorii, które umożliwiają ewolucję praw natury przed naszym Wielkim Wybuchem. Jednak jeśli Wielki Wybuch nie ma przeszłości, to wybór praw i warunków początkowych jest dowolny i takich testów nie da się wykonać. Nie zdołamy także zrealizować testów ani scenariuszy, w których istnieje ogromna lub nieskończona populacja wszechświatów, a ich wielkie wybuchy są przyczynowo niezwiązane z naszym. W kosmologii naukowej postulowanie wszechświatów równoległych, wszechświatów, które są przyczynowo rozłączne z naszym, nie może pomóc w wyjaś​nieniu własności naszego Wszechświata. Dochodzimy do wniosku, że jedyną dopuszczalną naukową teorią kosmologiczną, która może dawać falsyfikowalne przewidywania, jest taka, w której prawa będą ewoluować w miarę upływu czasu. (Przewidywanie jakiejś teorii jest falsyfikowane, jeśli można wykazać jego nieprawdziwość za pomocą dającego się wykonać eksperymentu).

Roberto Mangabeira Unger ujmuje to bardziej elegancko 79. Albo czas jest realny, albo nie. Jeśli czas nie jest realny, to prawa są bezczasowe – ale w takim razie wyboru praw nie da się wyjaśnić ze względów, o jakich już była mowa. Jeśli zaś jest naprawdę realny, wtedy nic, nawet prawa, nie trwa wiecznie. Skoro prawa natury działają wiecznie, to trwamy w paradygmacie newtonowskim i możemy użyć ich do redukcji każdej własności świata w czasie późniejszym do własności wcześniejszej. Równoważnie możemy zastąpić każdą przyczynę fizyczną logicznym wnioskowaniem. Jeśli więc czas jest realny, to prawa nie mogą trwać wiecznie. Muszą ewoluować. Pojęcie bezczasowych praw narusza także zasadę relacyjną mówiącą, że we Wszechświecie nie działa nic, co samo nie byłoby poddane działaniu. Jeśli z tej zasady wyłączymy prawa natury, przyjmując, że są czymś spoza Wszechświata, to traktujemy je jak pozbawione racjonalnego wyjaśnienia. Aby mogły mieć wyjaśnienie, musimy założyć, że są w takim samym stopniu częścią świata jak cząstki, na które działają. Podlegają zmianom i zasadzie przyczynowości. Stają się wytłumaczalne tylko wtedy, gdy uczestniczą w zmianach i wzajemnym wywieraniu wpływu, które tworzy jedność Wszechświata. Chociaż dotąd nie mamy teorii kosmologicznej, już coś o niej wiemy, jeśli rozsądne są zasady, które wysunąłem:

Powinna ona zawierać wszystko, czego dotąd dowiedzieliśmy się o naturze, ale traktowane jako przybliżenia. Powinna być naukowa, to znaczy musi dawać testowalne przewidywania dla wykonalnych eksperymentów. Powinna dać odpowiedź na pytanie: dlaczego te prawa. Powinna rozwiązać problem warunków początkowych. Nie powinna zakładać symetrii ani praw zachowania. Przyczynowo powinna być zamknięta. Nie można wymagać, aby cokolwiek z zewnątrz Wszechświata wyjaśniało cokolwiek wewnątrz niego. Powinna spełniać regułę koniecznej przyczyny, zasadę braku nieodwzajemnionego działania i zasadę identyczności rzeczy nierozróżnialnych. Jej zmienne fizyczne powinny opisywać ewoluujące związki pomiędzy bytami dynamicznymi. Nie ma w niej miejsca dla struktur stałego tła ani stałych praw natury. Odtąd prawa natury ewoluują, co oznacza, że czas jest realny.

Zasady są dobre, ale nam tak naprawdę potrzeba hipotez, które prowadzą do teorii dających testowalne przewidywania. W kilku następnych rozdziałach opiszę przykłady hipotez i teorii, które realizują te zasady, i przekonamy się, że rzeczywiście dają one testowalne przewidywania. 73 Tutaj podążam za radą udzieloną mi przez Davida Finkelsteina, emerytowanego profesora politechniki w Georgii i jednego z mędrców współczesnej fizyki, który kiedyś powiedział mi, że wielki przełom pojęciowy potrzebny fizyce współczesnej można osiągnąć dzięki przeanalizowaniu jej historii z ciągu ostatnich czterech stuleci. 74 Należy odróżniać symetrię od symetrii cechowania. Pierwsza dotyczy przekształceń fizycznych, które pozostawiają prawa niezmienione. Ta druga jest innym matematycznym opisem konfiguracji układu. Argument, jaki tutaj podałem, wyklucza tę pierwszą, ale nie drugą. 75 E. Noether, Invariante Variationsprobleme, „Nachrichten von der Gesellschaft der Wissenschaften zu Göttingen” 1918, s. 235–257. 76 To uogólnione rozumowanie potwierdzone jest w ogólnej teorii względności, która, gdy stosowana jest w zamkniętym wszechświecie, nie ma ani symetrii, ani praw zachowania. 77 Roger Penrose dowodził to dawno temu. Rzeczywiście na przykładzie teorii strun widzimy, że im więcej symetrii ma teoria, tym mniejsza jest jej moc wyjaśniania czegokolwiek. 78 Jedyną nieprecyzyjną cechą konkluzji Peirce’a jest niejasność, co

rozumie on przez pojęcie ewolucji. Uczeni dowodzili, że odnosił się do czegoś w rodzaju darwinowskiego doboru naturalnego. Wiadomo, że był pod wielkim wpływem Darwina. Jednakże starając się zrozumieć tylko sam tekst, można założyć, że miał na myśli ewolucję w bardziej ogólnym znaczeniu zmian dokonujących się w czasie zgodnie z pewnymi dynamicznymi procesami. Wystarcza to, aby stwierdzić, że pytanie: Dlaczego te prawa?, da się wyjaśnić naukowo, tylko gdy czas jest realny. 79 Roberto Mangabeira Unger, manuskrypt.

Rozdział 11

Ewolucja praw fizyki Dotąd głównym przesłaniem części II było to, że w imię postępu kosmologii fizyka musi porzucić dotychczasową ideę bezczasowych, wiecznych praw i przyjąć nową ideę praw ewoluujących w czasie. Ta zmiana jest konieczna, abyśmy mogli stworzyć testowalną, a może nawet falsyfikowalną teorię kosmologiczną, która wyjaśni wybór praw fizyki i warunków początkowych. W niniejszym rozdziale mam zamiar dowieść słuszności tego stanowiska, porównując zdolności do wyjaśnienia i przewidywania obserwowalnych rezultatów dwóch teorii, jednej bezczasowej i drugiej z ewoluującymi prawami. Teoria, w której prawa ewoluują, zwana jest kosmologicznym doborem naturalnym. Rozwinąłem ją w końcu lat osiemdziesiątych i opublikowałem w 199280. W publikacji tej dokonałem kilku przewidywań, które mogłyby zostać sfalsyfikowane w ciągu następnych dwudziestu lat, ale do tego nie

doszło. To oczywiście nie dowodzi, że teoria jest poprawna, ale przynajmniej pokazałem, że wersja z ewoluującymi prawami może wyjaśnić i przewidzieć realne zjawiska występujące w naszym świecie. Jako przykład teorii bezczasowej wybiorę wersję scenariusza wieloświata nazwaną wieczną inflacją, zaproponowaną w latach osiemdziesiątych przez Alexandra Vilenkina i Andreja Lindego, i od tamtego czasu bardzo intensywnie badaną81. Wieczna inflacja występuje w różnych formach, co sprawia, że pewne jej hipotezy mogą być dostrajane. Wracając do sedna sprawy, wybrałem jedną prostą formę inflacji, która najlepiej pasuje do „wieczności”, ponieważ ukazuje bezczasowy obraz wieloświata. Są inne wersje inflacyjnego wieloświata, w których czas odgrywa bardziej zasadniczą rolę, i gdy chodzi o pojęcie ewolucji praw, mają one pewne aspekty wspólne z kosmologicznym doborem naturalnym. Jednym z powodów, dla których kosmiczne scenariusze z ewoluującymi prawami okazały się skuteczne w tworzeniu realnych przewidywań, jest to, że w celu ustalenia związku Wszechświata z wieloświatem, jaki obserwujemy, nie korzystają one z zasady antropicznej – głosi ona, że możemy żyć tylko w takim wszechświecie, którego prawa i warunki początkowe sprzyjają powstaniu życia. W tym rozdziale obalimy twierdzenie, że zasada antropiczna może grać jakąś rolę w powstawaniu teorii zdolnej tworzyć sprawdzalne

przewidywania. Kosmologiczny dobór naturalny był tematem mojej pierwszej książki, Życie wszechświata, dlatego opiszę tę teorię dostatecznie szczegółowo, aby stało się jasne, dlaczego czasowa ewolucja praw prowadzi do ich falsyfikowalnego wyjaśnienia82. Podstawową hipotezą kosmologicznego doboru naturalnego jest to, że wszechświaty powielają się, tworząc nowe wszechświaty wewnątrz czarnej dziury. Nasz Wszechświat jest zatem potomkiem innego, powstałym w jednej z jego czarnych dziur, a każda czarna dziura w naszym Wszechświecie jest zarodkiem nowego wszechświata. To scenariusz, do którego możemy zastosować zasadę doboru naturalnego. Mechanizm doboru naturalnego, jakim się posługuję, opiera się na metodach ekologii populacyjnej, która wyjaśnia, jak dobór niektórych parametrów sterujących układem czyni go jeszcze bardziej złożonym. Wyjaśnianie złożoności układu za pomocą doboru naturalnego wymaga: Przestrzeni parametrów zmiennych w ramach populacji. W ekologii tymi parametrami są geny. W fizyce to stałe Modelu Standardowego, takie jak masy różnych cząstek elementarnych i natężeń oddziaływań podstawowych. Te parametry tworzą

przestrzeń w rodzaju przestrzeni konfiguracyjnej praw natury – zwaną krajobrazem teorii (termin zapożyczony z ekologii populacyjnej, w której przestrzeń genów nazwana jest krajobrazem dostosowania). Mechanizmu reprodukcji. Zaadaptowałem starą ideę zaproponowaną mi przez mojego mentora, Bryce’a DeWitta, zgodnie z którą czarne dziury prowadzą do narodzin nowych wszechświatów. To konsekwencja hipotezy, że grawitacja kwantowa poradzi sobie z osobliwościami, w których czas się zaczyna i kończy – hipotezy, która ma teoretyczne dowody. Nasz Wszechświat zawiera dużo czarnych dziur, przynajmniej miliard miliardów, co wskazuje na ogromną populację wszechświatów potomnych. Można przypuszczać, że sam jest członkiem pewnej linii potomnych rozciągającej się głęboko w przeszłość. Zmienności. Dobór naturalny po części jest wynikiem mutacji i rekombinacji genów zachodzących losowo podczas reprodukcji, tak by genomy potomstwa różniły się od genomu każdego z rodziców. Analogicznie możemy przypuszczać, że gdy powstaje nowy wszechświat, losowo dochodzi

do małej różnicy parametrów praw natury. W ten sposób w krajobrazie możemy zaznaczyć punkt odpowiadający wartościom parametrów tego wszechświata. W rezultacie otrzymujemy olbrzymi i wciąż zwiększający się zbiór punktów w krajobrazie, obrazujący zmienność parametrów praw w wieloświecie. Różnic w dostosowaniu. W ekologii populacji dostosowanie jednostki jest miarą sukcesu reprodukcyjnego – to znaczy, jak wiele z potomstwa przeżywa na tyle długo, aby mieć własne potomstwo. Dostosowanie wszechświata jest zatem miarą liczby czarnych dziur w nim utworzonych. Okazuje się, że ta wielkość bardzo silnie zależy od parametrów. Niełatwo stworzyć czarną dziurę; stąd wiele parametrów prowadzi do powstania wszechświatów, które w ogóle nie mają czarnych dziur. Niewiele zaś skutkuje stworzeniem wszechświatów z wieloma czarnymi dziurami. Takie wszechświaty znajdują się w niewielkim regionie przestrzeni parametrów. Założymy, że te bardzo płodne regiony przestrzeni parametrów są wyspami otoczonymi przez obszary o znacznie mniejszej płodności. Typowości. Założymy także, że nasz Wszechświat jest typowym przedstawicielem

populacji wszechświatów po wielu generacjach. Stąd możemy przewidywać, że każda wspólna własność większości wszechświatów jest także własnością naszego 83. Zaleta metodologii opartej na doborze naturalnym polega na tym, że na podstawie tak minimalnych założeń można wyciągać bardzo istotne wnioski. Najważniejszy z nich jest taki, że w ciągu wielu generacji większość wszechświatów ma parametry leżące wewnątrz regionów bardzo płodnych. Wynika stąd, że jeśli zmienimy parametry typowego wszechświata, to będzie on tworzył znacznie mniej czarnych dziur. A ponieważ nasz Wszechświat jest typowy, musi to dotyczyć także jego. Takie przewidywanie może być sprawdzone pośrednio. Wiemy już, że wiele metod zmiany parametrów Modelu Standardowego daje w rezultacie wszechświaty pozbawione długo żyjących gwiazd potrzebnych do produkcji węgla i tlenu. A co zadziwiające, węgiel i tlen są niezbędne do schładzania obłoków gazowych, w których dochodzi do formowania masywnych gwiazd, z nich zaś powstają czarne dziury. Inne zmiany parametrów prowadzą do mniejszej liczby supernowych, które nie tylko są kuźnią czarnych dziur, ale także wtryskują w przestrzeń międzygwiezdną

energię – energię, która jest siłą napędową kolapsu chmur pyłowych prowadzącego do powstawania masywnych gwiazd. Wiemy już o przynajmniej ośmiu sposobach niewielkiej zmiany parametrów Modelu Standardowego, które prowadzą do wszechświatów z mniejszą liczbą czarnych dziur 84. W ten sposób kosmologiczny dobór naturalny oferuje oryginalne wyjaśnienie tego, że parametry Modelu Standardowego wydają się tak doskonale dostrojone do kreacji wszechświata wypełnionego długowiecznymi gwiazdami, które w miarę upływu czasu wzbogacają go w węgiel, tlen i inne pierwiastki tworzące jego chemiczną złożoność. Parametry, których wielkości w większym lub mniejszym stopniu są wyjaśnione, to między innymi masy: protonu, neutronu, elektronu i neutrina elektronowego, oraz natężenia czterech oddziaływań. Jest także premia: chodzi nam o wyjaśnienie maksymalizacji produkcji czarnych dziur, a w konsekwencji otrzymujemy wszechświat oferujący coraz lepsze warunki do powstania życia. Ponadto hipoteza kosmologicznego doboru naturalnego prowadzi do kilku bardzo oryginalnych przewidywań, które są falsyfikowalne za pomocą obserwacji możliwych do wykonania. W jednym z nich chodzi o to, że większość masywnych gwiazd nie może przekraczać pewnej granicy masy. Po supernowej pozostaje jej centralny obszar zwany jądrem, który pod wpływem grawitacji zapada się w sobie, stwarzając

gwiazdę neutronową albo czarną dziurę. Od tego, jak bardzo masywne jest jądro, zależy, który z tych obiektów powstanie. Gwiazda neutronowa istnieje tylko wtedy, gdy jej masa jest mniejsza od pewnej masy krytycznej. Jeśli kosmologiczny dobór naturalny jest prawdziwy, to ta masa krytyczna powinna być jak najmniejsza, ponieważ im jest mniejsza, tym więcej powstaje czarnych dziur. Okazuje się, że możliwych jest kilka składów gwiazd neutronowych. Jedna z możliwości to po prostu neutrony; wówczas masa krytyczna jest dość duża i wynosi około 2,5 do 2,9 mas Słońca. Jądro gwiazdy neutronowej mogą też tworzyć egzotyczne cząstki elementarne zwane kaonami. W takim wypadku masa krytyczna jest znacznie mniejsza w porównaniu z gwiazdami zbudowanymi wyłącznie z neutronów. Wielkość tej masy krytycznej jest różna w różnych modelach teoretycznych i mieści się w zakresie od 1,6 do 2 mas Słońca. Jeśli kosmologiczny dobór naturalny jest prawdziwy, to oczekujemy, że natura wykorzysta możliwość wytworzenia kaonów w jądrach gwiazd neutronowych, aby zmniejszyć masy krytyczne. Tak może się stać, jeśli w wyniku dostrojenia masa kaonów będzie wystarczająco mała. Tego z kolei można dokonać przez dostrojenie masy kwarka dziwnego, co nie wpłynie jednocześnie na tempo formowania się gwiazd. Gdy zaproponowano hipotezę kosmologicznego doboru

naturalnego, najcięższe obserwowane gwiazdy neutronowe miały masy mniejsze niż 1,5 masy Słońca, ale niedawno zaobserwowano gwiazdę neutronową, która ma masę nieco mniejszą niż podwojona masa Słońca. Kosmologiczny dobór naturalny byłby obalony, gdyby masa gwiazd kaonowo-neutronowych leżała u dołu zakresu teoretycznego, ale teoria radzi sobie, gdy poprawna jest górna granica oszacowania, która wynosi dwie masy Słońca. Istnieje jednak gwiazda neutronowa nie dość precyzyjnie zmierzona, której masę oszacowano na dwie i pół masy Słońca85. Jeśli po dokładniejszych pomiarach odkrycie będzie nadal aktualne, to uda się sfalsyfikować hipotezę kosmologicznego doboru naturalnego 86. Inne przewidywanie wiąże się z zadziwiającą cechą wczesnego Wszechświata polegającą na jego ekstremalnej regularności. Rozkład materii we wczesnym Wszechświecie, znany z badań mikrofalowego promieniowania tła, zmienia się tylko nieznacznie w przestrzeni. Dlaczego? Dlaczego Wszechświat nie rozpoczął się z ogromnymi wahaniami gęstości? Gdyby pojawiły się ogromne wahania gęstości, to bardzo gęste obszary natychmiast zapadłyby się do postaci czarnych dziur. Gdyby wahania gęstości były wystarczająco duże, to te tak zwane pierwotne czarne dziury zapełniłyby wczesny Wszechświat,

prowadząc do powstania świata zawierającego znacznie więcej czarnych dziur niż nasz teraz. Mogłoby to falsyfikować kosmologiczny dobór naturalny, nie byłoby bowiem możliwości dokonania małych zmian parametrów praw fizyki, aby stworzyć wszechświat ze znacznie większą liczbą czarnych dziur niż nasz własny. Kosmolodzy opisują wahania gęstości materii parametrem zwanym skalą fluktuacji gęstości. Nie jest to parametr wchodzący w skład Modelu Standardowego, ale istnieją modele wczesnego Wszechświata obejmujące parametry, których odpowiednie dostrojenie spowoduje zwiększenie fluktuacji gęstości, i można śmiało zapytać, czy te modele dadzą się pogodzić z kosmologicznym doborem naturalnym. W większości wersji teorii inflacji istnieje parametr, który można zwiększyć, aby osiągnąć poziom fluktuacji gęstości i w ten sposób zapełnić Wszechświat pierwotnymi czarnymi dziurami. Natomiast w kilku prostszych wersjach modeli inflacji zwiększenie tego parametru kurczy Wszechświat przez ograniczenie czasu, w jakim podlega on inflacji. W rezultacie powstanie wszechświat znacznie mniejszy, który pomimo zapełnienia czarnymi dziurami w sumie będzie mieć ich znacznie mniej niż nasz własny87. To znaczy, że kosmologiczny dobór naturalny jest do pogodzenia tylko z prostą teorią inflacji, która nie dokonuje nadprodukcji pierwotnych czarnych dziur. Jeśli zostanie znaleziony dowód na to, że

inflacja dokonała się w sposób wymagający znacznie bardziej złożonego opisu teoretycznego, to kosmiczny dobór naturalny będzie wykluczony88. Dlatego kosmiczny dobór naturalny przewiduje, że nie odkryjemy takiego dowodu. Oczywiście poprawną teorią bardzo wczesnego Wszechświata nie musi być inflacja, ale ten przykład pokazuje, że kosmologiczny dobór naturalny da się obalić przez odkrycie mechanizmu wytwarzania wielu pierwotnych dziur we wczesnym Wszechświecie89. Kosmologiczny dobór naturalny może zachodzić tylko w kontekście realności czasu. Powodem jest założenie, że nasz Wszechświat ma tylko względną przewagę dostosowania nad wszechświatami różniącymi się małą zmianą parametrów. To bardzo słaby warunek. Nie potrzebujemy zakładać, że parametry naszego Wszechświata są możliwie jak największe, całkiem dobrze mogą istnieć inne ich dobory, prowadzące do wszechświata jeszcze bardziej płodnego. Wszystko, co scenariusz przewiduje, to że nie można ich osiągnąć przez małą zmianę obecnych wartości. W ten sposób populacja wszechświatów może być różnorodna, składająca się z rozmaitych gatunków, względnie płodnych w porównaniu z nieco innymi. Mieszanina rodzajów wszechświatów będzie się stopniowo zmieniać wraz z upływem czasu, gdy nowe sposoby płodności zostaną odkryte metodą prób

i błędów. Tak działa biologia. Nie ma doskonale dostosowanych gatunków trwających wiecznie, raczej każda era w historii życia jest charakteryzowana przez różne mieszaniny względnie przystosowanych gatunków. Życie nigdy nie osiąga równowagi albo stanu idealnego, lecz wciąż ewoluuje. Podobnie w miarę ewolucji i upływu czasu zmianie będą ulegać typowe prawa w populacji wszechświatów. Gdyby istniał stan końcowy – w którym mieszanina wszechświatów pozostawałaby niezmienna, gdy raz zostanie osiągnięty – czas przestałby mieć znaczenie i moglibyśmy powiedzieć, że powstała bezczasowa równowaga. Jednakże dobór naturalny nie zakłada i nie dopuszcza czegoś takiego. W scenariuszu kosmologicznego doboru naturalnego czas jest zawsze obecny. Ponadto ten scenariusz wymaga, aby czas był uniwersalny i realny. Populacja wszechświatów ewoluuje gwałtownie, wzrastając za każdym razem, gdy któryś wytwarza czarną dziurę. Jeśli mamy coś przewidywać na podstawie teorii, to musi ona ustalać, jak wiele wszechświatów ma takie-a-takie własności w każdym momencie. Ten czas musi mieć znaczenie nie tylko w każdym wszechświecie, lecz także w całej populacji. Potrzebujemy więc pojęcia czasu, które daje obraz jednoczesności w każdym wszechświecie i w całej ich populacji90. Spróbujmy porównać to z teorią wiecznej inflacji, w której wczesny wszechświat przechodzi fazę inflacji,

ponieważ pola kwantowe odpowiadające za istnienie cząstek i oddziaływań znajdują się w fazie, w której produkuje się ogromne ilości ciemnej energii. Doprowadza to wszechświat do gwałtownego rozszerzania się. Inflacja kończy się zazwyczaj, gdy w rezultacie przejścia fazowego powstaje pęcherzyk. To zjawisko jest analogiczne do tworzenia się pęcherzyka pary wodnej w podgrzewanym garnku z wodą. Pęcherzyk zawiera gazową fazę wody, która powstała z fazy ciekłej. W scenariuszu kosmologicznym w pęcherzyku zawarta jest faza pól kwantowych, która pozbawiona jest ogromnej ilości ciemnej energii, dlatego ekspansja w nim zwalnia i staje się on naszym Wszechświatem. Vilenken i Linde zauważyli, że otaczające medium, wciąż zawierające ogromną ilość ciemnej energii, dalej będzie się gwałtownie rozszerzać. Będzie powstawać coraz więcej pęcherzyków, przekształcających się we wszechświaty, takie jak nasz. W określonych warunkach proces ten może trwać wiecznie, ponieważ medium podlegające inflacji nigdy nie zanika, nawet gdy wyprodukuje nieskończenie wiele wszechświatów pęcherzykowych. Jeśli ten scenariusz jest poprawny, to nasz Wszechświat okazuje się jednym z nieskończenie wielu powstałych jako pęcherzyki w medium podlegającym wiecznej inflacji. W najprostszej postaci, jaką wybieram dla naszych celów, prawa, którym podlega każdy z pęcherzyków, są

wybrane losowo z krajobrazu możliwych praw91. W wielu dyskusjach przyjmuje się, że ten krajobraz jest wynikiem wielu teorii strun, ale każda teoria ze zmiennymi parametrami, a także Model Standardowy, też go może stworzyć. W najprostszym wypadku proporcja pęcherzyków z danym prawem jest stała, a gdy powstaje coraz więcej i więcej wszechświatów pęcherzykowych, prawdopodobieństwo pojawienia się danego prawa w populacji pozostaje stałe. W tak prostym scenariuszu czas i dynamika nie wpływają na to, w jakim stosunku prawa naszego Wszechświata pozostają do innych (być może nieskończenie wielu) możliwości. Rozkład wszechświatów (to znaczy prawdopodobieństwa określające ich inne prawa i własności) osiąga pewnego rodzaju równowagę i pozostaje taki sam na wieczność. W tym sensie scenariusz jest bezczasowy, co sprawia, że nadaje się do porównania z kosmologicznym doborem naturalnym. Wszechświaty z prawami dostrojonymi doskonale w celu podtrzymywania życia są ogromnie rzadkie, ponieważ w każdym z pęcherzyków prawa są dobierane losowo. Tak więc nasz Wszechświat jest w tym względzie atypowy w populacji wszechświatów pęcherzykowych. Aby powiązać ten scenariusz z obserwacjami naszego Wszechświata, kosmolodzy muszą się uciec do zasady antropicznej, która, jak już wspominano, głosi, że

możemy żyć tylko w takim wszechświecie, którego prawa i warunki początkowe stwarzają świat przyjazny powstaniu życia. A ponieważ mogliśmy się znaleźć tylko w tym pierwszym, to zasada antropiczna wskazuje na wybór bardzo niewielkiego podzbioru podtrzymujących życie wszechświatów ze znacznie większego zbioru tych pozbawionych życia. Co zadziwiające, jest wiele cech wspólnych, które stwarzają świat przyjazny życiu i jednocześnie bardzo płodny w czarne dziury. Wydaje się zatem, że dwie teorie – kosmologiczny dobór naturalny i zasada antropiczna – wyjaśniają niektóre z doskonałych dopasowań parametrów Modelu Standardowego. Zauważmy jednak, jak różne są to wyjaśnienia. W kosmologicznym doborze naturalnym nasz świat jest typowym wszechświatem i większość populacji ma te same cechy, które zapewniają wszechświatowi wysokie dostosowanie, podczas gdy w wieloświecie wiecznej inflacji światy takie jak nasz są wielką rzadkością. W pierwszym wypadku mamy prawdziwe wyjaśnienie, w tym drugim – tylko zasadę wyboru. Te odmienne rodzaje wyjaśnień różnią się zdolnością tworzenia prawdziwych przewidywań własności wszechświatów jeszcze nieobserwowanych. Jak widzieliśmy, kosmologiczny dobór naturalny już wskazał kilka oryginalnych przewidywań. A scenariusz powołujący się na zasadę antropiczną jako wyjaśnienie praw i warunków początkowych naszego Wszechświata

dopiero musi dać przynajmniej jedno falsyfikowalne przewidywanie dla wykonalnego eksperymentu. Nie wierzę, że kiedykolwiek to nastąpi. Oto dlaczego tak uważam. Weźmy pod uwagę dowolną własność naszego Wszechświata, jaką chcielibyśmy wyjaśnić. Albo ta własność jest niezbędna dla podtrzymania życia inteligentnego, albo nie. Jeśli zachodzi to pierwsze, to wyjaśnia ją już nasze istnienie, ponieważ musi ona mieć zastosowanie w bardzo niewielkim ułamku wszechświatów posiadających inteligentne życie. A teraz weźmy pod uwagę drugą klasę własności, tych niekoniecznie niezbędnych dla podtrzymania inteligentnego życia. Ponieważ prawa są losowo wybrane dla każdego pęcherzyka, to własności są losowo rozłożone w całej populacji wszechświatów. Ponieważ zaś nie mają nic wspólnego z podtrzymywaniem życia, będą także losowo rozłożone w zbiorze wszechświatów posiadających formy żywe. Tak więc teoria nie tworzy żadnego przewidywania, co w odniesieniu do tych własności można zaobserwować w naszym Wszechświecie. Masa elektronu jest dobrym przykładem pierwszego rodzaju włas​ności. Można dowieść, że warunki do życia w naszym Wszechświecie uległyby pogorszeniu, gdyby różniła się ona znacznie od tej, jaką się obserwuje92. Dobrym przykładem drugiego rodzaju własności jest masa kwarka wysokiego. O ile wiemy, może się ona zmieniać w szerokim zakresie, nie powodując zmiany

warunków życia w naszym Wszechświecie. A zatem zasada antropiczna nie może wyjaśnić obserwowanej wielkości jego masy. Wieczna inflacja daje jedno potencjalnie testowalne przewidywanie tego, że krzywizna przestrzeni w każdym wszechświecie pęcherzykowym jest nieco ujemna. (Przestrzeń o ujemnej krzywiźnie jest ukształtowana podobnie do siodła – w odróżnieniu od tej o dodatniej krzywiźnie podobnej do sfery). Jeśli nasz Wszechświat powstał w pęcherzyku w rozszerzającym się wieloświecie, to musi być to prawdziwe także i dla niego. To oryginalne przewidywanie, ale istnieje szereg problemów z jego falsyfikacją. Przede wszystkim ujemna krzywizna jest bliska zera, a zero jest trudno odróżnialne od każdej bardzo małej liczby, dodatniej lub ujemnej. I rzeczywiście krzywizna wynosi zero w granicach błędu eksperymentalnego. Nawet jeśli w wyniku będących w toku eksperymentów uzyskamy lepsze dane, będzie bardzo trudno odróżnić, czy krzywizna jest równa zeru, trochę ujemna czy też trochę dodatnia. Jak w każdym eksperymencie, istnieje błąd pomiaru. W tej sytuacji jest mało prawdopodobne, że jakakolwiek obserwacja prędko sfalsyfikuje powyższe przewidywanie. Nawet jeśli uda się nam dowieść, że krzywizna naszego Wszechświata jest nieco ujemna, to nie dowodzi to, że jest on jednym z ogromnej liczby wszechświatów wieloświata. Jest wiele modeli kosmologicznych

i scenariuszy, które przewidują małą ujemną krzywiznę. Jeden z nich zakłada, że nasz Wszechświat jest jedyny i opisuje go rozwiązanie równań Einsteina z ujemną krzywizną. Takie rozwiązanie nie wymaga inflacji w celu wyjaśnienia krzywizny. Inny model zakłada, że inflacja stworzyła tylko jeden wszechświat. I żadna obserwacja nie może potwierdzić hipotezy o własnościach rzekomo istniejących wszechświatów, które nie mogą wpływać na nasz własny. Scenariusz wiecznej inflacji musi się opierać na zbiorze możliwych teorii, a tu przychodzą z pomocą liczne teorie strun. Istnienie krajobrazu teorii strun wynika z wcześniej już wspominanej pracy Stromingera z 1986 roku, ale sytuacja przerodziła się w kryzys, gdy w 2003 roku odkryto dowody na istnienie astronomicznej liczby teorii strun z małą dodatnią wartością stałej kosmologicznej93. Oszacowano ją na około 10500. Jednak, przynajmniej dotąd, liczba ta, choć ogromnie wielka, jest wciąż skończona. Następnie w 2005 roku Washington Taylor, fizyk z MIT, wraz z kolegami dowiódł istnienia nieskończonej liczby teorii strun z małą ujemną stałą kosmologiczną94. Ma to interesujące konsekwencje, na co wskazał fizyk George F.R. Ellis95 pochodzący z Republiki Południowej Afryki. Jeśli naprawdę istnieje nieskończenie wiele teorii z małą ujemną stałą kosmologiczną, ale tylko skończona liczba z małą

dodatnią stałą kosmologiczną, to powinniśmy przewidywać, że stała ta będzie miała małą i ujemną wartość. Jeśli jej rzeczywista wielkość jest losowo rozłożona w zbiorze wszechświatów stanowiących wieloświat, to nieskończenie bardziej prawdopodobne jest to, że żyjemy we Wszechświecie z ujemną stałą kosmologiczną, niż w takim z dodatnią stałą, ponieważ tych drugich jest nieskończenie więcej niż pierwszych. Byłoby to oryginalne przewidywanie teorii strun, co zdarza się rzadko. Biorąc to dosłownie, trzeba uznać, że teoria musi być błędna, ponieważ zmierzona wartość stałej kosmologicznej jest dodatnia. Niektórzy teoretycy strun ostrzegali, iż pozostaje jeszcze dużo do zrobienia w sprawie samej konstrukcji teorii, tak że może jeszcze się pojawić dowód na istnienie nieskończenie wielu teorii strun z dodatnią wartością stałej kosmologicznej. Próbowano inaczej podejść do problemu, odwołując się do zasady antropicznej, aby przekonywać, że wszechświatów z ujemną stałą kosmologiczną opisanych przez Taylora i współpracowników nie można brać pod uwagę, ponieważ nie sprzyjają one pojawieniu się w nich życia96. Wystarczy jednak, by dowolna ​skończona liczba wszechświatów z ujemną stałą kosmologiczną zawierała życie, aby pozostały ich bezmiar dominował nad skończoną liczbą tych z dodatnią stałą kosmologiczną. Kłopot z kosmologią antropiczną jest taki, że zawsze można manipulować założeniami, gdy mamy

do czynienia z bytami teoretycznymi, takimi jak inne wszechświaty, które z zasady są nieobserwowalne97. Nie możemy zweryfikować hipotezy, że istnieje ogromna albo nieskończona liczba innych wszechświatów, ani nie możemy policzyć, jak różnorodne własności są wśród nich rozłożone. Możemy dyskutować o tym, czy wszechświaty różniące się od naszego mogą podtrzymywać życie, czy nie, ale nie zdołamy sprawdzić naszych argumentów za pomocą obserwacji. Pomiędzy teoriami antropicznymi i kosmologicznym doborem naturalnym występuje znamienna różnica w podejściu do zagadkowego problemu stałej kosmologicznej. Jak już wspomniano, ta bardzo ważna stała fizyki została zmierzona i ma bardzo małą, ale dodatnią wartość: w skali Plancka wynoszącą 10‒120. Dlaczego jest tak mała – to zagadka. Istotne jest jednak to, że jeśli zwiększymy stałą kosmologiczną ponad obecnie obserwowaną wartość, nie zmieniając wszystkich innych stałych fizyki i kosmologii, to pojawi się taka jej wartość, przy której Wszechświat rozszerzałby się za szybko, aby mogły powstać galaktyki. Nazwijmy ją wartością krytyczną. Jest ona około dwudziestu razy większa niż wartość obecnie mierzona. Dlaczego ma to znaczenie? Rozpocznę od błędnego argumentu przedstawionego poniżej:

Galaktyki są niezbędne dla życia. W przeciwnym razie nie uformowałyby się gwiazdy, a bez gwiazd nie byłoby węgla i energii powodującej powstanie złożonych struktur, w tym życia, na powierzchniach planet. Wszechświat jest pełen galaktyk. Jednak aby galaktyki się uformowały, stała kosmologiczna musi być mniejsza od wartości krytycznej. Zasada antropiczna przewiduje zatem, że stała kosmologiczna musi być mniejsza od wartości krytycznej. Czy dostrzegacie błąd? Punkt (1) to prawda, ale nie odgrywa żadnej roli w logice argumentacji. Rzeczywista argumentacja rozpoczyna się od punktu (2). To, że Wszechświat jest pełen galaktyk, wynika z obserwacji; nie ma znaczenia, czy bez nich życie jest możliwe czy nie. Tak więc pierwszy punkt można odrzucić z argumentacji bez osłabiania wniosku. Co prawda jest on jedyny, w którym mówi się o życiu, dlatego gdy się go odrzuci, zasada antropiczna nie gra żadnej roli. Poprawny wniosek jest taki: Zatem obserwowane wypełnienie Wszechświata galaktykami implikuje, że stała

kosmologiczna musi od wartości krytycznej.

być

mniejsza

Jednym ze sposobów wykazania błędnej argumentacji jest zadanie sobie pytania, jak zareagowalibyśmy, gdyby się okazało, że stała kosmologiczna ma wartość większą od krytycznej. Nie podważalibyśmy stwierdzenia (1), gdyż nie gra ono żadnej roli. Nie podważalibyśmy punktu (2), bo to stwierdzenie faktu. Moglibyśmy podważać tylko punkt (3), wynika on bowiem z obliczeń teoretycznych. Może obliczenia wartości krytycznej są błędne. W 1987 roku Steven Weinberg zaproponował pomysłowe wyjaśnienie małej wartości stałej kosmologicznej, które nie ma związku z tym błędnym argumentem, ale oparte jest jednak na zasadzie antropicznej98. Przebiega mniej więcej tak: załóżmy, że nasz Wszechświat jest jednym z wielu w ogromnym wieloświecie, w którym stała kosmologiczna losowo przyjmuje wartości z przedziału pomiędzy zero a jeden99. Ponieważ wymagamy galaktyk dla życia, to musimy żyć w jednym z wszechświatów o wartości stałej kosmologicznej mniejszej od krytycznej. Możemy żyć w każdym z nich. W takim razie nasza sytuacja jest taka, jakby stała kosmologiczna została wylosowana z kapelusza, losowo przybrała wartość z zakresu od zera do wartości krytycznej. Oznacza to, że jest mało

prawdopodobne, aby wartość naszej stałej kosmologicznej była znacznie mniejsza niż wartość krytyczna, ponieważ tylko bardzo niewiele liczb w tym przysłowiowym kapeluszu byłoby aż tak małe. Powinniśmy oczekiwać, że wartość stałej kosmologicznej naszego Wszechświata jest tego samego rzędu co wartość krytyczna, ponieważ jest znacznie więcej liczb z grubsza odpowiadających tej wartości niż odpowiadających wartości znacznie mniejszej. Opierając się na tym rozumowaniu, Weinberg przewidział, że stała kosmologiczna powinna mieć wartość poniżej krytycznej, ale tego samego rzędu wielkości. I co niezwykłe, kiedy dziesięć lat później100 ją zmierzono, okazało się, że wynosi ona około 5 procent wartości krytycznej. Według rozumowania podanego powyżej taką jej wartość otrzymalibyśmy raz na dwadzieścia losowań. Nie jest to aż tak mało prawdopodobne, wiele rzeczy na świecie zdarza się z prawdopodobieństwem wynoszącym jeden do dwudziestu. Stąd niektórzy kosmolodzy dowodzą, że sukces przewidywania Weinberga można uznać za dowód jego hipotezy, iż żyjemy w wieloświecie. Problem z tym wnioskiem jest taki, że wartość krytyczna, o jakiej mowa, wyznacza granicę, powyżej której galaktyki nie tworzyłyby się, gdyby stała kosmologiczna była jedynym parametrem zmiennym. Jednak teorie wczesnego Wszechświata mają jeszcze

inne parametry zmienne. Gdy dokonujemy zmiany kilku takich parametrów, podczas gdy stała kosmologiczna nie ulega zmianie, powyższa argumentacja traci swą moc101. Przyjrzyjmy się takiemu przypadkowi, gdy zmieniamy wielkość fluktuacji gęstości, która, jak wcześniej omawialiśmy w tym rozdziale, decyduje, jak równomiernie była rozłożona materia we wczesnym Wszechświecie. Te fluktuacje są istotne, ponieważ gdyby były większe, stała kosmologiczna mogłaby mieć dużo większą wartość od krytycznej, a galaktyki i tak wciąż formowałyby się w bardzo gęstych regionach utworzonych dzięki fluktuacjom. Wciąż istnieje wartość krytyczna stałej kosmologicznej, ale rośnie ona, w miarę jak powiększa się wielkość fluktuacji. Teraz znowu możemy powtórzyć argumentację, ale pozwalając zmieniać się stałej kosmologicznej i fluktuacjom w całej populacji wszechświatów. Wyciągamy z kapelusza dwie liczby dla każdego wszechświata, jedną dla stałej kosmologicznej, a drugą dla wielkości fluktuacji gęstości. Obie zostały wybrane losowo, w przedziale, w którym mogą się formować galaktyki102. Okazuje się, że prawdopodobieństwo wylosowania obu tak małych liczb jak rzeczywiście mierzone zmniejsza się z jednej dwudziestej do kilku stutysięcznych103. Problem powstaje na skutek tego, że nie obserwujemy

żadnych innych wszechświatów i niemożliwe jest ustalenie, które stałe zmieniają się w hipotetycznym wieloświecie. Jeśli założymy, że prawdziwa jest tylko zmiana stałej kosmologicznej, to argument Weinberga radzi sobie dobrze, ale jeśli uznamy, że poprawna jest zmiana stałej kosmologicznej i wielkości fluktuacji gęstości, to argumentacja ta sprawdza się znacznie gorzej. W razie braku jakiegokolwiek niezależnego dowodu na prawdziwość tych hipotez nie prowadzi ona do żadnego wniosku. Stąd twierdzenie, że dzięki argumentacji Weinberga można prawidłowo przewidzieć wartość stałej kosmologicznej, jest fałszywe, z powodu błędu rozumowania jeszcze subtelniejszego niż omówiony powyżej. Ten błąd, znany specjalistom od teorii prawdopodobieństwa, powstaje, gdy w sposób dowolny wybiera się rozkład prawdopodobieństwa opisujący wielkości nieobserwowalne i nie można tego sprawdzić w sposób niezależny. Oryginalnemu argumentowi Weinberga brak mocy logicznej, bo można dojść do odmiennych wniosków, jeśli przyjmie się odmienne założenia o bytach nieobserwowalnych104. Kosmologiczny dobór naturalny radzi sobie znacznie lepiej przy wyjaśnianiu tych samych zagadnień, ponieważ umożliwia podanie przyczyny dla obu wielkości, stałej kosmologicznej i fluktuacji. Przypomnijmy, że w niektórych prostych modelach inflacji wielkość fluktuacji jest silnie skorelowana

z odwrotnością rozmiaru wszechświata, to znaczy, im mniejsza wielkość fluktuacji, tym większy wszechświat, a więc więcej czarnych dziur. Stąd wielkość fluktuacji powinna mieścić się w pobliżu dolnej granicy dla tworzenia się galaktyk. To z kolei implikuje małą wartość stałej kosmologicznej niezbędną dla formowania się galaktyk. Kosmologiczny dobór naturalny wraz z prostym modelem inflacji przewiduje, że wielkość fluktuacji i wartość stałej kosmologicznej powinny być małe. To przewidywanie nie jest obarczone dowolnością i pozostaje zgodne z istniejącymi dowodami. Zasada antropiczna pasuje jednak do znacznie mniejszego wszechświata, ponieważ pojedyncza galaktyka prawdopodobnie wystarcza do podtrzymania inteligentnego życia. Obserwacje sugerują, że duża część gwiazd ma planety, zatem zapełnienie galaktyki planetami powinno zagwarantować, że przynajmniej na jednej z nich powstało życie. Dodawanie większej liczby galaktyk nie zwiększy prawdopodobieństwa powstania życia. Entuzjasta zasady antropicznej może oponować, że zasada ta może być dalej stosowana z modyfikacją mówiącą, iż z większym prawdopodobieństwem zamieszkujemy wszechświat o dużej liczbie planet, na których pojawiło się życie. Wówczas wszechświaty powinny być możliwie największe, a to implikuje małą wartość stałej kosmologicznej i małą wielkość

fluktuacji gęstości. Musi się dziać coś dziwnego, ponieważ nie zmieniając żadnych faktów, w sposób oczywisty zmieniamy przewidywania teorii. Obie wersje zasady antropicznej nie różnią się w żadnym z twierdzeń o wieloświecie, inaczej jednak dokonuje się w nich wyboru wszechświatów ze znacznie większej populacji wszechświatów niestwarzających warunków do powstania życia. „Chwileczkę – mógłby powiedzieć entuzjasta zasady antropicznej. – W wieloświecie znalezienie cywilizacji jest bardziej prawdopodobne we wszechświecie z wieloma cywilizacjami i tym samym z wieloma galaktykami niż we wszechświecie zawierającym jedną galaktykę”. Na pierwszy rzut oka ten argument wydaje się przekonujący, ale musimy ripostować – „Skąd to wiesz?”. W wieloświecie może być znacznie więcej małych wszechświatów niż dużych, dlatego losowo wybrana cywilizacja mogłaby należeć do małego wszechświata. To, który ze scenariuszy jest poprawny, zależy od względnego rozkładu małych i dużych wszechświatów w wieloświecie, ale tej własności nie da się zweryfikować niezależnie. Teoretycy mogliby opracowywać różnorakie modele, faworyzując różne rozkłady wielkości wszechświatów, ale fakt dopasowania nieobserwowalnych własności scenariusza tak, aby potwierdzał on stawianą hipotezę, nie powinien być dowodem na poprawność tego scenariusza.

Natomiast zgodnie z kosmologicznym doborem naturalnym nasz Wszechświat jest typowym przedstawicielem populacji wszechświatów i nie ma w tej teorii reguły dopasowującej wybór atypowych przypadków. Zauważmy, że nie jest to spór o to, czy wszechświaty powstają z czarnych dziur, czy z pęcherzyków podczas inflacji. Chodzi tu o rolę czasu i dynamiki w logice, dzięki której scenariusze służą wyjaśnieniu znanych własności wszechświata i przewidywaniu nowych. Model inflacyjny mógłby wykorzystać czas i długi łańcuch pokoleń – pęcherzyki wewnątrz pęcherzyków wewnątrz innych pęcherzyków – w taki sposób, aby uniknąć zależności od zasady antropicznej i czerpania korzyści z kosmologicznego doboru naturalnego. Istotną rolę odgrywa tu nie tyle fakt, że teoria, która zakłada ciąg​ł ą ewolucję w czasie, radzi sobie lepiej niż bezczasowa, która polega na dopasowywaniu dowodów obserwacyjnych. Najważniejszą rzeczą jest także to, że teoria oparta na ewolucji daje jasne przewidywania, podczas gdy przewidywania odwołujące się do zasady antropicznej są dostosowywane tak, aby współgrały z przeprowadzanym dowodem. Hipotezy oparte na idei zmiany praw natury wraz z upływem czasu wbrew temu, co mogliśmy najpierw sądzić, są bardziej podatne na falsyfikację niż bezczasowe scenariusze kosmologiczne. A jeśli jakaś idea nie poddaje się falsyfikacji, nie może tworzyć nauki.

80 Lee Smolin, Did the Universe Evolve? „Classical and Quantum Gravity” 1992, nr 9, s. 173–191. 81 Alex Vilenkin, Birth of Inflationary Universes, „Physical Review D” 1983, nr 27:12, s. 2848–2855; Andrei Linde, Eternally Existing SelfReproducing Chaotic Inflationary Universe, „Physics Letters B” 1986, nr 175:4, s. 395–400. 82 Opublikowano kilkanaście tekstów, w których krytykowano kosmologiczny dobór naturalny, i o ile mi wiadomo, na wszystkie odpowiedziałem w Życiu wszechświata i pracach po nim napisanych. W sprawie krytyki zob.: T. Rothman, G.F.R. Ellis, Smolin’s Natural Selection Hypothesis, „Q. Jour. Roy. Astr. Soc.” 1993, nr 34, s. 201–212; Alex Vilenkin, On Cosmic Natural Selection, arXiv:hep-th/0610051v2 (2006); Edward R. Harrison, The Natural Selection of Universes Containing Intelligent Life, „Q. Jour. Roy. Astr. Soc.” 1995, nr 36, s. 193– 203; Joseph Silk, Holistic Cosmology, „Science” 1997, nr 277:5326, s. 644; John D. Barrow, Varying G and Other Constants, arXiv:grqc/9711084v1 (1997). W szczególności błędne jest twierdzenie, że istnieje łatwy dowód na to, iż zmiana stałej Newtona (przy ustalonych innych parametrach) zwiększy liczbę czarnych dziur, nie uwzględnia bowiem skomplikowanego wpływu na galaktyki oraz formowanie się i ewolucję gwiazd. 83 W ewolucji biologicznej są dwa krajobrazy: krajobraz genów, który opisuje możliwe genotypy (sekwencje DNA), i krajobraz fenotypów, które odzwierciedlają to, co tworzy genotyp w konkretnym środowisku. Stosując dobór naturalny do fizyki, również zyskujemy dwa poziomy opisu. Prawdopodobieństwo reprodukcji Wszechświata zależy od wielkości parametrów Modelu Standardowego – są one analogami fenotypów. Natomiast w teorii podstawowej, takiej jak teoria strun, Model Standardowy jest opisem przybliżonym; bardziej fundamentalny w stosunku do niego jest duży wybór teorii – są one analogami genotypów. W ewolucji biologicznej relacja między

genotypami a fenotypami może być złożona i niebezpośrednia, i to samo dotyczy fizyki. Aby zatem zachować staranność, należy odróżnić krajobraz propozycji teorii podstawowej od krajobrazu parametrów Modelu Standardowego. 84 Inne to: (1) odwrócenie znaku różnicy mas protonu i neutronu; (2) dostateczny wzrost lub dostateczne zmniejszenie stałej Fermiego mające wpływ na wyrzut materii przez supernowe; (3) zwiększenie różnicy mas protonu i neutronu, zwiększenie masy elektronu, zwiększenie różnicy mas elektronu i neutrina i zwiększenie stałej struktury subtelnej albo zmniejszenie silnego oddziaływania, tak aby zdestabilizować węgiel (albo jakąkolwiek jednoczesną zmianę dającą taki sam efekt); (4) zwiększenie masy kwarka dziwnego. 85 James M. Lattimer, M. Prakash, What a Two Solar Mass Neutron Star Really Means, ArXiv:1012.3208v1 [astro-ph.SR] (2010). 86 W oryginalnej pracy na temat kosmologicznego doboru naturalnego, a także w Życiu wszechświata, posłużyłem się dolnym oszacowaniem masy krytycznej – to znaczy 1,6 masy Słońca. Gdy dowiedziałem się o zaobserwowaniu gwiazdy neutronowej o masie dwukrotnie większej od masy Słońca, zacząłem pisać artykuł o tym, że kosmologiczny dobór naturalny został sfalsyfikowany. Oczekiwałem tego, bo drugą istotną rzeczą, jaka może się wydarzyć w dziedzinie grawitacji kwantowej, jest stworzenie przewidywania, które może być obalone przez eksperyment. Jednak sprawdziłem teoretyczne oszacowania dla masy krytycznej i znalazłem uwagę ekspertów, że mogą one pozwolić także na powstanie gwiazdy kaonowo-neutronowej o masie dwóch Słońc. 87 Zob.: A.D. Linde, Particle Physics and Inflationary Cosmology, Harwood, Chur 1990, s. 162–168, a zwłaszcza dowód prowadzący do równania 8.3.17 (książka jest także dostępna w arXiv:hep-

th/0503203v1). Parametrem, który może wzmóc fluktuacje gęstości, jest natężenie (siła inflacyjna wpływająca na cząstki), z jakim oddziałuje inflaton. Jak pokazuje Linde, w pewnych prostych modelach zwiększenie tego parametru zmniejsza rozmiar Wszechświata o mnożnik równy wykładnikowi z pierwiastka kwadratowego parametru oddziaływania. Dziękuję Paulowi Steinhardtowi za rozmowę wyjaśniającą to zagadnienie. 88 Więcej szczegółów kosmologicznego doboru naturalnego można znaleźć w Życiu wszechświata albo w moich pracach: The Fate of Black Hole Singularities and the Parameters of the Standard Models of Particle Physics and Cosmology, arXiv:gr-qc/9404011v1 (1994); Using Neutrons Stars and Primordial Black Holes to Test Theories of Quantum Gravity, arXiv:astro-ph/9712189v2 (1998); Cosmological Natural Selection as the Explanation for the Complexity of the Universe, „Physica A: Statistical Mechanics and its Applications” 2004, nr 340:4, s. 705–713; Scientific Alternatives to the Anthropic Principle, arXiv:hepth/0407213v3 (2004); The Status of Cosmological Natural Selection, arXiv:hep-th/0612185v1 (2006); A Perspective on the Landscape Problem, wykład do wydania specjalnego „Foundations of Physics” pod tytułem Forty Years Of String Theory: Reflecting On the Foundations, DOI: 10.1007/s10701‒012‒9652-x arXiv:1202.3373. 89 Roger Penrose uważa, że osobliwości czarnych dziur mają geometrię zupełnie odmienną od geometrii początkowej osobliwości kosmologicznej, co sprawia, iż jest mało prawdopodobne, aby nasz Wszechświat lub jakiś inny mógł się zrodzić z czarnej dziury. Jest to przeszkoda, ale zagadnienie można będzie rozwiązać, jeśli efekty kwantowe miałyby odgrywać dużą rolę w eliminacji osobliwości. 90 Zauważmy, że idea zmienności praw sama w sobie nie wymaga globalnej jednoczesności. Zmiana praw może zajść w zdarzeniu, które będzie miało wpływ tylko na zdarzenia w jego kauzalnej przyszłości. Jak wyjaśniono w rozdziale 6, porządek przyczynowy jest zgodny

ze względnością jednoczesności. Natomiast kosmologiczny dobór naturalny wymaga, aby czas globalny miał sens – a to rzeczywiście kłóci się ze względnością jednoczesności. 91 Uzasadnia to fakt, że skala, w jakiej fizyka produkuje pęcherzyki, jest zwykle uważana za skalę wielkiej unifikacji, która jest przynajmniej 15 rzędów wielkości większa niż masy kwarków i leptonów Modelu Standardowego. Stąd prawdopodobne, że masy tych lekkich fermionów zostaną dobrane losowo podczas formowania się wszechświata pęcherzykowego. 92 B.J. Carr, M.J. Rees, The Anthropic Principle and the Structure of the Physical World, „Nature” 1979, nr 278, s. 605–612; John D. Barrow, Frank J. Tipler, The Anthropic Cosmological Principle, Oxford University Press, New York 1986. 93 Shamit Kachru et al., De Sitter Vacua in String Theory, arXiv:hepth/0301240 v2 (2003). 94 Oliver DeWolfe et al., Type IIA Moduli Stabilization, arXiv:hepth/0505160v3 (2005); Jessie Shelton, Washington Taylor, Brian Wecht, Generalized Flux Vacua, arXiv:hep-th/0607015 (2006). 95 George F.R. Ellis, Lee Smolin, The Weak Anthropic Principle and the Landscape of String Theory, arXiv:0901.2414v1 [hep-th] (2009). 96 Wszechświaty z ujemnymi stałymi kosmologicznymi opisane przez Washingtona Taylora i współpracowników różnią się od naszego pod dwoma względami. Po pierwsze, jak we wszystkich teoriach strun, pojawiają się dodatkowe wymiary. Nie są one obserwowalne, ponieważ są bardzo małe i zwinięte, ale we wszechświatach Taylora mogą być duże. Przeczy to obserwacjom

nawet bardziej jawnie niż odwrotny znak stałej kosmologicznej i fakt ten można traktować jako jeszcze jedno złe przewidywanie teorii strun. Równie dobrze da się dowodzić, że w takich światach nie mogłoby istnieć życie. Dlaczego tak jest, nie jest dla mnie jasne, ponieważ są scenariusze oparte na teoriach strun, w których cząstki i oddziaływania istnieją na trójwymiarowych powierzchniach zwanych branami, unoszących się w dodatkowych wymiarach. W takiej konfiguracji życie można pogodzić z dodatkowymi dużymi wymiarami. Hipotetyczne światy z ujemną stałą kosmologiczną mają także symetrię, której nie ma nasz świat, supersymetrię. Może ona powstrzymywać formowanie się złożonej struktury; jednak możliwe, że pewna część tych światów może mieć spontanicznie złamaną supersymetrię, a w takim wypadku życie może tam kwitnąć. Dopóki istnieje nieskończenie więcej teorii strun z ujemną stałą kosmologiczną niż teorii strun z dodatnią stałą, nawet jeśli mała część tych pierwszych może podtrzymywać życie, dopóty będą one dominować nad tymi drugimi. Dziękuję Benowi Freivogelowi za rozmowy na ten temat. 97 W najlepszym wypadku możemy odkryć wpływ przeszłych zderzeń innych wszechświatów z naszym. Badano tę możliwość i w rezultacie otrzymano jednostronne przewidywanie – to znaczy można by zaobserwować coś interesującego, co wyglądałoby na zderzenie innych wszechświatów z naszym, ale jeśli nic takiego nie odnotujemy – a raczej jest tak do tej pory – to żadna z hipotez nie będzie sfalsyfikowana. Stephen M. Feeney et al., First Observational Tests of Eternal Inflation: Analysis Methods and WMAP 7-Year Results, arXiv:1012.3667v2 [astro-ph.CO] (2011); Anthony Aguirre, Matthew C. Johnson, A Status Report on the Observability of Cosmic Bubble Collisions, arXiv:0908.4105v2 [hep-th] (2009); „Reports on Progress in Physics” 2011, nr 74:074901. 98 Steven Weinberg, Anthropic Bound on the Cosmological Constant,

„Physical Review Letters” 1987, nr 59:22, s. 2607–2610. 99 W jednostkach skali Plancka. 100 Adam G. Riess et al., Observational Evidence from Supernovae for an Accelerating Universe and a Cosmological Constant, „Astronomical Journal” 1998, nr 116, s. 1009–1038. 101 Przy ocenie twierdzenia, że argument Weinberga dostarcza dowodu dla hipotezy mówiącej, iż istnieją inne wszechświaty, trzeba się wystrzegać błędnego rozumowania, że mała wartość stałej kosmologicznej sama w sobie jest dowodem, iż nasz Wszechświat jest jednym z wielkiego zbioru innych wszechświatów, w których stała kosmologiczna ma wartość losowo dobraną. Rozumowanie to jest podobne do odwrotnego paradoksu hazardzisty omawianego przez filozofa Iana Hackinga. Przypuśćmy, że ktoś wchodzi do pokoju i widzi, że gracz wyrzuca w kości dwie szóstki. Można wówczas ulec przekonaniu, że kośćmi rzucano już wiele razy przedtem albo rzuca się jednocześnie w wielu miejscach, ale to błędne wnioski, ponieważ prawdopodobieństwo wyrzucenia podwójnej szóstki jest za każdym razem takie samo. Hacking nazwał to odwrotnym paradoksem hazardzisty: Ian Hacking, The Inverse Gambler ’s Fallacy: The Argument from Design. The Anthropic Principle Applied to Wheeler Universes, „Mind”, lipiec 1987, nr 96:383, s. 331–340, doi:10.1093/mind/XCVI.383.331. John Leslie miał zastrzeżenia („Mind”, kwiecień 1988, nr 97:386, s. 269–272, doi:10.1093/mind/XCVII.386.269), że ten paradoks nie ma zastosowania do argumentu antropicznego, ponieważ musimy znajdować się we wszechświecie gościnnym dla życia. Natomiast argument Weinberga nie odnosi się do gościnności, ale do tego, czy Wszechświat jest pełen galaktyk. Moglibyśmy żyć we wszechświecie, w którym uformowała się tylko jedna galaktyka, i wciąż bylibyśmy żywi – stąd fakt, że wszechświat jest pełen galaktyk, nie jest konieczny dla życia.

102 Jaume Garigga i Alex Vilenkin wskazali w Anthropic Prediction for Lambda and the Q Catastrophe, arXiv:hep-th/0508005v1 (2005), że szczególna kombinacja dwóch stałych będzie lepsza w zastosowaniu do argumentu Weinberga: okazało się, że jest to stała kosmologiczna podzielona przez rozmiar fluktuacji do sześcianu. Pozostają wówczas dwa zagadnienia: po pierwsze, co ustala rozmiar fluktuacji? Po drugie, wiemy już, że argument jest dobry, tylko gdy rozważa się stałą kosmologiczną. Jest wiele kombinacji, które można by wypróbować; fakt, że jedna z nich będzie lepsza niż inne, nie jest zaskakujący, nawet jeśli można poprzeć to odpowiednią argumentacją, ale nie stanowi to dowodu, że nasz Wszechświat jest jednym w wieloświecie. 103 Michael L. Graesser, Stephen D.H. Hsu, Alejandro Jenkins, Mark B. Wise, Anthropic Distribution for Cosmological Constant and Primordial Density Perturbations, hep-th/0407174, „Physics Letters B” 2004, nr 600, s. 15–21. 104 Inne niż u Weinberga wyjaśnienie wielkości stałej kosmologicznej podali Rafael Sorkin i współpracownicy na podstawie teorii zbiorów kauzalnych: Maqbool Ahmed et al., Everpresent Lambda, arXiv:astro-ph/0209274v1 (2002).

Rozdział 12

Mechanika kwantowa i wyzwolenie atomu Dowiedzieliśmy się już, że realność czasu jest kluczem do rozwiązania zagadki wyboru praw fizyki. Ten klucz działa poprzez wsparcie hipotezy ewolucji praw. Przyjęcie czasu za zjawisko podstawowe może także pomóc w wyjaśnieniu innej wielkiej tajemnicy fizyki – sensu mechaniki kwantowej. Realność czasu pozwala na nowe sformułowanie teorii kwantów, które także może rzucić światło na ewolucję praw wraz z upływem czasu. Mechanika kwantowa osiągnęła największy sukces wśród wszystkich dotąd odkrytych teorii fizycznych. Prawie żadna ze współczesnych technologii, od których jesteśmy uzależnieni, cyfrowa, chemiczna czy też medyczna, nie powstałaby bez mechaniki kwantowej. A jednak są podstawy, by sądzić, że teoria ta nie jest kompletna. Z pewnością mechanika kwantowa podaje

w wątpliwość próby zrozumienia świata. Od momentu jej odkrycia w latach dwudziestych fizycy, chcąc zrozumieć zagadki teorii kwantów, obmyślali dziwaczne scenariusze. Koty jednocześnie żywe i martwe, bezmiar istniejących równolegle wszechświatów, rzeczywistość, która zależy od tego, co się mierzy albo kto dokonuje obserwacji, cząstki, które przekazują sobie sygnały na ogromne odległości z prędkością większą niż prędkość światła – to tylko niektóre z pomysłowych idei proponowanych w celu wyjaś​nienia zagadek świata subatomowego. Te wszystkie strategie powstawały na skutek tego, że mechanika kwantowa nie pozwala poznać fizycznego obrazu tego, co zachodzi podczas pojedynczego eksperymentu. Nie jest to przedmiot sporu. Aksjomaty mechaniki kwantowej zawierają stwierdzenie, że przewidywania wyników eksperymentów mają charakter statystyczny. Einstein już dawno temu dowodził, że mechanika kwantowa jest niepełna, ponieważ nie daje precyzyjnego opisu tego, co zachodzi podczas eksperymentu. Co dokładnie robi elektron, gdy przeskakuje z jednego stanu energetycznego do drugiego? Jak komunikują się ze sobą cząstki zbyt oddalone, by na siebie oddziaływać ? Jak to się dzieje, że cząstki mogą być w dwóch miejscach jednocześnie? Mechanika kwantowa nie daje na te pytania odpowiedzi. A mimo to jest niesłychanie użyteczna, częściowo dlatego, że zapewnia fizyce

i język, i model, umożliwiający organizowanie ogromnej liczby danych empirycznych. Choć zawodzi w obrazowaniu zdarzeń na poziomie subatomowym, podaje jednak algorytm przewidywania prawdopodobieństw wyników eksperymentalnych. I jak dotąd ten algorytm się sprawdza. Czy teoria może poprawnie przewidywać zjawiska, a jednak być błędna w tym sensie, że przyszłe teorie mogłyby obalić założenia o świecie stanowiące jej podstawę? Dochodziło do tego kilka razy w historii nauki. Założenia leżące u podstaw newtonowskich praw ruchu zostały obalone przez teorię względności i teorię kwantów. Model Układu Słonecznego Ptolemeusza służył dobrze przez więcej niż tysiąc lat, a jednak był oparty na założeniach, które okazały się fałszywe. Wydaje się zatem, że efektywność nie stanowi gwarancji prawdy. Doszedłem do przekonania, że mechanikę kwantową czeka los wielkich teorii Ptolemeusza i Newtona. Może nie rozumiemy jej logiki z tej prostej przyczyny, że nie jest poprawna. Jest za to najprawdopodobniej tylko przybliżeniem głębszej teorii, którą będzie można łatwiej zrozumieć. Ona zaś okaże się tą nieznaną teorią kosmologiczną, na którą wskazują wszystkie wysunięte w tej książce argumenty. Kluczem jest, powtarzam raz jeszcze, realność czasu. Mechanika kwantowa jest teorią problematyczną, z trzech powodów ściśle związanych ze sobą. Pierwszym

z nich jest niemożność stworzenia obrazu tego, co zachodzi podczas pojedynczego procesu lub eksperymentu; w odróżnieniu od poprzednich teorii fizycznych formalizm używany w mechanice kwantowej nie może przedstawić tego, co dzieje się chwila po chwili. Po drugie, w większości wypadków zawodzi w przewidywaniu dokładnego wyniku eksperymentu, a zamiast tego przewiduje, co się zdarzy, bo wynik, jaki otrzymujemy, to prawdopodobieństwo tego, co mogłoby się stać. Trzecia i najbardziej problematyczna cecha mechaniki kwantowej polega na tym, że pojęcie eksperymentu, obserwacji albo informacji to elementy teorii. Są to pojęcia pierwotne, nie można ich wyjaśnić za pomocą podstawowych procesów kwantowych. Mechanika kwantowa jest nie tyle teorią, ile metodą kodowania badań układów mikroskopowych przez eksperymentatorów. Ani przyrządy pomiarowe oddziałujące na układ kwantowy i zegary używane do pomiaru czasu nie mogą być opisane w języku mechaniki kwantowej – tak samo my, obserwatorzy, nie możemy być przez nią opisani. Wskazuje to, że w celu stworzenia poprawnej teorii kosmologicznej musimy zrezygnować z mechaniki kwantowej i zastąpić ją teorią, którą można będzie rozszerzyć na cały Wszechświat, łącznie z nami jako obserwatorami oraz naszymi przyrządami pomiarowymi i zegarami105. Poszukując tej teorii, musimy mieć na uwadze trzy

wskazówki dotyczące natury, które, jak dowiedziono eksperymentalnie, są nierozer​walnie związane z fizyką kwantową: niedające się pogodzić pytania, splątanie i nielokalność. Każdy układ ma jakiś zbiór własności, takich jak położenia i pędy106 cząstek albo w wypadku butów kolor i wysokość obcasów. Z każdą cechą związane jest pytanie, jakie w odniesieniu do niej możemy zadać: Gdzie teraz znajduje się cząstka? Jaki jest kolor jej szpilek? Rolą eksperymentu jest zbadanie układu w celu uzyskania odpowiedzi na te pytania. Jeśli chcemy opisać układ w całości w ramach fizyki klasycznej, otrzymamy odpowiedzi na wszystkie pytania i poznamy wszystkie własności. Natomiast w fizyce kwantowej konfiguracja, w jakiej znajduje się układ, może wpływać na to, że uzyskując odpowiedź na jedno pytanie, tracimy możliwość udzielenia jej na inne. Na przykład możemy zapytać o położenie cząstki albo o jej pęd, ale nie możemy zapytać o obie te własności naraz. Niels Bohr nazwał to zagadnienie komplementarnością. Fizycy mówią także o zmiennych niekomutujących. Jeśli istnieje jakaś moda kwantowa, to kolor butów i wysokość obcasów mogłyby być zmiennymi niekomutującymi. To wszystko bardzo się różni od fizyki klasycznej, w której nie trzeba wybierać, jaką własność mierzyć, a jaką pominąć. Zasadniczym pytaniem jest to, czy wybór, jakiego dokonuje eksperymentator, wpływa na realność układu, który

bada. Splątanie także jest czysto kwantowym efektem, zgodnie z którym para układów kwantowych może mieć wspólną własność, podczas gdy każdy z nich osobno jest nieokreślony. To znaczy, że na pytanie o związek pomiędzy parą układów możemy udzielić sprecyzowanej odpowiedzi, podczas gdy na jakiekolwiek pytanie o pojedynczy układ takiej odpowiedzi nie ma. Rozważmy parę kwantowych butów. Mogą mieć właściwość zwaną przeciwieństwem, zgodnie z którą każde pytanie dotyczące obu butów z pary daje przeciwstawne odpowiedzi. Jeśli zapytamy o kolor, to gdy odpowiedź dotycząca prawego brzmi „biały”, ta dotycząca lewego będzie brzmieć „czarny” i odwrotnie. Jeśli zapytamy o wysokość obcasa, to wtedy, gdy lewy jest „wysoki”, prawy będzie „niski” i na odwrót. Jeśli zapytamy tylko o wysokość lewego obcasa, to odpowiedź będzie brzmieć: albo „wysoki” , albo „niski” z 50-procentowym prawdopodobieństwem. Podobnie gdy chodzi o kolor konkretnego buta, otrzymamy odpowiedź: albo „czarny”, albo „biały” z 50-procentowym prawdopodobieństwem. W istocie, jeśli właściwością pary kwantowych butów jest przeciwieństwo, to na każde pytanie o jeden z nich otrzymamy odpowiedzi losowe, a na każde pytanie o parę butów padną odpowiedzi przeciwne. W fizyce klasycznej każda własność pary cząstek jest redukowalna do opisu własności każdej z nich. Splątanie

pokazuje, że nie jest to prawda dla układów kwantowych. Ma to znaczenie dla naszych rozważań, ponieważ dzięki splątaniu można w przyrodzie wytworzyć zupełnie nowe własności. Jeśli przygotujemy dwa układy kwantowe cechujące się własnością przeciwieństwa, które nigdy przedtem ze sobą nie oddziaływały, i splączemy je, to stworzymy własność, która nigdy przedtem nie istniała w przyrodzie. Splątane pary tworzone są przez przyciągnięcie do siebie dwóch cząstek subatomowych, tak aby oddziaływały ze sobą. Gdy już zostaną splątane, to pozostają w tym stanie, nawet gdy są oddzielone od siebie wielkimi odległościami. Dopóki żadna z nich nie oddziałuje z innym układem, dopóty wciąż posiadają własności splątane, takie jak przeciwieństwo. Daje to początek trzeciej najbardziej zadziwiającej wskazówce dotyczącej natury na poziomie kwantowym, czyli nielokalności. Dokonajmy w Montrealu splątania pary butów cechujących się właściwością przeciwieństwa i poślijmy lewy do Barcelony, a prawy do Tokio. Eksperymentatorzy w Barcelonie wybiorą do pomiaru kolor lewego buta. Wydaje się, że ten wybór natychmiast wpływa na kolor prawego w Tokio. Gdy eksperymentatorzy w Barcelonie zaobserwowali kolor ich buta, mogli natychmiast poprawnie określić kolor tego w Tokio, ponieważ jest on przeciwny. W XX wieku zostaliśmy przyzwyczajeni

do oddziaływań fizycznych mających własność zwaną lokalnością, to oznaczało, że jeśli informacja ma być przekazana z jednego miejsca w drugie, to musi się to odbyć za pomocą cząstki lub fali. Szczególna teoria względności mówi, że każde zaburzenie rozchodzi się z prędkością mniejszą lub równą prędkości światła. Fizyka kwantowa wydaje się naruszać tę kluczową zasadę teorii względności. Nielokalne efekty w teorii kwantów są rzeczywiste, ale subtelne i nie mogą służyć do przenoszenia informacji między Tokio a Barceloną. A to z tego powodu, że jeśli eksperymentatorzy w Tokio wybiorą do zmierzenia jakąkolwiek własność, to rezultat pomiaru będzie się im wydawał losowy. Będą równie często obserwować, że ich but jest biały, jak i czarny. Tylko gdy się dowiedzą, jaki kolor zaobserwowano w Barcelonie, będą zdawać sobie sprawę, że para ma kolory przeciwne. Zrozumienie tego wymaga wymiany informacji między Tokio a Barceloną – to znaczy z prędkością światła lub mniejszą. Pozostaje jednak pytanie, jak powstają korelacje pomiędzy butami w Tokio i Barcelonie, gdy eksperymentatorzy, wyciągając je z pudełka, przekonują się, że ich kolor zawsze jest przeciwny. Można pomyśleć, że ktokolwiek pakował pudełka w Montrealu, dopilnował, aby włożyć but w jednym kolorze do przesyłki kierowanej do Tokio i przeciwny do pudełka wysyłanego do Barcelony. Jednak poprzez

kombinację teoretycznych argumentów i rezultatów eksperymentalnych można udowodnić, że tak właśnie się nie dzieje. Natomiast korelacje pojawiają się jakoś w samej chwili otwierania pudełek zarówno w Tokio, jak i w Barcelonie. Przypuśćmy, że mamy wielkie pudło pełne par butów i dokonujemy splątania każdej pary cechującej się własnością przeciwieństwa. Wysyłamy wszystkie lewe buty do Barcelony, a prawe do Tokio. Niech eksperymentatorzy w każdym z tych miast wybiorą losowo, jaką włas​ność każdego z butów chcą zmierzyć, i zapisują swe rezultaty. Potem wyślą informację o swych wyborach i rezultaty pomiarów z powrotem do Montrealu, gdzie zostaną one porównane. Okaże się, że jedynym wyjściem, aby zrozumieć połączone rezultaty, jest przyjęcie, iż występują efekty nielokalne, dzięki którym na własności jednego buta z pary ma wpływ dokonany wybór pomiaru własności drugiego. To właśnie treść twierdzenia irlandzkiego fizyka Johna Stewarta Bella udowodnionego w 1964 roku i potwierdzonego potem w kilku bardzo pomysłowych eksperymentach. Od sformułowania mechaniki kwantowej przez dziewięćdziesiąt lat na tych zagadnieniach skupiało się ogromne zainteresowanie. W tym czasie zaproponowano wiele hipotez mających wyjaśnić omawiane zjawisko. Teraz wierzę, że żadna z nich nie osiągnęła swego celu, a dziwne własności teorii

kwantów powstają na skutek tego, że jest ona przybliżeniem teorii kosmologicznej – takim przybliżeniem, które powinno się stosować do małych podukładów wszechświata. Opowiadając się za realnością czasu, wkroczymy na drogę ku zrozumieniu teorii kwantów, to zaś rzuci światło na jej zagadki i w końcu doprowadzi do ich rozwiązania. Ponadto wierzę, że realność czasu stwarza możliwość nowego sformułowania mechaniki kwantowej107. To nowe i spekulatywne ujęcie. Nie doprowadziło dotąd do żadnych precyzyjnych przewidywań doświadczalnych, choćby testów eksperymentalnych, dlatego nie twierdzę, że jest poprawne. Jest to radykalnie odmienny pogląd na naturę praw fizyki, w zaskakujący i nowy sposób realizujący ideę ich ewolucji wraz z upływem czasu. I prawdopodobnie będzie sprawdzalny, jak za chwilę się przekonamy. Czy jednak możemy porzucić ideę bezczasowych praw natury bez utraty możliwości wyjaśnienia przez fizykę tego wszystkiego, co otacza nas wokół? Przywykliśmy do tego, że prawa są deterministyczne. Wśród wielu konsekwencji determinizmu jest i taka, że we Wszechświecie nie może być nic oryginalnie nowego – że wszystko to, co się zdarza, jest tylko reorganizacją cząstek elementarnych o niezmiennych własnościach zachodzącą pod wpływem niezmiennych praw. Zapewne istnieją niezliczone sytuacje, w których

można oczekiwać, że przyszłość odzwierciedli przeszłość. Gdy przeprowadzamy eksperyment, który już wykonywaliśmy wielokrotnie, i zawsze otrzymywaliśmy te same rezultaty, z pewnością oczekujemy takiego samego rezultatu w przyszłości. (Nawet jeśli rezultaty nieznacznie się od siebie różniły, to spodziewamy się tego samego rozrzutu danych w przyszłych pomiarach). Jesteśmy przekonani, że następnym razem, gdy rzucimy piłkę, poleci ona wzdłuż trajektorii wyznaczonej przez parabolę, co zdarzało się za każdym razem, kiedy rzucaliśmy ją w przeszłości. Mówimy zazwyczaj, że ruch wyznaczają bezczasowe prawa natury, które działają w przyszłości tak, jak już działały w przeszłości. Dlatego bezczasowe prawa wykluczają zupełną nowość. Czy naprawdę do wyjaśnienia tego, że teraźniejszość odzwierciedla przeszłość, niezbędne jest założenie, że działa bezczasowe prawo? Pojęcie prawa jest potrzebne tylko w wypadkach, gdy proces lub eksperyment powtarza się wiele razy. Wówczas zaś wystarczyłoby coś bardziej ograniczonego niż bezczasowe prawo. Poradzilibyśmy sobie z czymś znacznie słabszym – powiedzmy, zasadą mówiącą, że powtarzane pomiary dają te same rezultaty. Nie dlatego, że podlegają prawu, ale dlatego, że jedynym prawem jest zasada precedensu. Taka zasada wyjaśniałaby wszystkie wypadki, w których zgodnie z prawami działa determinizm, nie wzbraniając jednak w nowych pomiarach otrzymywania nowych

rezultatów, nieprzewidywanych przez wiedzę o przeszłości. Powinien istnieć przynajmniej mały stopień swobody w ewolucji nowych stanów, nieprzeczący stosowaniu praw do sytuacji, które wielokrotnie powtarzały się w przeszłości. Prawo zwyczajowe w tradycji anglosaskiej opiera się na zasadzie precedensu, według której sędziowie zobowiązani są do postępowania tak, jak w przeszłości, gdy mają do czynienia z podobnymi sprawami. Chcę zasugerować, że coś podobnego mogłoby działać w naturze. Gdy już sformułowałem tę ideę, zaskoczony dowiedziałem się, że pierwszeństwo do tego pomysłu ma Charles Sanders Peirce, który okreś​lił prawa natury jako zwyczaje kształtujące się wraz z upływem czasu: Przyzwyczajenia to ogólna tendencja. Atomy i ich części, molekuły i grupy molekuł, i pokrótce wszystkie realne obiekty z dużym prawdopodobieństwem będą działać podobnie jak w poprzednich zdarzeniach, a nie inaczej. Tendencja ta wyznacza nieustannie powiększającą się regularność. Im głębiej patrzymy w przeszłość, widzimy okresy, gdy była ona tym mniej wyraźna108. Ta zasada stanie się decydująca w autentycznie

nowych sytuacjach. Jeśli bowiem natura rzeczywiście działa zgodnie z zasadą precedensu, a nie według bezczasowych praw, to gdy nie ma precedensu, nie można przewidzieć, jak zachowa się układ. Jeśli stworzymy prawdziwie nowy układ, jego odpowiedzi na pomiar nie da się przewidzieć z jakiejkolwiek posiadanej przez nas informacji. Zasada precedensu zwycięży tylko wtedy, gdy powstanie wiele kopii tego układu. Od tej chwili zachowanie układu będzie przewidywalne. Jeśli przyroda okaże się właśnie taka, to przyszłość jest autentycznie otwarta. W przypadkach cechujących się dostatecznie dużą liczbą precedensów wciąż będziemy mogli korzystać z niezawodnych praw, ale bez morderczego uścisku determinizmu. Trzeba przyznać, że mechanika klasyczna wyklucza istnienie autentycznej nowości, ponieważ wszystko sprowadza się do ruchu cząstek zgodnie z ustalonymi prawami. Natomiast fizyka kwantowa jest inna, umożliwia nam zastąpienie bezczasowych praw zasadą precedensu na dwa sposoby. Po pierwsze, jak już się przekonaliśmy, splątanie może stworzyć autentycznie nowe własności. Można sprawdzić, czy para cząstek ma splątaną własność taką jak przeciwieństwo, które nie jest własnością każdej

cząstki oddzielnie. Po drugie, wydaje się, że istnieje pewien element autentycznej przypadkowości w odpowiedzi układów kwantowych na ich środowiska. Nawet jeśli wiadomo wszystko o przeszłości układu kwantowego, to nie można z całą pewnością przewidzieć, jak zareaguje na pomiar jednej z jego własności. Te dwie cechy układów kwantowych pozwalają zastąpić postulat o bezczasowych prawach hipotezą, że podobieństwo przyszłości do przeszłości zapewnia przyrodzie zasada precedensu. Wystarcza ona do utrzymania determinizmu tam, gdzie jest potrzebny, ale implikuje, że natura, stykając się z nowymi własnościami, może rozwinąć dla nich nowe prawa. Oto prosta ilustracja działania zasady precedensu w fizyce kwantowej. Weźmy pod uwagę proces kwantowy, w którym układ jest przygotowywany, a następnie mierzony, i załóżmy, że proces ten zachodził już wiele razy w przeszłości. Daje nam to zbiór wyników poprzednich pomiarów: układ na zadane pytanie odpowiadał „tak” X razy, a „nie” Y razy. W przyszłości wynik każdego takiego procesu jest losowo wybrany ze zbioru rezultatów z przeszłości. A teraz przypuśćmy, że nie istnieje żaden precedens, ponieważ układ ten został przygotowany z autentycznie nową własnością. Wówczas wynik pomiaru będzie swobodny w takim sensie, że nie będzie określony przez nic, co zaszło w przeszłości.

Czy ta idea oznacza, że natura ma naprawdę swobodę wyboru wyniku eksperymentu? Istnieje określone znaczenie, w jakim układy kwantowe cieszą się już marginesem swobodnego wyboru – wyjaśnione w twierdzeniu niedawno udowodnionym przez Johna Conwaya i Simona Kochena, dwóch matematyków z Princeton. Nie bardzo podoba mi się nazwa, jaką mu nadali, ale wpada ona w ucho i zyskała odpowiednią popularność: twierdzenie o wolnej woli109. Twierdzenie odnosi się do dwóch atomów (albo innych układów kwantowych), które zostają splątane, a potem odseparowane, po czym mierzy się własności każdego z nich. Mówi ono, że jeśli po spełnieniu pewnych warunków dwóch eksperymentatorów ma swobodę wyboru, jakich pomiarów dokonać, wówczas rezultatów pomiarów nie może wyznaczać nic wcześniejszego niż eksperyment. Nie musi mieć to nic wspólnego z podejrzaną koncepcją wolnej woli. Jeśli twierdzimy, że eksperymentatorzy mają swobodny wybór pomiaru, to chodzi nam o to, iż ich wybór nie jest określony przez przeszłość. Żadna wiedza o przeszłości eksperymentatorów i ich świata nie pozwala nam na przewidzenie wyboru. Wówczas atomy także są swobodne w takim sensie, że żadna informacja o przeszłości nie umożliwia nam przewidzenia wyniku pomiaru jednej z ich własności110.

Jak cudownie wyobrażać sobie, że cząstka elementarna jest prawdziwie swobodna, nawet w tak wąskim znaczeniu. Wniosek ów implikuje, że nie ma przyczyny tego, co postanawia zrobić elektron, gdy wykonujemy na nim pomiar – a zatem w rozwoju małych układów jest coś więcej, niż można to ująć w modelu deterministycznym albo algorytmicznym. To pasjonujące i przerażające, ponieważ idea, że atomy mogą w swobodny sposób dokonywać wyborów (to znaczy bez przyczyny), nie spełnia wymogu reguły wystarczającej przyczyny – w odpowiedzi na każde pytanie dotyczące natury, jakie moglibyśmy zadać. Czy możemy zmierzyć, jak wiele swobody ma przyroda, jeśli mechanika kwantowa jest poprawna? Wiemy, że mechanika klasyczna nie przewiduje takiej swobody, ponieważ opisuje świat deterministyczny, którego cechy da się w pełni przewidzieć na podstawie wiedzy o przeszłości. Statystyka i prawdopodobieństwo mogą grać pewną rolę w opisie świata klasycznego, ale tylko odzwierciedlając naszą ignorancję. Nie jest przewidziana żadna swoboda, ponieważ możemy zawsze dowiedzieć się wystarczająco dużo, aby dokonywać dokładnych przewidywań. Twierdzenie Conwaya i Kochena wskazuje, że układy kwantowe mają realny stopień swobody, ale czy może być to taka fizyka, która pozwala naturze na większą swobodę? Zadawałem sobie to pytanie i nietrudno było mi znaleźć na nie odpowiedź. Aby to zrobić, oparłem się

na niedawnych pracach o podstawach fizyki kwantowej, które dały mi ścisłą definicję rozmiaru swobody, jaką może posiadać układ kwantowy. Gdzieś około roku 2000 Lucien Hardy z uniwersytetu w Oksfordzie, który wkrótce przeniósł się do Instytutu Fizyki Teoretycznej Perimeter, stworzył ogólną klasę teorii, które przewidują prawdopodobieństwa wyników pomiarów. Obejmowała ona nie tylko mechanikę klasyczną i kwantową, lecz także inne teorie. Według Hardy’ego teoria miała tylko w sposób konsekwentny używać pojęcia prawdopodobieństwa i zachowywać się rozsądnie, gdy stosowano ją zarówno do układów zamkniętych, jak i kombinacji dwóch lub więcej układów. Te wymagania ujęto w krótkim spisie założeń albo aksjomatów, które Hardy nazwał „rozsądnymi aksjomatami”111. Zostały one rozwinięte i zmodyfikowane przez następnych teoretyków. Próbując wyznaczyć poziom swobody dla teorii, posługiwałem się aksjomatami Hardy’ego w opracowaniu Lluísa Masanesa i Markusa Müllera112. Rozmiar swobody wyraża ilość informacji potrzebnych do tego, aby móc przewidzieć przyszłość układu. Tę informację można uzyskać, przygotowując wiele identycznych kopii układu i zadając o każdej z nich różne pytania. Przewidywania sformułowane na ich podstawie mogą wciąż być probabilistyczne, ale są one najlepszymi przewidywaniami

probabilistycznymi w tym sensie, że żadne dalsze obserwacje układu nie wpłyną na ich dokładność. Dla każdego z układów, jakie badał Hardy, istnieje pewna skończona liczba informacji potrzebna do ustalenia, jak zareaguje on na każdy z możliwych pomiarów. Im więcej trzeba wykonać pomiarów układu, zanim będzie można dokonać najlepszych przewidywań, tym więcej ma on swobody. Aby się przekonać, jak wiele swobody to sugeruje, powinniśmy porównać liczbę informacji potrzebną do przewidywań z pewną jednostką rozmiaru układu. Taką użyteczną jednostką jest liczba odpowiedzi, jakich może udzielić układ na pytanie zadane w eksperymencie. W najprostszym przykładzie są tylko dwa wybory: jeśli pytamy o kolor kwantowego buta, to odpowiedź brzmi: biały albo czarny. Jeśli pytamy o obcas to odpowiedzią jest wysoki albo niski. To, co przedstawiłem, wskazuje, że mechanika kwantowa maksymalizuje liczbę informacji potrzebnej do dokonania jednego wyboru. To znaczy opisuje ona wszechświat, w którym można dokonywać probabilistycznych przewidywań tego, jak zachowa się układ, ale w którym te układy są wolne od determinizmu w takim stopniu, w jakim może być układ fizyczny opisywany probabilistycznie. Swoboda układów kwantowych jest więc maksymalną z możliwych. Łącząc zasadę precedensu z tą zasadą maksymalnej swobody, otrzymujemy nowe sformułowanie fizyki kwantowej.

Nie da się go wyrazić poza modelem, w którym czas jest realny, ponieważ w istotny sposób korzysta z odróżnienia przeszłości od przyszłości. Możemy zatem porzucić ideę bezczasowych i deterministycznych praw natury, nie umniejszając potęgi wyjaśniania zjawisk przez fizykę. Biorąc pod uwagę poprzednie prace Hardy’ego, Masanesa i Müllera, przyznaję, że wniosek o maksymalizacji swobody w układzie kwantowym jest zaledwie małym krokiem naprzód. Wprowadziłem tylko realność czasu jako nowe spojrzenie na ten problem. Gdy wyjaśniłem tę ideę kolegom i przyjaciołom, pierwszą reakcją był ich śmiech. Istotnie pozostaje wiele szczegółów do opracowania, na przykład, w jaki sposób rozwija się precedens ze swobody pierwszego przypadku, przez kilka następnych aż do ustalonych przypadków z wieloma precedensami113. Jednak poza szczegółami propozycja zasady precedensu ma pewien element nieprawdopodobieństwa. Jak układ rozpoznaje wszystkie swoje precedensy? W jaki sposób dokonuje losowego wyboru elementu ze zbioru swych precedensów? Wydaje się, że potrzeba nowego rodzaju oddziaływania, zgodnie z którym układ fizyczny może oddziaływać ze swoimi kopiami w przeszłości. Zasada nie określa, jak się to odbywa; pod tym względem nie jest lepiej niż w zwyczajnym sformułowaniu mechaniki kwantowej. W starszym sformułowaniu pomiar jest pojęciem pierwotnym;

w obecnym jest nim bycie tym samym rodzajem układu kwantowego (to znaczy przygotowanym i przekształconym w ten sam sposób). Można zadać podobne pytania o ideę bezczasowych praw natury działających jako przyczyna ruchu i zmiany. W jaki sposób elektron „dowiaduje się”, że jest tym, do którego stosuje się równanie Diraca, a nie jakieś inne? Skąd kwark „wie”, jakiego jest rodzaju i jaką powinien mieć masę? Jak bezczasowy byt, taki jak prawo natury, dociera poprzez upływający czas do każdego pojedynczego elektronu, aby na niego działać? Przyzwyczailiśmy się do idei bezczasowych praw natury działających wewnątrz czasu i nie uważamy tego za dziwne. Jeśli jednak cofniemy się dostatecznie daleko, zobaczymy, że opiera się ona na pewnych ważnych założeniach metafizycznych, które wcale nie są takie oczywiste. Zasada precedensu także opiera się na założeniach metafizycznych, ale są one mniej nam znane niż te, które umożliwiają wiarę w bezczasowe prawa natury. Jeśli metafizyka implikowana przez zasadę precedensu jest nowatorska, to moim zdaniem okazuje się i tak bardziej oszczędna niż niektóre obecne całkiem nieprawdopodobne interpretacje teorii kwantów – w których rzeczywistość to jeden z nieskończenie wielu jednocześnie istniejących światów. Gdy chodzi o teorię kwantów, musimy przyjąć do wiadomości pewne bardzo dziwne pomysły, ale mamy swobodę wyboru własnych

dziwnych pomysłów – przynajmniej dopóki eksperyment nie wskaże nam, że jedna z interpretacji teorii kwantów jest lepsza od pozostałych. Stawiam na to, że zasada precedensu stworzy nowe eksperymenty, których wyniki ukażą nam fizykę rozszerzoną poza mechanikę kwantową. Ktoś może zaprotestować, uważając, że mechanika kwantowa już teraz umożliwia przewidywanie autentycznie nowych własności. Czy nowa idea przeczy tym przewidywaniom? Tak, i to może być prawdopodobną przyczyną tego, że zawiedzie. Przypuśćmy, że w komputerze kwantowym stworzymy nowy rodzaj stanu splątanego, który nigdy wcześniej nie wystąpił w naturze. W konwencjonalnej teorii kwantów można by było obliczyć, jak ten splątany układ będzie się zachowywał podczas pomiaru. Zasada precedensu sugeruje, że tych przewidywań nie da się potwierdzić przez eksperyment. Jest to równoznaczne z tym, że nowe rodzaje splątania stanów dadzą początek nowym oddziaływaniom w przyrodzie albo zależnym od kontekstu zmianom w istniejących oddziaływaniach. Nikt dotąd nie obserwował takich nowych oddziaływań ani zależności oddziaływań od kontekstu – stąd sceptycyzm trwa nadal. W historii pomysłowość ludzka rzadko prowadziła do kreacji nowych rodzajów stanów splątanych. Dopiero się tego uczymy i jeśli ta nowa hipoteza jest poprawna, to mogą się pojawić bardzo zaskakujące wyniki

eksperymentów z komputerami kwantowymi. Przynajmniej możliwa jest jej falsyfikacja za pomocą urządzeń kwantowych, które produkują nowe stany splątane. Przeczy ona podstawowemu założeniu redukcjonizmu, zgodnie z którym przyszłość układów złożonych, nieważnie jak bardzo skomplikowanych, da się przewidzieć, tylko gdy mamy wiedzę o siłach działających pomiędzy parami cząstek elementarnych. Niemniej jednak naruszenia redukcjonizmu są rzadkie i łagodne, dlatego nalegałbym, aby o wszystkim zadecydował eksperyment. To nowe ujęcie fizyki kwantowej spełnia dwa kryteria teorii kosmologicznej – w tym regułę hermetyczności wyjaśnień (aczkolwiek w formie ograniczonej, która pozwala na swobodę w autentycznie nowych wypadkach). Zasada precedensu mówi, że rezultat przyszłych eksperymentów określa zbiór wyników otrzymanych w przeszłości. Tamte doświadczenia były realne, dlatego mamy tylko wpływ rzeczy, które były realne w przeszłości, na te, które będą realne w przyszłości. Najwyraźniej spełnia ona także kryterium ewolucji praw, i to prowokacyjnie sugerując, że bezprecedensowe eksperymenty nie podlegają jakimkolwiek wcześniejszym prawom. Gdy gromadzą się wyniki, zostaje ustanowiony precedens; tylko wtedy, gdy ustali się wystarczający precedens, przyszłe wyniki stają się rodzajem praw. W miarę jak powstają nowe stany w przyrodzie, nowe

prawa ewoluują, aby nimi kierować – co sugeruje, że oddziaływania podstawowe, jakie obserwujemy i opisujemy w ramach Modelu Standardowego, powstały w wyniku „zamknięcia” nowych praw, gdy stany odpowiadające elektronom, kwarkom i ich kuzynom wyłoniły się po Wielkim Wybuchu, a Wszechświat dostatecznie się oziębił. Ta nowa propozycja nie spełnia tylko reguły koniecznej przyczyny. Udaremnia tę regułę fakt, że nie ma racjonalnej przyczyny wyniku pojedynczego eksperymentu, bo pojedynczy wynik jest nieokreślony w takim stopniu, w jakim układ kwantowy jest realnie swobodny. Po prostu nie ma przyczyny tego, kiedy nastąpi radioaktywny rozpad jądra, albo nie ma przyczyny dokładnego wyniku we wszystkich wypadkach, w których mechanika kwantowa daje tylko statystyczne przewidywania. Jakikolwiek będzie los tej nowej idei – i jak wobec każdej spekulatywnej idei, musimy oczekiwać tego, że może się ona okazać fałszywa – możemy się przekonać o płodności hipotezy realności czasu. Realność czasu nie jest jedynie metafizyczną spekulacją, jest to hipoteza zdolna inspirować nowe idee i tworzyć solidny program badań naukowych. 105 Istnieją alternatywne poglądy, według których teorię kwantów można stosować do Wszechświata. Uzasadnienie, dlaczego jestem przekonany, że są niesłuszne, można znaleźć w dodatkach on line.

106 Pęd dla zwykłej cząstki to jej masa pomnożona przez prędkość. Innym wyrazem niedających się pogodzić pomiarów jest zasada nieoznaczoności, która mówi, że im bardziej dokładnie mierzymy położenie, tym mniej precyzyjnie mierzymy pęd, i na odwrót. 107 Bardziej matematyczne wytłumaczenie można znaleźć w: Lee Smolin, Precedence and Freedom in Quantum Physics, arXiv:1205.3707v1 [quant-ph] (2012). 108 Charles Sanders Peirce, A Guess at the Riddle, w: The Essential Peirce, Selected Philosophical Writings, red. Nathan Houser, Christian Kloesel, Indiana University Press, Bloomington 1992, s. 277. Styl Peirce’a jest bardzo przejrzysty; zob. też podsumowanie w: Stanford Encyclopedia of Philosophy (http://plato.stanford.edu/entries/peirce/#anti): Peirce badał jedną z możliwych ścieżek nabywania zwyczajów przez naturę, stosując analizę statystyczną do sytuacji prób eksperymentalnych, w których prawdopodobieństwa wyników prób późniejszych nie są niezależne od wyników prób wcześniejszych; są to próby niespełniające schematu Bernoulliego. Peirce wykazał, że jeśli założymy jakiś pierwotny zwyczaj natury, a nawet słabą tendencję do przyjmowania zwyczajów, to w rezultacie po dłuższym czasie często otrzymuje się dużą regularność i wielką precyzję makroskopową. Z tego powodu Peirce wskazywał, że w odległej przeszłości natura była znacznie bardziej samodzielna, niż jest obecnie, i że ogólnie ewoluowały wszystkie zwyczaje, jakie wykazuje natura, podobnie jak idee, formacje geologiczne i gatunki biologiczne. 109 John Conway, Simon Kochen, The Free Will Theorem, „Foundations of Physics” 2006, nr 36:10, s. 1441. 110 Dla pełności wywodu powinienem wspomnieć, że pewni fizycy odpowiadają na ten argument przywołaniem silnej formy

determinizmu, zgodnie z którą obserwatorzy nie mają wolnego wyboru tego, co mierzą. Z tego „superdeterministycznego” punktu widzenia możemy wyobrazić sobie istnienie korelacji pomiędzy wyborami, jakich dokonują obserwatorzy, i tymi dokonywanymi przez atomy, ustanowionych jeszcze przed eksperymentem. Biorąc pod uwagę to założenie, możemy odrzucić zarówno wnioski z twierdzeń Conwaya i Kochena, jak i twierdzenie Bella. 111 Lucien Hardy, Quantum Theory from Five Reasonable Axioms, arXiv:quant-ph/0101012v4 (2001). 112 Lluis Masanes, Markus P. Mueller, A Derivation of Quantum Theory from Physical Requirements, arXiv:1004.1483v4 [quant-ph] (2011). Podobna praca: Borivoje Dakic, Caslav Brukner, Quantum Theory and Beyond: Is Entanglement Special?, arXiv:0911.0695v1 [quant-ph] (2009). 113 Markus Müller pracuje nad ciekawą publikacją dotyczącą tego zagadnienia.

Rozdział 13

Konflikt kwantowania z teorią względności Kluczową częścią programu rozszerzania fizyki na całość Wszechświata jest reguła przyczyny koniecznej, ponieważ jej celem jest odkrycie racjonalnego powodu każdego wyboru dokonanego przez naturę. Widoczna swoboda i bezprzyczynowe zachowanie pojedynczych układów kwantowych stanowi dla niej ogromne wyzwanie. Czy wymaganie przyczyny koniecznej może być spełnione w fizyce kwantowej? Odpowiedź zależy od tego, czy da się rozszerzyć mechanikę kwantową na całość Wszechświata, dzięki czemu da nam najbardziej podstawowy opis natury, czy jest ona tylko przybliżeniem bardzo odmiennej teorii kosmologicznej. Jeśli rozszerzymy teorię kwantów na całość Wszechświata, to twierdzenie o wolnej woli obejmie skalę kosmologiczną. A ponieważ zakładamy, że nie ma bardziej fundamentalnej teorii, wynika stąd, że natura

ma realnie prawdziwą swobodę. Swoboda układów kwantowych w skali kosmologicznej implikuje istnienie granicy dla reguły przyczyny koniecznej, ponieważ niezliczone wolne wybory, jakich dokonują układy kwantowe, nie mają żadnej racjonalnej lub dostatecznej przyczyny. Propozycja rozszerzenia mechaniki kwantowej oparta jest na błędnym rozumowaniu kosmologicznym, wyrywamy bowiem teorię poza jej domenę zastosowania, w której może być ona porównywana z wynikami eksperymentów. Bardziej rozważnie byłoby zbadać hipotezę, że fizyka kwantowa jest przybliżeniem, poprawnym tylko w wypadku stosowania jej w małych podukładach. Brakująca informacja potrzebna do określenia, jak zareaguje układ kwantowy, wciąż może znajdować się gdzieś we Wszechświecie i być użyteczna w chwili, gdy włączymy kwantowy opis małych podukładów do teorii opisującej go jako całość. Czy determinizm może istnieć w teorii kosmologicznej, która staje się fizyką kwantów, ilekroć izolujemy podukład i zaniedbujemy całą resztę? Odpowiedź brzmi – tak, ale koszty, jak zobaczymy, są bardzo wysokie. Zgodnie z taką teorią prawdopodobieństwa teorii kwantów są wynikiem naszej niewiedzy dotyczącej całego Wszechświata i powinny ustąpić miejsca ścisłym wynikom w skali Wszechświata jako całości. Gdy taka teoria kosmologiczna zostanie zawężona do opisu jego

małych części, wówczas powstanie kwantowa niepewność. Teorię taką nazwano teorią zmiennych ukrytych, ponieważ kwantowa niepewność zanika dzięki informacji o Wszechświecie, która jest ukryta przed eksperymentatorem badającym zamknięty układ kwantowy. Powstało kilka teorii tego rodzaju i przewidywały one zjawiska zgodne z tym, co proponowała fizyka kwantowa. Stąd wiemy, że ten rodzaj rozwiązania problemów mechaniki kwantowej jest możliwy, przynajmniej w zasadzie. Ponadto jeśli można przywrócić determinizm przez rozszerzanie teorii kwantów do teorii całości Wszechświata, to zmienne ukryte nie są związane z bardziej precyzyjnym opisem pojedynczego układu kwantowego, ale z interakcją tego układu z resztą Wszechświata. Wówczas możemy je nazwać relacyjnymi zmiennymi ukrytymi. Zgodnie z zasadą maksymalnej swobody, opisaną w poprzednim rozdziale, teoria kwantów ma charakter probabilistyczny; niepewności nierozerwalnie z nią związane są jak największe. Inaczej ujmując, informacja o atomie, jakiej potrzebowalibyśmy, aby przywrócić determinizm, który zakodowany jest w jego relacjach z całością Wszechświata, jest maksymalna. To znaczy, że własności każdej z cząstek są maksymalnie powiązane z jej ukrytymi relacjami z całością Wszechświata. W ten sposób zrozumienie teorii

kwantów staje się kluczowe w poszukiwaniu nowej teorii kosmologicznej opartej na argumentacji przedstawionej w niniejszej książce. Oto cena, jaką przyjdzie przy tym zapłacić. Trzeba będzie poświęcić względność jednoczesności i wrócić do obrazu świata, w którym definicja bezwzględnej jednoczesności obowiązywałaby w całym Wszechświecie. Musimy tutaj postępować ostrożnie – nie chcemy odrzucać sukcesów osiągniętych w teorii względności, wśród nich udanego mariażu szczególnej teorii względności z teorią kwantów zwanego kwantową teorią pola. Jest ona podstawą Modelu Standardowego, który już umożliwił wiele dokładnych przewidywań sprawdzonych eksperymentalnie. Kwantowa teoria pola nie jest jednak pozbawiona własnych problemów. Wśród nich znajduje się trudna sztuka radzenia sobie z wielkościami nieskończonymi, zanim dokona się jakichkolwiek przewidywań. Kwantowa teoria pola odziedziczyła ponadto wszystkie problemy koncepcyjne teorii kwantów, a nic nowego nie oferuje w celu ich rozwiązania. Te stare problemy teorii kwantów i kwestia nieskończoności wskazują, że także ona jest przybliżeniem bardziej fundamentalnej i bardziej zunifikowanej teorii. Dlatego pomimo sukcesów kwantowej teorii pola wielu fizyków, poczynając od Einsteina, chciało uniknąć tego wszystkiego dzięki nowej teorii, która pozwoli

sporządzić pełny opis każdego pojedynczego eksperymentu – czego, jak już widzieliśmy, teoria kwantów dokonać nie może. Ich poszukiwania uwidoczniły nierozwiązywalny konflikt między fizyką kwantową a szczególną teorią względności. Musimy go zrozumieć, gdy rozważamy ponowne narodziny czasu w fizyce. Wielu fizyków, poczynając od Bohra, upiera się, że niezdolność teorii kwantów do przedstawienia obrazu tego, co dzieje się w pojedynczym eksperymencie, jest jedną z jej zalet, a nie wad. Jak już zauważyliśmy w rozdziale 7, Bohr bardzo zręcznie dowiódł, że zadaniem fizyki nie jest ukazywanie tego obrazu, ale kreowanie języka, za pomocą którego możemy opisać, jak realizować eksperymenty w układach atomowych i jakie są ich wyniki. Dzieła Bohra fascynują mnie, ale nie przekonują. To samo odczuwam wobec prac pewnych współczesnych teoretyków, którzy twierdzą, że mechanika kwantowa nie „opisuje” świata fizycznego, ale informację, jaką mamy o nim. Ci teoretycy utrzymują, że stan kwantowy nie odpowiada żadnej rzeczywistości fizycznej, raczej tylko koduje informację o układzie, jaką my, obserwatorzy, możemy poznać. To bardzo bystrzy ludzie i z przyjemnością z nimi dyskutuję, ale obawiam się, że mają niskie mniemanie o nauce. Czy stać nas tylko na to, aby mechanikę kwantową uważać za algorytm przewidywania prawdopodobieństw? Mimo wszystko

coś zachodzi w pojedynczym eksperymencie. To coś, i tylko to coś, jest rzeczywistością zwaną przez nas elektronem albo fotonem. Czyż nie powinniśmy być zdolni do oddania za pomocą pojęć i modeli matematycznych istoty pojedynczego elektronu? Być może nie istnieje zasada gwarantująca, że realność każdego procesu subatomowego w naturze powinna być zrozumiała dla istot ludzkich, które z kolei zdolne będą do wyrażenia jej w języku matematyki. Ale czy przynajmniej nie powinniśmy podjąć próby? Dlatego staję po stronie Einsteina. Wierzę, że istnieje obiektywna rzeczywistość fizyczna i coś, co się dzieje z elektronem, gdy przeskakuje w atomie z jednego poziomu energetycznego na inny, da się opisać. I dlatego poszukuję teorii, która taki opis zapewni. Pierwszą teorię zmiennych ukrytych przedstawił książę Louis de Broglie w 1927 roku podczas piątej edycji słynnego sympozjum fizyków kwantowych, Konferencji Solvayowskiej, tuż po tym, gdy mechanika kwantowa uzyskała swą ostateczną postać114. Była to teoria inspirowana omawianym w rozdziale 7 dualizmem korpuskularno-falowym, który zasugerował Einstein. Teoria rozwiązała tę zagadkę w dziecinnie prosty sposób. De Broglie przyjął, że rzeczywista jest zarówno fala, jak i cząstka. Obie istnieją materialnie. Wcześniej, w swej dysertacji doktorskiej z 1924 roku założył, że dualizm falowo-korpuskularny jest powszechny, zatem cząstki, takie jak elektrony, są

także falami. W koncepcji zawartej w pracy z 1927 roku rozchodzą się one podobnie jak fale na wodzie, doznając interferencji i dyfrakcji. Cząstki zachowują się podobnie do fal. Dodatkowo oprócz zwykłych oddziaływań – elektrycznych, magnetycznych i grawitacji – działa na nie siła zwana kwantową. Siła ta przyciąga cząstkę do szczytu fali; dlatego średnio cząstki najczęściej znajdują się właśnie tam, ale związek ten jest czysto probabilistyczny. Dlaczego? Ponieważ nie wiemy, skąd cząstka wystartowała. A nie znając położenia początkowego, nie potrafimy przewidzieć, gdzie ją znajdziemy. Ukrytą zmienną, której nie znamy, jest dokładne położenie cząstki. John Bell później zaproponował dla koncepcji de Broglie’a nazwę teorii beabli, w przeciwieństwie do teorii kwantów, która jest teorią obserwabli115. Beabla jest czymś, co przez cały czas istnieje, w przeciwieństwie do obserwabli, która jest wielkością wprowadzoną w celu opisu eksperymentu. W teorii de Broglie’a zarówno cząstka, jak i fala są beablami. W szczególności cząstka zawsze ma położenie, nawet jeśli teoria kwantów nie może go przewidzieć dokładnie. Przedstawiony przez de Broglie’a obraz świata kwantowego, w którym cząstki i fale są realne, nigdy jednak nie zyskał popularności. W 1932 roku wielki matematyk John von Neumann opublikował książkę, w której udowodnił, że postulat o zmiennych ukrytych

jest niemożliwy do spełnienia116. Kilka lat później młoda niemiecka matematyczka Grete Hermann wykazała, że dowód von Neumanna jest błędny117. Faktycznie popełnił on błąd, czyniąc założeniem to, co chciał udowodnić; tym samym oszukał nie tylko siebie samego, lecz także innych, ukrywając to założenie pod postacią aksjomatu. Niestety praca Hermann została zignorowana. Upłynęły dwie dekady, zanim powtórnie odkryto błąd von Neumanna. Na początku lat pięćdziesiątych amerykański fizyk kwantowy David Bohm napisał podręcznik mechaniki kwantowej118. Rozmyślając o zagadkach teorii kwantów, powtórnie odkrył nieznaną mu teorię zmiennych ukrytych de Broglie’a. Napisał artykuł o nowej teorii kwantów, ale kiedy chciał go opublikować w czasopiśmie naukowym, został on odrzucony, ponieważ był sprzeczny ze słynnym dowodem von Neumanna negującym istnienie zmiennych ukrytych. Bohm szybko znalazł błąd w dowodzie von Neumanna i opublikował pracę na ten temat119. Tak zwane podejście de Broglie’a–Bohma do mechaniki kwantowej uprawiało od tego czasu niewielu specjalistów, ale jest to jedno z ujęć wciąż jeszcze aktywnie badanych podstaw teorii kwantów. Teoria de Broglie’a–Bohma pozwala zrozumieć, że teorie ze zmiennymi ukrytymi to jedna z możliwości rozwiązania zagadek teorii kwantów. Jej badanie

okazało się pożyteczne, ponieważ wiele jej cech zastosowano w każdej z późniejszych teorii w tym zakresie. Związek teorii de Broglie’a–Bohma z teorią względności jest ambiwalentny. Statystyczne przewidywania, które ona zapewnia, zgadzają się z mechaniką kwantową i mogą być zgodne ze szczególną teorią względności – a zwłaszcza – ze względnością jednoczesności. Natomiast w odróżnieniu od mechaniki kwantowej teoria daje więcej niż statystyczne przewidywania; mianowicie szczegółowy fizyczny obraz tego, co dzieje się w każdym pojedynczym eksperymencie. Fala, która ewoluuje w czasie, wpływa na to, gdzie porusza się cząstka; dokonując tego, narusza względność jednoczesności, ponieważ prawo, zgodnie z którym wpływa na ruch cząstki, jest poprawne tylko w układzie odniesienia związanym z obserwatorem. Tym samym gdy uznamy, że teoria zmiennych ukrytych de Broglie’a–Bohma wyjaśnia zjawiska kwantowe, musimy uwierzyć, iż istnieje wyróżniony obserwator, którego zegary mierzą wyróżniony czas fizyczny. Okazało się, że taki dwuznaczny związek z teorią względności ma każda teoria zmiennych ukrytych120. Statystyczne przewidywania tych teorii, zgodne z mechaniką kwantową, będą też zgodne z teorią względności. Jednakże każdy bardziej szczegółowy obraz pojedynczego zdarzenia będzie naruszał zasadę

względności i da się go objaśnić tylko w układzie odniesienia obserwatora. Teoria de Broglie’a–Bohma ma niestety wielką wadę, która polega na tym, że nie spełnia jednego z wymienionych uprzednio kryteriów teorii kosmologicznej – wymagania, aby wszystkie działania były wzajemne. Fala wpływa na to, dokąd cząstka podąża, ale cząstka nie ma wpływu na falę. Z tego powodu teoria nie sprawdza się w roli teorii kosmologicznej. Istnieje jednak alternatywna teoria zmiennych ukrytych, w której ten problem został wyeliminowany. Jako wyznawca poglądu Einsteina o tym, że musi istnieć teoria głębsza niż kwantowa, starałem się już od czasów studiów wynaleźć teorię zmiennych ukrytych. Co kilka lat odkładałem swe bieżące badania na bok i próbowałem rozwiązać ten kluczowy problem. Przez wiele lat pracowałem nad podejściem opartym na teorii zmiennych ukrytych stworzonym przez matematyka z Princeton, Edwarda Nelsona. Te próby były udane, ale wszystkie zawierały w sobie pewien element sztuczności, wyrażający się tym, że określone siły musiały być doskonale zrównoważone, aby teoria poprawnie oddawała rezultaty mechaniki kwantowej. W 2006 roku napisałem pracę wyjaśniającą matematyczne powody tej sztuczności, a potem porzuciłem to podejście121. Pewnego jesiennego popołudnia 2010 roku

poszedłem do kafejki, otwarłem notatnik na pustej stronie i rozmyślałem o swych wielu nieudanych próbach wyjścia poza mechanikę kwantową. Zacząłem od rozważań o podejściu do mechaniki kwantowej nazwanym interpretacją statystyczną. Ta interpretacja pomija daremną nadzieję na znalezienie opisu tego, co zachodzi w pojedynczym eksperymencie, ale w zamian opisuje wyimaginowany zbiór wszystkich procesów, które mogłyby w nim zachodzić. Einstein ładnie to wyłożył: „Próba stworzenia teoretycznego opisu kwantowego w postaci pełnego opisu pojedynczego układu prowadzi do nienaturalnych interpretacji teoretycznych, które stają się natychmiast zbędne, jeśli zaakceptuje się interpretację, w której taki opis zamiast do pojedynczego układu odnosi się do ich zespołu (albo zbioru)”122. Weźmy pod uwagę samotny elektron orbitujący wokół protonu w atomie wodoru. Wedle twórców interpretacji statystycznej fala nie jest związana z pojedynczym atomem, ale z umownym zbiorem kopii atomu. W różnych kopiach elektrony mają różne położenia. Stąd jeśli mamy obserwować atom wodoru, to postępujemy tak, jakbyśmy wybrali losowo atom z tego zbioru. Fala daje prawdopodobieństwa znalezienia elektronu w tych wszystkich różniących się od siebie miejscach. Przez długi czas podobała mi się ta idea, ale nagle wydała się zupełnie szalona. W jaki sposób umowny

zbiór atomów wpływa na pomiar dokonywany na jednym realnym atomie? Przeczyłoby to zasadzie mówiącej, że nic spoza Wszechświata nie może wpływać na cokolwiek wewnątrz niego. Dlatego zadałem sobie pytanie, czy mógłbym zastąpić ten umowny zbiór zespołem realnych atomów, takich, które musiałyby istnieć gdzieś we Wszechświecie. Otóż rzeczywiście we Wszechświecie jest wiele atomów wodoru. Czy mogłyby być tym „zbiorem”, o którym mówi interpretacja statystyczna mechaniki kwantowej? Wyobraźmy sobie, że wszystkie atomy wodoru we Wszechświecie prowadzą ze sobą grę. W tej grze każdy atom rozpoznaje, które są w podobnej sytuacji i które mają podobną historię. Przez „podobną” rozumiem to, że mogą być opisane probabilistycznie przez ten sam stan kwantowy. Dwie cząstki w kwantowym świecie mogą mieć identyczne historie i mogą być opisane przez ten sam stan kwantowy, ale różnić się dokładną wartością ich beabli, takich jak położenia. Gdy atom rozpoznaje inny atom jako mający podobną historię, kopiuje jego własności razem z dokładnymi wartościami beabli. Oba atomy nie muszą znajdować się blisko siebie, aby jeden skopiował własności drugiego; po prostu muszą istnieć gdzieś we Wszechświecie. To bardzo nielokalna gra, ale wiemy, że każda teoria zmiennych ukrytych musi wyrażać nielokalność fizyki kwantów. Chociaż ta idea może wydawać się

szaleństwem, to jest znacznie mniej szalona niż wyimaginowany zbiór atomów wpływających na te realne we Wszechświecie. Dlatego zdecydowałem się rozegrać tę grę i zobaczyć, dokąd ona prowadzi. Jedną z własności, która ulega skopiowaniu, jest położenie elektronu względem protonu. Tak więc położenie elektronu w konkretnym atomie będzie przeskakiwało wokół protonu w czasie kopiowania położeń elektronów w innych atomach we Wszechświecie. Na skutek tego przeskakiwania, jeśli dokonam pomiaru położenia elektronu w konkretnym atomie, to będzie tak, jakbym losowo wybrał atom ze zbioru wszystkich podobnych atomów. A zatem stan kwantowy zostanie zastąpiony zbiorem podobnych atomów. Aby to zadziałało, wymyśliłem zasady tej gry w kopiowanie, które prowadzą do prawdopodobieństw takich, jakie dałby pomiar atomu zgodny z mechaniką kwantową123. Wówczas zdałem sobie sprawę z czegoś, co ogromnie mnie ucieszyło: a co będzie, gdy układ nie ma kopii we Wszechświecie? W takim razie gra w kopiowanie nie może trwać i nie ma przejścia do mechaniki kwantowej. Wyjaśniłoby to, dlaczego mechanika kwantowa nie ma zastosowania w dużych układach złożonych, takich jak koty, ty, ja: bo są one unikatowe. Dzięki temu rozwiązują się stare paradoksy, które powstały, gdy stosowano mechanikę kwantową do obiektów tak wielkich jak koty czy obserwatorzy.

Dziwne własności układów kwantowych ograniczają się do układów atomowych, ponieważ występują one we Wszechświecie w ogromnej liczbie kopii. A ponieważ te układy stale nawzajem kopiują swoje własności, w wyniku tego procesu powstają kwantowe nieokreśloności. Nazwałem to realną interpretacją statystyczną mechaniki kwantowej, ale w moich notatkach figuruje ona pod nazwą interpretacji „Białej Wiewiórki”, ze względu na samotne białe zwierzątko widywane w parkach Toronto. Wyobraźcie sobie, że wszystkie rude wiewiórki są wystarczająco identyczne, aby można było stosować do ich opisu mechanikę kwantową – patrzymy, gdzie jest jedna z nich, i widzimy jeszcze jedną, i jeszcze jedną. Tylko biała wiewiórka siedząca chwilę na gałęzi drzewa nie ma kopii i dlatego nie jest kwantowomechaniczna. Podobnie jak ja czy ty, ma unikatowe własności, których nie dzieli z niczym ani które nie są skopiowane z czegokolwiek we Wszechświecie. Gra z przeskakującymi elektronami narusza zasady szczególnej teorii względności. Natychmiastowo wykonane skoki na dowolnie duże odległości wymagają wprowadzenia pojęcia jednoczesności zdarzeń rozdzielonych ogromnymi odległościami. To z kolei wymusza, aby informacja była przekazywana z szybkością większą niż prędkość światła. Jednak w ten sposób otrzymane przewidywania statystyczne są

zgodne z tymi uzyskiwanymi w teorii kwantów, a także mogą się zgadzać z teorią względności. Tymczasem za kulisami wciąż jest wyróżniona jednoczes​ność, a stąd wyróżniony czas, tak jak w teorii de Broglie’a–Bohma. W obu opisanych teoriach zmiennych ukrytych spełniona jest reguła koniecznej przyczyny. Zawiera się w nich szczegółowy obraz procesów zachodzących w pojedynczych zdarzeniach wyjaśniający to, co mechanika kwantowa uważa za nieokreśloność. Jednakże cena, jaką za to trzeba zapłacić – naruszenie zasad teorii względności – jest wysoka. Czy istnieje jakaś teoria zmiennych ukrytych zgodna z teorią względności? Wiemy, że odpowiedź jest przecząca. W przeciwnym razie bowiem naruszałaby twierdzenie o wolnej woli – twierdzenie mówiące, że nie istnieje sposób określenia, co zrobi układ kwantowy (stąd zaprzeczenie istnienia teorii zmiennych ukrytych), jeśli założenia teorii są spełnione. Jednym z tych założeń jest względność pojęcia jednoczesności. Wspomniane już twierdzenie Johna Bella także wyklucza lokalne teorie zmiennych ukrytych – lokalnych w tym sensie, że komunikacja odbywa się z prędkością mniejszą niż prędkość światła. Natomiast można stworzyć teorię zmiennych ukrytych, jeśli narusza ona zasady teorii względności. Gdy tylko sprawdzamy przewidywania mechaniki kwantowej na gruncie statystyki, nie trzeba zadawać sobie pytania, jak w rzeczywistości powstają korelacje.

Tylko wtedy gdy chcemy opisać, jak informacja jest przekazywana w obrębie każdej splątanej pary, musimy się posłużyć pojęciem natychmiastowej komunikacji. Jedynie gdy wychodzimy poza statystyczne przewidywania teorii kwantów i sięgamy do teorii zmiennych ukrytych, popadamy w konflikt ze względnością jednoczesności. Aby opisać, jak powstają korelacje, teoria zmiennych ukrytych musi przyjąć jednoczesność w układzie odniesienia tylko jednego obserwatora. To z kolei oznacza, że jest wyróżniony układ będący w spoczynku, co implikuje, że ruch jest absolutny. Ruch absolutny oznacza, że można mówić o jakimkolwiek ruchu tylko względem tego jednego obserwatora – nazwijmy go Arystotelesem. Arystoteles jest w spoczynku, a wszystko, co widzi jako poruszające się, jest rzeczywiście w ruchu. Koniec, kropka. Innymi słowy, Einstein się myli. Newton się myli. Galileusz też się myli. Nie ma względności ruchu. Taki mamy wybór. Albo mechanika kwantowa jest teorią ostateczną i nie ma możliwości przejrzenia jej statystycznego woalu, aby dojść do bardziej podstawowego opisu świata, albo Arystoteles miał rację i istnieje wyróżniona wersja ruchu i stanu spoczynku. 114 Wyczerpujące omówienie prac de Broglie’a i angielski przekład jego publikacji z 1927 roku zob.: Guido Bacciagaluppi, Antony Valentini, Quantum Theory at the Crossroads: Reconsidering the 1927

Solvay Conference, Cambridge University Press, New York 2009, dostępne także w arXiv:quant-ph/0609184v2 (2009). 115 John S. Bell, Speakable and Unspeakable in Quantum Mechanics: Collected Papers on Quantum Philosophy, Cambridge University Press, New York 2004. 116 John von Neumann, Mathematische Grundlagen der Quantenmechanik, Julius Springer Verlag, Berlin 1932, s. 167 i n. albo Mathematical Foundations of Quantum Mechanics, przeł. R.T. Beyer, Princeton University Press, Princeton 1996. 117 Grete Hermann, Die Naturphilosophischen Grundlagen der Quantenmechanik, „Abhandlungen der Fries’schen Schule” 1935. 118 David Bohm, Quantum Theory, Prentice Hall, New York 1951. 119 David Bohm, A Suggested Interpretation of the Quantum Theory in Terms of ‘Hidden’ Variables. II, „Physical Review” 1952, nr 85:2, s. 180–193. 120 Antony Valentini, Hidden Variables and the Large-scale Structures of ​Space–Time, w: W.L. Craig, Q. Smith (red.), Einstein, Relativity and Absolute Simultaneity, Routledge, London 2008, s. 125– 155. 121 Lee Smolin, Could Quantum Mechanics Be an Approximation to Another Theory?, arXiv:quant-ph/0609109v1 (2006). 122 Albert Einstein, Remarks to the Essays Appearing in This Collective Volume, w: P.A. Schilpp (red.), Albert Einstein: Philosopher-

Scientist, Tudor, New York 1951, s. 671. 123 Bardziej matematyczne wytłumaczenie: Lee Smolin, A Real Ensemble Interpretation of Quantum Mechanics, arXiv:1104.2822v1 [quant-ph] (2011).

Rozdział 14

Czas odradza się z teorii względności Widzieliśmy już, że realność czasu umożliwia rozwiązanie zagadek mechaniki kwantowej i rozszerza wiedzę o tym, jak Wszechświat wybiera swe prawa. Wciąż jednak musimy pokonać ogromną przeszkodę, czyli mocne argumenty szczególnej i ogólnej teorii względności przemawiające za obrazem wszechświatabloku. Wskazują one, że realna jest tylko historia Wszechświata jako bezczasowej całości124. Argumentacja przemawiająca za wszechświatemblokiem opiera się na względności jednoczesności, która jest jedną z zasad szczególnej teorii względności (zobacz rozdział 6). Jeśli natomiast czas jest realny, w tym sensie, że realny jest moment teraźniejszy, to istnieje granica między realną teraźniejszością i jeszcze nierealną przyszłością, na którą mogą się zgodzić wszyscy obserwatorzy. Implikuje to uniwersalne pojęcie jednoczesności obejmujące odległe zdarzenia i oczywiście cały Wszechświat, które można nazwać

wyróżnionym czasem globalnym („globalny” w tym sensie, że definicja czasu obejmuje cały Wszechświat). Teraz mamy bezpośrednią konfrontację między wyróżnionym czasem globalnym a teorią względności, której zasady go wykluczają. Jak już widzieliśmy w poprzednim rozdziale, wyróżniony czas globalny jest niezbędnym składnikiem każdej teorii zmiennych ukrytych zdolnej wytłumaczyć wybory podejmowane przez pojedynczy układ kwantowy. Stąd pojawia się konflikt między względnością jednoczesności a regułą przyczyny koniecznej, a to już także wiemy z ostatniego rozdziału. W tym rozdziale rozwiążemy ów konflikt na rzecz reguły przyczyny koniecznej. Oznacza to rezygnację ze względności jednoczesności i wybranie jej przeciwieństwa: wyróżnionego czasu globalnego. Co zadziwiające, nie jest wymagane odrzucenie teorii względności; okazuje się, że wystarcza tylko nowe jej sformułowanie. Istotą tego rozwiązania jest nowy i głębszy sposób rozumienia ogólnej teorii względności, z którego wynika nowa koncepcja realnego czasu. Pojęcie czasu globalnego wyróżnia rozrzuconą po Wszechświecie rodzinę obserwatorów, których zegary mierzą ten czas. To zaś implikuje wyróżniony stan spoczynku, przypominający arystotelesowskie pojęcie spoczynku albo eter dziewiętnastowiecznej fizyki, oba obalone przez Einsteina w szczególnej teorii

względności. Do czasów Einsteina eter był dla fizyków ośrodkiem, w którym rozchodziło się światło. Einstein na podstawie zasady względności jednoczesności udowodnił, że nie jest potrzebny ani eter, ani stan spoczynku125. Pojawia się zatem nie tylko sprzeczność, ale także powód do przygnębienia. Eliminacja eteru była wielkim triumfem myśli nad nawykiem lenistwa umysłowego. Tak łatwo było przecież przyjąć arystotelesowski punkt widzenia na przyrodę. Galileusz i Newton ustanowili względność układów inercjalnych, która uniemożliwia wyróżnienie stanu spoczynku przez obserwację ciał w ruchu. Jednak idea spoczynku jako naturalnego braku ruchu cicho czaiła się w głowach fizyków, ustępując miejsca eterowi, gdy teoretycy potrzebowali ośrodka, w którym mogłoby się rozchodzić światło. Tylko Einstein miał wystarczającą intuicję, aby obalić to wszystko naraz. A teraz wydaje się, że mamy się cofnąć do idei pojęcia wyróżnionego czasu globalnego. Zaprzeczenie triumfu Einsteina nad eterem stwarza psychologiczną barierę uniemożliwiającą przyjęcie argumentów za realnością czasu – albo przynajmniej tak jest w moim wypadku. Zanim opowiem, jak teoria może rozwiązać tę sprzeczność, zobaczmy, co ma tu do powiedzenia eksperyment. Pojęcie wyróżnionego czasu globalnego implikuje obecność wyróżnionego obserwatora, którego zegar mierzy ów czas. Przeczy to zasadzie

względności układów inercjalnych, zgodnie z którą nie można spośród obserwatorów poruszających się ruchem jednostajnym prostoliniowym wyróżnić tego, który jest w spoczynku. Nie da się tego dokonać ani eksperymentalnie, ani obserwacyjnie. Pierwszą rzeczą, jaką można zauważyć, jest to, że Wszechświat zorganizowany jest w taki sposób, aby rzeczywiście wyróżnić stan spoczynku. Wiemy o tym, ponieważ rozglądając się wokół za pomocą teleskopu widzimy, jak ogromna większość galaktyk ucieka od nas we wszystkich kierunkach mniej więcej z tą samą prędkością. Wszakże może to być prawdą tylko dla jednego obserwatora, ponieważ komuś oddalającemu się od nas szybko w przestrzeń wydaje się, że doganiane galaktyki poruszają się wolniej niż te pozostające z tyłu. Posiadamy także dowody na to, że galaktyki są równomiernie rozrzucone w przestrzeni, przynajmniej jeśli ich położenia uśredni się w dostatecznie wielkiej skali – to znaczy Wszechświat wydaje się taki sam, gdy spoglądamy w dowolnym kierunku. Opierając się na tych faktach, dochodzimy do wniosku, że każdy punkt w przestrzeni może mieć jednego specjalnego obserwatora, dla którego galaktyki oddalają się z taką samą prędkością w każdym kierunku126. Tak więc ruchy galaktyk wyróżniają w każdym punkcie przestrzeni obserwatora, a zatem wyróżniają stan spoczynku. Innym sposobem ustalenia rodziny wyróżnionych obserwatorów jest posłużenie się kosmicznym

promieniowaniem tła. Do preferowanych obserwatorów promieniowanie to dociera ze wszystkich kierunków na niebie, mając taką samą temperaturę127. Na szczęście dwie wyróżnione rodziny obserwatorów się pokrywają. Po uśrednieniu położeń galaktyki wydają się pozostawać w spoczynku w tym samym układzie odniesienia, w którym promieniowanie tła dociera do nas z taką samą temperaturą ze wszystkich kierunków. Wszechświat jest więc zorganizowany tak, aby istniał wyróżniony stan spoczynku. Jednakże ten fakt nie musi przeczyć zasadzie względności ruchu. Teoria może mieć symetrię, której nie spełniają jej rozwiązania. Wręcz przeciwnie, rozwiązania teorii często łamią symetrie teorii. Fakt, że nie istnieje wyróżniony kierunek w przestrzeni, nie zapobiega wianiu wiatru z kierunku północnego. Nasz Wszechświat reprezentuje tylko jedno z rozwiązań równań ogólnej teorii względności. Właśnie to równanie może być asymetryczne – to znaczy może zawierać wyróżniony stan spoczynku – co nie przeczy zasadzie, że teoria ma symetrię. Wszechświat mógł się rozpocząć w taki sposób, że ta symetria została złamana. Równocześnie chcielibyśmy wiedzieć, dlaczego Wszechświat jest w takim specjalnym stanie, w którym istnieje wyróżniona rodzina obserwatorów. To inne pytanie o to, dlaczego jego warunki początkowe były tak specjalne. Na to pytanie ogólna teoria względności nie potrafi sama odpowiedzieć, i to jest następna

wskazówka, że nie oddaje ona całej prawdy o Wszechświecie. A więc warto rozważyć możliwość, że wyróżniony we Wszechświecie stan spoczynku reprezentuje coś głębszego. Może mówi to nam coś o zjawiskach zachodzących na poziomie nieopisywanym przez ogólną teorię względności. Jeśli istnienie wyróżnionego stanu spoczynku oznacza coś głębszego, to ten stan powinien się pojawiać w innych rodzajach eksperymentów. Tymczasem w skalach mniejszych niż kosmologiczna zasada względności układów inercyjnych jest całkiem dobrze sprawdzona. Ogromna liczba dowodów eksperymentalnych potwierdza przewidywania szczególnej teorii względności, a wiele z nich stanowi test tego, czy w przyrodzie jest wyróżniony stan spoczynku, czy też go nie ma 128. A zatem obserwacje dają nam mieszany przekaz. Są dowody istnienia wyróżnionego stanu spoczynku w największej skali. Fakt ten powinny wyjaśnić warunki początkowe Wszechświata. Natomiast w każdej mniejszej skali dowody wskazują na obowiązywanie zasady względności. Niedawno wymyślono bardzo pomysłowe rozwiązanie tej zagadki. Ogólna teoria względności, jak się okazuje, może być w piękny sposób sformułowana na nowo jako teoria z pojęciem wyróżnionego czasu. To ujęcie, będąc innym sposobem zrozumienia zasad ogólnej teorii względności, ukazuje fizycznie wyróżnioną synchronizację zegarów w całym

Wszechświecie. Co więcej, wybór tej wyróżnionej synchronizacji zależy od rozkładu materii i promieniowania grawitacyjnego we Wszechświecie, dlatego też nie jest to cofnięcie się do newtonowskiego czasu absolutnego. Nie da się także tego odkryć, wykonując lokalne pomiary, dlatego jest całkowicie zgodne z zasadą względności dla małych podukładów Wszechświata. Teoria umożliwiająca takie odwrócenie perspektywy nazwana jest dynamiką kształtu129. Jej główną zasadą jest to, że wszystko, co realne w fizyce ma związek z kształtem obiektów, a wszystkie realne zmiany to po prostu zmiany tych kształtów. Wymiary nie mają znaczenia, a jeśli wydaje się, że obiekt ma swoje naturalne wymiary – to iluzja. Dynamika kształtu została zainspirowana przemyśleniami Juliana Barboura, którego bezczasową kosmologię kwantową poznaliśmy w rozdziale 7. Barbour jest wielkim zwolennikiem relacjonizmu, dlatego dynamika kształtu jest wynikiem jego upartych dążeń, aby fizykę uczynić maksymalnie relacyjną. W ciągu ostatniej dekady otrzymał on wiele istotnych wyników razem z Niall Ó Murchadha i kilkoma młodszymi współpracownikami, ale ostateczne połączenie wszystkich rezultatów w całość nastąpiło latem i jesienią 2010 roku dzięki pracy trójki młodych ludzi z Instytutu Perimeter: magistrantów Seana Gryba i Henrique’a Gomesa oraz stypendysty po doktoracie,

Tima Koslowskiego 130. Gdy już poznamy podstawowe idee teorii względności, to łatwo zrozumiemy dynamikę kształtu, ponieważ teoria ta jest następnym naturalnym krokiem. Przywołajmy pewne aspekty jednoczesności: nie ma sensu mówienie o dwóch rozdzielonych przestrzennie zdarzeniach jako zachodzących jednocześnie. Możemy uporządkować je w czasie i ma to sens, ponieważ jedno może być przyczyną drugiego. Kiedy zaś próbujemy ułożyć w czasie zdarzenia bardzo odległe od siebie, dochodzimy do wniosku, że nie ma absolutnego porządku, na który mogliby się zgodzić wszyscy obserwatorzy. Dla pewnych obserwatorów dwa zdarzenia mogą być jednoczesne, a innym może się wydawać, że jedno zdarzenie pozostaje w przeszłości drugiego. Barbour twierdzi, że kształt zachowuje się podobnie. Jeśli mamy dwa sąsiadujące ze sobą obiekty, to sensowne jest uporządkowanie ich pod względem wymiarów: skoro możesz włożyć mysz do pudełka, to ma sens stwierdzenie, że mysz jest mniejsza niż pudełko. Gdy masz dwie piłki futbolowe, to uzasadniona jest uwaga, że mają tę samą średnicę. Te porównania mają sens fizyczny i wszyscy obserwatorzy zgodzą się co do tego. Teraz zapytajmy, czy mysz tutaj jest mniejsza od pudełka w sąsiedniej galaktyce. Czy to pytanie wciąż ma sens? Czy jest na nie odpowiedź, z którą wszyscy

obserwatorzy się zgodzą? Problem w tym, że nie można myszy włożyć do tamtego pudełka, aby sprawdzić, czy się w nim mieści, ponieważ oba obiekty znajdują się w olbrzymim oddaleniu od siebie. Aby odpowiedzieć na to pytanie, można przenieść pudełko do miejsca pobytu myszy i zobaczyć, czy zwierzę zmieści się do niego. Byłaby to jednak odpowiedź na inne pytanie, ponieważ teraz pudełko i mysz znajdują się w tym samym miejscu. Skąd możemy wiedzieć, czy nie istnieje jakieś zjawisko fizyczne rozszerzające wszystko, co przemieszczamy do naszej galaktyki, tak że pudełko o rozmiarze oka myszy stanie się po drodze na tyle duże, aby zmieściła się w nim cała mysz? Możemy pozostawić pudełko tam, gdzie jest, i wysłać do niego tylko przymiar, ale skąd możemy wiedzieć, że przymiar nie zostanie poddany odwrotnemu efektowi, zmniejszeniu w czasie podróży od myszy do odległego pudełka? To jeden z przykładów rozumowania, które doprowadziło Barboura i jego kolegów do propozycji, że nie ma sensu porównywanie wymiarów odległych od siebie obiektów. Można jedynie porównać ich kształty, ponieważ nie poddają się one tego rodzaju dowolnej modyfikacji. Jedynym wyjątkiem względności wymiaru jest to, że objętość całego Wszechświata jest ustalona. Niełatwo to wyjaśnić bez matematyki, ale powyższe stwierdzenie oznacza, że jeśli zmniejszymy wszystko w jednym miejscu, to gdzieś musi być inne

miejsce, w którym skompensujemy tę czynność przez powiększenie wszystkiego o taką samą wielkość, tak aby całkowita objętość Wszechświata nie uległa zmianie. Choć dynamika kształtu jest radykalna, gdy chodzi o wymiary, to równocześnie okazuje się konserwatywna, jeśli chodzi o czas. Jest tylko jedno tempo, w jakim upływa czas. Pozostaje ono takie samo w całym Wszechświecie, i nie można go zmienić. Ogólna teoria względności, w mniejszym lub większym stopniu, sprzeciwia się temu. Wymiary obiektów są ustalone i pozostają takie, gdy się je przenosi, dlatego ma sens porównywanie wymiarów odległych przedmiotów. Natomiast ogólna teoria względności jest elastyczna w kwestii czasu. Nie ma sensu pytanie o to, czy odległy zegar chodzi szybciej lub wolniej niż ten w naszym pobliżu, ponieważ zagadnienie opóźniania się lub przyspieszania tempa odległych zegarów znajduje się w wykazie tych śmiesznych zmian, co do których obserwatorzy nie będą zgodni. Nawet jeśli dokonamy synchronizacji naszego zegara z tym odległym, to mogą one ją utracić, ponieważ brak fizycznych podstaw, aby tempo ich pracy pozostawało takie samo. Jednym słowem, w ogólnej teorii względności wymiary są uniwersalne, a czas jest względny, podczas gdy w dynamice kształtu czas jest uniwersalny, a wymiary względne. To niesamowite, że dwie teorie są sobie równoważne,

bo dzięki zmyślnemu trikowi matematycznemu można zamienić względność czasu na względność wymiarów. Potrafimy więc opisać historię Wszechświata na dwa sposoby, za pomocą języka ogólnej teorii względności albo w języku dynamiki kształtu. Fizyczny sens tych dwóch opisów będzie ten sam i każde pytanie o wielkości obserwowalne będzie miało tę samą odpowiedź. Gdy historia Wszechświata jest opisywana językiem ogólnej teorii względności, definicja czasu jest dowolna. Czas jest względny i traci sens dla odległych lokalizacji. Natomiast gdy opisujemy ją dynamiką kształtu, ujawnia się uniwersalne pojęcie czasu. Cena, jaką za to trzeba zapłacić, polega na tym, że wymiary stają się względne i porównywanie wymiarów przedmiotów położonych daleko od siebie traci sens. Podobnie jak opis cząstka/fala w teorii kwantów, jest to przykład tego, co fizycy nazywają dualizmem – dwa opisy jednego zjawiska, oba kompletne, a jednak nie do pogodzenia ze sobą. Ten szczególny dualizm jest jednym z największych odkryć współczesnej fizyki teoretycznej. Został zaproponowany w innej formie131 w 1995 roku przez Juana Maldacenę w kontekście teorii strun i od tego czasu miał bardzo istotny wpływ na tę dziedzinę fizyki. Nie jest jasny związek między dynamiką kształtu a dualnością Maldaceny, ale wydaje się, że istnieje jakaś odpowiedniość132.

W ogólnej teorii względności, w przeciwieństwie do teorii dualnej, nie ma wyróżnionego czasu. Możemy wykorzystać fakt, że dwie teorie są zamienne, aby przełożyć czas ze świata dynamiki kształtu do świata ogólnej teorii względności. Ujawni się on jako czas wyróżniony, ukryty w równaniach133. Globalne pojęcie czasu oznacza, że z każdym zdarzeniem zachodzącym w przestrzeni i czasie związany jest wyróżniony obserwator, którego zegar mierzy upływ tego czasu. Natomiast nie ma sposobu, aby wyróżnić tego obserwatora przez jakikolwiek eksperyment dokonany w małym regionie. To rozkład materii we Wszechświecie określa czas globalny. Pokrywa się to z faktem, że eksperymenty wykazują prawdziwość zasady względności w skali mniejszej niż skala Wszechświata. W ten sposób dynamika kształtu godzi eksperymentalny sukces zasady względności z potrzebą czasu globalnego w teoriach ewoluujących praw fizyki i niezbędnego do wyjaśnienia zjawisk kwantowych za pomocą zmiennych ukrytych. Jak już wspomniano, jedyną wielkością, która nie może się zmieniać, gdy rozszerzamy i kurczymy skale, jest całkowita objętość Wszechświata. Nadaje to sens jego całkowitej objętości oraz ekspansji i można ją przyjąć za uniwersalny zegar fizyczny. Czas został ponownie odkryty. 124 Dla pewności w obrazie wszechświata-bloku można

wprowadzić pojęcie zmian praw w czasie, ale moje twierdzenie polega na tym, że nie może on wyjaśnić, jak i dlaczego prawa się zmieniają. 125 Można pomyśleć, że idea eteru została obalona przez eksperyment Michelsona–Morleya, ale nikt przed Einsteinem w 1905 roku nie miał na tyle intuicji, by się tego domyślić. 126 Dowód wymaga znajomości prostej geometrii, ale nie mam zamiaru obarczać tym czytelnika. Można go znaleźć w dowolnym podręczniku ogólnej teorii względności. 127 Przypuśćmy, że poruszasz się na północ względem tego specjalnego obserwatora. Będziesz widział promieniowanie tła zbliżające się do ciebie z północy. Fotony tego promieniowania biegnące od południa podlegają przeciwnemu efektowi; ich częstości są przesunięte ku czerwieni, a temperatura niższa. Stąd dochodzisz do wniosku, że poruszasz się względem kosmicznego promieniowania tła. Na odwrót, obserwator, który widzi temperaturę taką samą we wszystkich kierunkach, może dojść do wniosku, że jest w spoczynku względem promieniowania tła. 128 W poprzednich latach eksperymenty potwierdziły zasadę względności w bardzo ekstremalnych warunkach, gdy protony poruszały się z prędkością 0,99999 prędkości światła. Przy tej niebywałej prędkości efekty relatywistyczne są na tyle istotne, że energia, jaką ze sobą niosą, jest 10 miliardów razy większa od ich energii związanej z masą spoczynkową. Nie byłbym zdziwiony, gdyby te obserwacje ujawniły fiasko zasad teorii względności, taki koniec przewidują bowiem pewne podejścia do grawitacji kwantowej przy tych właśnie energiach. Inne niedawne obserwacje testują – i potwierdzają – zasadę, że wszystkie fotony poruszają się z tą samą prędkością, z tak wielką dokładnością, że dzięki obserwacjom odkryto,

iż jeden z fotonów pary zdobył sekundową przewagę nad drugim, gdy biegły one przez 10 miliardów lat. Te rezultaty rozczarowały teoretyków, którzy oczekiwali, że efekty grawitacji kwantowej mogłyby zmienić prędkość światła o czynnik zależny od masy fotonu. Inne obserwacje potwierdziły z dużą dokładnością, że neutrina mają granicę prędkości taką samą jak światło (z całym szacunkiem dla wstępnych doniesień o nadświetlnych neutrinach, które znalazły się na nagłówkach światowych gazet w 2011 roku). 129 Zaproponowano inne definicje wyróżnionego czasu w ogólnej teorii względności. O tym, która z nich jest poprawna, zadecyduje dalszy rozwój nauki, być może nawet eksperyment. Tutaj zakładamy więc, że jest czas wyróżniony, podczas gdy pozostawiamy nierozwiązaną kwestię tego, która to z definicji. Wśród innych propozycji zob.: Chopin Soo, Hoi-Lai Yu, General Relativity Without Paradigm of Space-Time Covariance: Sensible Quantum Gravity and Resolution of the Problem of Time, arXiv:1201.3164v2 [gr-qc] (2012); Niall Ó Murchadha, Chopin Soo, Hoi-Lai Yu, Intrinsic Time Gravity and the Lichnerowicz–York Equation, arXiv:1208.2525vi [gr-qc] (2012); George F.R. Ellis, Rituparno Goswami, Space Time and the Passage of Time, arXiv:1208.2611v3 (2012). 130 Henrique Gomes, Sean Gryb, Tim Koslowski, Einstein Gravity as a 3D Conformally Invariant Theory, arXiv:1010.2481v2 [gr-qc] (2011). 131 Inna nazwa to korespondencja (antydesitterowska/konforemna teoria pola).

AdS/CFT

132 Więcej o dynamice kształtu można znaleźć w dodatkach on line. 133 Wcześniej w tym rozdziale wspominałem, że pewne symetryczne rozwiązania ogólnej teorii względności mają wyróżniony

stan spoczynku i stąd wyróżniony czas. To coś innego. Wcześniejszy przypadek ogranicza się do rozwiązań specjalnych, podczas gdy wyróżniony czas identyfikowany przez dynamikę kształtu jest ogólny i istnieje, nawet gdy czasoprzestrzeń nie ma symetrii. Jest słabe ograniczenie dla czasoprzestrzeni – plastry o stałej średniej krzywiźnie – które nie przeszkadza w stosowaniu teorii do czasoprzestrzeni kosmologicznej. To pojęcie czasu ma charakter globalny i jest określone dynamicznie przez pole grawitacyjne i materię. A zatem nie jest to odwrót do czasu absolutnego Newtona. Wybrane plastry czasoprzestrzeni są minimalnie zakrzywione. Tak samo jak bańki mydlane przyjmują kształt, który minimalizuje ich krzywiznę, plastry, na jakie jest podzielona czasoprzestrzeń, mogą minimalizować swoją krzywiznę.

Rozdział 15

Wyłanianie się przestrzeni Najbardziej tajemniczy aspekt świata mamy przed nosem. Trudno o coś bardziej pospolitego niż przestrzeń, a jednak gdy zaczynamy ją badać szczegółowo, to mało co okazuje się bytem bardziej tajemniczym. Wierzę, że czas jest realny i istotny dla podstawowego opisu przyrody. W moim przekonaniu najprawdopodobniej to przestrzeń okaże się iluzją tego rodzaju co temperatura czy ciśnienie – z jednej strony użytecznym sposobem organizowania naszych wrażeń o przedmiotach w dużej skali, ale z drugiej strony tylko ogólnym i emergentnym sposobem oglądania świata w całości. Teoria względności połączyła przestrzeń z czasem, prowadząc do obrazu wszechświata-bloku, w którym zarówno przestrzeń, jak i czas rozumie się jako subiektywny sposób podziału czterowymiarowej rzeczywistości. Hipoteza realności czasu wyzwala go ze sztucznych ograniczeń tej unifikacji. Możemy

rozwijać ideę czasu, mając świadomość tego, że jest on odmienny od przestrzeni. Separacja czasu i przestrzeni uwalnia także przestrzeń, umożliwiając lepsze zrozumienie jej natury. Jak przekonamy się w tym rozdziale, prowadzi to do rewolucyjnego spostrzeżenia, że przestrzeń, na poziomie kwantowomechanicznym, nie jest wcale bytem podstawowym, lecz wyłania się z głębszego porządku. Prosty fakt, że świat obiektów napotykanych codziennie jest zorganizowany za pomocą relacji „blisko” i „daleko”, stanowi konsekwencję dwóch podstawowych cech rzeczywistości: istnienia przestrzeni i tego, że obiekty muszą mieć położenie w naszym otoczeniu, aby wywierać na nas wpływ (własność, którą fizycy nazywają lokalnością). Świat jest pełen rzeczy wzbudzających zarówno zagrożenie, jak i stwarzających szansę, ale w żadnym momencie wszystkie naraz nie są powodem naszej troski. Dlaczego? Dlatego że są one bardzo od nas odległe. Tygrysy zza oceanu zjadłyby nas w ciągu minuty, jeśli miałyby okazję ku temu, ale nie martwimy się tym, ponieważ nie znajdują się w naszym otoczeniu. To prezent od przestrzeni; prawie wszystko znajduje się z dala od nas i na razie można to ignorować. Wyobraźmy sobie świat zawierający ogromną różnorodność obiektów bez organizującej roli przestrzeni. Wszystkie zderzałyby się ze sobą nawzajem w każdej chwili. Nie byłoby przecież odległości

rozdzielającej obiekty od siebie. W rzeczywistości, dzięki naszym zmysłom, jesteśmy świadomi tego, co znajduje się w naszym pobliżu. A jest tego niewiele. To cecha przestrzeni, że niewiele rzeczy może zajmować bliskie nam otoczenie – konsekwencja niskiego wymiaru przestrzeni. Pomyślmy, jak niewielu sąsiadów zamieszkuje w naszym bezpośrednim sąsiedztwie. Tylko dwie rodziny, po jednej z każdej strony. A teraz ile budynków mogłoby się znajdować w bezpośrednim sąsiedztwie naszego? Cztery – dwie rodziny zamieszkujące obok, jedna bezpośrednio po drugiej stronie ulicy i jedna z tyłu. Jeśli mieszkamy w bloku, to liczba sąsiednich rodzin wzrasta do sześciu, bo dochodzą ci z dołu i z góry. Liczba najbliższych sąsiadów rośnie proporcjonalnie do wymiaru przestrzeni – dwóch w jednym wymiarze, czterech w dwóch wymiarach, sześciu w trzech wymiarach. Związek jest prosty: liczba najbliższych sąsiadów wynosi tyle co podwojony wymiar przestrzeni. Zatem gdybyśmy żyli w pięćdziesięciowymiarowej przestrzeni, to mielibyśmy stu najbliższych sąsiadów. A gdybyśmy chcieli żyć w budynku ze stoma rodzinami w sąsiedztwie, to w trzech wymiarach musi to być ogromny budynek i zdecydowana większość tych rodzin nie byłaby w bliskim sąsiedztwie z nami. W trzech wymiarach możemy mieć sąsiadów, których nigdy nie spotykamy. Swoją drogą, jest to problem w planowaniu siedziby

instytutu naukowego, ponieważ dążymy do maksymalizacji nieoczekiwanych spotkań z ludźmi mającymi różne pomysły i zainteresowania. Gdy otwierano Instytut Perimeter z siedmioma zatrudnionymi uczonymi, nie był to problem, ale teraz, gdy mamy ich ponad setkę, jest to spore wyzwanie. Gdy nasz instytut się rozrósł, jako fizycy teoretycy zastanawialiśmy się nad zwiększeniem liczby wymiarów budynków, ale dotąd nie znaleźliśmy architekta, który spełniłby nasze oczekiwania134. Fakt jest taki, że tkwimy w niskowymiarowym świecie. Właśnie to przede wszystkim chroni nas przed tygrysami, sąsiadami cierpiącymi na bezsenność i bez przerwy oglądającymi telewizję oraz przed innymi bestiami. Jest to także pierwsza przeszkoda, którą napotykamy, gdy staramy się zwiększyć szanse na wykorzystanie okazji. Zanim nastąpiła rewolucja technologiczna, fakt, że powierzchnia Ziemi jest dwuwymiarowa, powodował dość dużą izolację jej mieszkańców. Większość ludzi spotykała nie więcej niż setkę innych w ciągu swego życia – czyli tych, do których można było dotrzeć pieszo. Starali się jak tylko mogli, organizując uczty i festyny, aby zintensyfikować relacje (tak jak robią to naukowcy) z sąsiednimi wioskami, a kilku dzielnych kupców nawet wyprawiało się za granicę. Mimo to przestrzeń i tak sprawia, że prawie wszyscy z nas to nieznajomi.

Teraz żyjemy w świecie, w którym technologia obaliła granice typowe dla życia w przestrzeni o małym wymiarze. Weźmy pod uwagę wpływ, jaki mają telefony komórkowe. Ja na przykład włączam swój i natychmiast mam możliwość rozmowy z kimkolwiek zechcę, ponieważ pięć miliardów ludzi z siedmiomiliardowej ziemskiej populacji ma telefony komórkowe. Ta technologia w sposób efektywny zmieniła przestrzeń. Patrząc z tej perspektywy, trzeba uznać, że żyjemy w przestrzeni o wymiarze 2,5 miliarda, w której prawie wszyscy ludzie są swoimi najbliższymi sąsiadami. Internet oczywiście stworzył tę samą sytuację. Przestrzeń oddzielająca nas od siebie zaniknęła dzięki sieci połączeń istotnie związującej nas wszystkich razem. W efekcie żyjemy w przestrzeni o większej liczbie wymiarów. Szybko stajemy się światem, w którym wielu ludzi może wybrać życie prawie wyłącznie w tych wyższych wymiarach. Potrzeba tylko trochę więcej wirtualnej rzeczywistości – na przykład, aby w czasie rozmowy przez telefon komórkowy wyświetlał się hologram osoby rozmawiającej z nami, a ona otrzymywała nasz. W świecie o większej liczbie wymiarów z nieograniczonym potencjałem połączeń stajemy wobec znacznie większej możliwości dokonywania wyborów niż w świecie trójwymiarowym. Wiele wyzwań stojących przed naszym skomputeryzowanym światem jest wynikiem tego ogromnego oceanu

możliwości, a rozrastające się wciąż media społecznościowe posługują się nimi i je wykorzystują. Wyobraźmy sobie dziecko wychowane w takim wielowymiarowym świecie, w którym przestrzeń nie odgrywa roli. Będzie ono myśleć o swoim świecie jak o ogromnej sieci, w której przepływ i dynamika połączeń utrzymują każdego nieco z dala od pozostałych. Wyobraźmy sobie teraz, że ktoś przekręca wyłącznik. Zasilanie znika i mieszkańcy sieci nagle znajdują się w bardziej ograniczonym i mniej stymulującym świecie. Odkrywają, że w rzeczywistości żyją w świecie trójwymiarowym, a przestrzeń rozdziela większość ludzi. Liczba najbliższych sąsiadów kurczy się z pięciu miliardów do kilku i prawie każdy z nich jest nagle bardzo odległy. Metafora ta opisuje, jak teraz pewni fizycy myślą o przestrzeni. My (tak, jestem wśród nich) wierzymy, że przestrzeń jest iluzją, a rzeczywiste związki formujące świat to dynamiczna sieć trochę podobna do Internetu albo sieci komórkowej. Odczuwamy tę iluzję przestrzeni, ponieważ większość możliwych połączeń jest wyłączona, co stwarza efekt dalekiej odległości do wszystkiego. Ten obraz wywodzi się z pewnej klasy podejść do grawitacji kwantowej, w których bytem podstawowym nie jest przestrzeń, lecz czas. Podejścia te zakładają podstawową strukturę kwantową, w której nie jest potrzebne pojęcie przestrzeni. Zgodnie z tą ideą

przestrzeń wyłania się, podobnie jak termodynamika wyłania się z fizyki atomowej. Takie podejścia są niezależne od tła, ponieważ nie zakładają istnienia jego ustalonej geometrii. Tu raczej pierwotnym pojęciem jest graf albo sieć, definiowane wewnętrznie, bez przywoływania pojęcia przestrzeni. Podejście, które pierwsze rozwinięto, nazwano dynamiczną triangulacją przyczynową. Jego autorami są Jan Ambjørn i Renate Loll wraz 135 ze współpracownikami . Po nim pojawiło się następne, zwane quantum graphity (ze względu na to, że przyjmuje grafy jako fundamentalne byty natury), stworzone przez Fotini Markopoulou136 i dogłębnie zbadane przy udziale jej współpracowników137. Intuicyjny obraz przestrzeni, jaki powyżej przedstawiłem, wyłaniający się po wyłączeniu połączeń w sieci, jest najbliższy temu podejściu. Trzecie podejście – w którym podstawą jest istnienie czasu globalnego, ale przestrzeń nie jest emergentna – stworzył Petr Hořava138. W podobny sposób można także opisać pewne ujęcia teorii strun zwane modelami macierzowymi139. Ponieważ przyjmują czas za pojęcie podstawowe, te podejścia różnią się od starszych, niezależnych od tła i zakładających, że czasoprzestrzeń – w całości, jak w modelu wszechświata-bloku – musi się wyłonić z bardziej fundamentalnego opisu, w którym ani

przestrzeń, ani czas nie są pierwotne. Wśród nich są: pętlowa grawitacja kwantowa, zbiory kauzalne i kilka innych koncepcji teorii strun. Należy wyciągnąć kilka wniosków z sukcesów i porażek każdego z tych podejść. To będzie temat niniejszego rozdziału. W kilku podejściach do grawitacji kwantowej przyjęto obraz przestrzeni nie ciągłej, lecz sieci dyskretnych punktów (zobacz rysunek13). Cząstki przebywają na węzłach tej sieci i poruszają się dzięki przeskokom na sąsiednie węzły. Dwie cząstki wywierają siłę lub wpływają na siebie, tylko gdy są sąsiadami. Jeśli sieć jest niskowymiarowa, liczba cząstek uczestniczących w oddziaływaniu jest mała, natomiast zwiększa się wraz ze wzrostem liczby wymiarów, tak jak w opisie najbliższych sąsiadów w naszym świecie.

Rysunek 13. Przestrzeń jako sieć punktów. Cząstka może przebywać tylko w jednym węźle sieci, a ruch polega na przeskokach z węzła na węzeł.

Wyobraźmy sobie fotony światła, które poruszają się w całej sieci dzięki przeskokom od jednego węzła do drugiego i tak dalej. Aby foton dotarł do odległej cząstki, musi wykonać wiele przeskoków, a to wymaga czasu. A teraz pomyślmy o świecie stworzonym w formie sieci, która ma o wiele więcej połączeń. Obiekty będą znajdować się znacznie bliżej siebie w tym sensie, że potrzeba będzie mniej kroków do połączenia przez sieć, a więc mniej czasu na wysłanie sygnału pomiędzy jakimikolwiek węzłami sieci. Jedna z naszych zasad nowej kosmologii określa, że nic nie powinno oddziaływać, gdy samo nie podlega oddziaływaniu. Jeśli sieć wpływa na to, jak cząstka ma się poruszać, czy także powinna podlegać zmianom powodowanym przez to, jak rozmieszczone są na niej cząstki? To obraz świata fizycznego nie tak znów bardzo odmiennego od naszego świata połączeń. Świat jest dynamiczną siecią związków; wszystko, co żyje na sieci, i sama jej struktura, podlega ewolucji. W taki oto sposób wyobrażony został świat w podejściu do grawitacji kwantowej niezależnej od tła. Teoria pętlowej grawitacji kwantowej jest najstarszym i najlepiej rozwiniętym niezależnym od tła

podejściem do grawitacji kwantowej, i dlatego zaczniemy omówienie od niej. W jej opisie przestrzeń jest dynamiczną siecią związków. Typowy stan kwantowy geometrii przestrzeni jest przedstawiany w formie grafu – to znaczy figury składającej się z wielu krawędzi, które łączą węzły albo wierzchołki (zobacz rysunek 14). Krawędzie (które wskazują pewne pierwotne związki pomiędzy węzłami) mają etykiety określające relacje pomiędzy łączącymi je węzłami. Etykiety te można traktować jak zwykłe liczby całkowite, po jednej liczbie dla każdej krawędzi. (Węzły mają także etykiety, ale o bardziej złożonym opisie, którego nie będę tu przytaczać, aby nie stwarzać kłopotu czytelnikowi).

Rysunek 14. Typowy stan kwantowy geometrii przestrzeni, ukazany w formie grafu

Przypomnijmy, że w fizyce kwantowej energia atomu jest skwantowana i tylko pewne dyskretne stany z dyskretnymi poziomami energii mają określoną jej wartość. W pętlowej grawitacji kwantowej objętości regionów przestrzeni także są kwantowane, mogą mieć dyskretne wartości objętości. Pola powierzchni też podlegają kwantowaniu140. Pętlowa grawitacja kwantowa daje dokładne przewidywania dla widm objętości i powierzchni. Mają one możliwe do zaobserwowania następstwa – na przykład na ich podstawie da się dokładnie przewidzieć widma hipotetycznego promieniowania emitowanego przez małe czarne dziury141. Weźmy pod uwagę kawałek stali – niech będzie to igła do szycia. Wygląda na bardzo cienką, ale wiemy, że zbudowana jest z atomów ułożonych regularnie. Jeśli będziemy przyglądać się jej strukturze w głąb, aż do poziomu atomowego, ciągłość metalu ustąpi obrazowi dyskretnego ułożenia pewnych bloków – atomów – powiązanych ze sobą w sposób regularny. Przestrzeń także wydaje się „gładka” albo ciągła, ale jeśli pętlowa grawitacja kwantowa jest poprawna, to również ona jest zbudowana z dyskretnych bloków, które można wyobrażać sobie jako „atomy” przestrzeni. Zaobserwowalibyśmy przekształcenie ciągłości

przestrzeni podobne do powyższego opisu, gdyby tylko udało się dotrzeć z eksperymentem aż do skali Plancka. W ogólnej teorii względności, jak już wiemy, geometria przestrzeni jest dynamiczna. Ewoluuje w czasie w odpowiedzi na ruch materii albo propagację fal grawitacyjnych. Jeśli zaś rzeczywiście geometria w skali Plancka jest skwantowana, to zmiany dokonujące się w geometrii przestrzeni muszą wynikać ze zmian w tej skali. Muszą istnieć, na przykład, oscylacje kwantowej geometrii przestrzeni odpowiadające przemieszczaniu się fal grawitacyjnych. Triumfem pętlowej grawitacji kwantowej jest to, że dynamika czasoprzestrzeni, którą w ogólnej teorii względności opisują równania Einsteina, może w istocie być zakodowana w prostych zasadach ewolucji grafów w czasie142. Ilustruje to rysunek 15.

Rysunek 15. Zasady, według których grafy w pętlowej grawitacji kwantowej ewoluują w czasie. Jak pokazano, każdy ruch może działać na małą część grafu.

Ta odpowiedniość równań Einsteina z ewolucją grafów działa w obie strony. Teorię Einsteina za pomocą odpowiedniej procedury można przekształcić w teorię kwantową. Tę procedurę sprawdzono na wielu różnych teoriach. Stosowanie jej do teorii względności stanowi wielkie matematyczne wyzwanie, ale gdy jest poprawnie przygotowana, prowadzi do obrazu, który teraz opisujemy, ukazującego precyzyjne zasady ewolucji grafów w czasie. Dlatego pętlową grawitację kwantową nazywamy „kwantowaniem” ogólnej teorii względności143. Alternatywnie, rozpoczynając od kwantowych reguł zmiany grafów, możemy zapytać, czy w ramach przybliżenia otrzymamy zasady klasycznej ogólnej teorii względności. To tak, jak byśmy z podstawowych praw rządzących atomami wody wyprowadzali równania opisujące jej przepływ w skali makroskopowej. Takie zadanie nazywane jest otrzymywaniem teorii klasycznej w klasycznej granicy teorii kwantów. Jest ono dość trudne, ale ostatnio otrzymano obiecujące rezultaty w pętlowej grawitacji kwantowej144. Wykorzystano w tym zadaniu podejście do czasoprzestrzeni kwantowej zwane modelem piany kwantowej, w którym sieć będącą tłem geometrii

przestrzeni przyjmuje się za część większej sieci obejmującej przestrzeń i czas. Stąd piana kwantowa stanowi kwantową wersję wszechświata-bloku, w którym przestrzeń i czas tworzą jedną strukturę. Szczególne wrażenie wywiera fakt, że kilka niezależnych rezultatów wskazuje na wyłanianie się ogólnej teorii względności z modelu piany kwantowej. Dodanie materii do geometrii kwantowej jest jeszcze prostsze. Przebiega to tak jak w modelu sieciowym, tyle że teraz sieć może ulegać zmianie. Możemy umieścić cząstki w węzłach sieci, zwanych też wierzchołkami. Będą się one poruszać dzięki przeskokom z węzła na węzeł, wzdłuż krawędzi, tak jak w modelu sieciowym. Gdy spoglądamy na to z oddali, nie widać ani węzłów, ani grafów, w przybliżeniu tylko gładką geometrię. Cząstki wyglądają, jakby poruszały się po całej przestrzeni. Może gdy rzucamy piłkę, w rzeczywistości atomy ją tworzące przeskakują z jednego atomu przestrzeni na inny? Jednak rezultaty wskazujące na wyłanianie się ogólnej teorii względności z pętlowej grawitacji kwantowej, choć bardzo ważne, mają pewne słabe strony. W niektórych wypadkach opis ogranicza się do małego regionu czasoprzestrzeni mającego granicę. Obecność granicy mówi nam, że pętlowa grawitacja kwantowa jest stworzona do opisu małych regionów czasoprzestrzeni i dlatego mieści się w paradygmacie newtonowskim.

W teorii strun istnieją także wyniki wskazujące na wyłanianie się czasoprzestrzeni w ograniczonym regionie – przynajmniej gdy stała kosmologiczna ma ujemną wartość. Pojawiają się one w kontekście dualności istniejącej między ogólną teorią względności a niezależną od skali teorią wymyśloną przez Juana Maldacenę, o której już wspomniałem w rozdziale 14. Jeśli teoria Maldaceny jest poprawna – a wiele rezultatów na to wskazuje – to klasyczna czasoprzestrzeń może wyłonić się wewnątrz regionu, którego granice mają ustaloną klasyczną geometrię. Pętlowa grawitacja kwantowa i teoria strun sugerują więc, że grawitację kwantową można rozumieć jako opis regionów czasoprzestrzeni mających granice, co znaczy, że spełnia ona paradygmat newtonowski. Ich najważniejsze rezultaty powstały w takim samym kontekście, w jakim uprawia się fizykę w pudełku, bez brania pod uwagę możliwości rozszerzenia opisu na teorię całego zamkniętego Wszechświata. Inne założenie pętlowej grawitacji kwantowej prowadzące do wyłonienia się czasoprzestrzeni jest takie, że grafy opisujące kwantową geometrię przestrzeni są ograniczone do tych, które już wyglądają jak dyskretny obraz przestrzeni niskowymiarowej145. W takich wypadkach lokalność przestrzeni polega na tym, że każdy węzeł lub wierzchołek grafu związany jest tylko z małą liczbą innych wierzchołków. Tak jak w środowisku podmiejskim, każdy węzeł ma jedynie

kilku najbliższych sąsiadów. Cząstka musi wykonać wiele przeskoków, aby przemieścić się pomiędzy dwoma daleko położonymi węzłami. Długa podróż zabiera dużo czasu albo wiele informacji na poziomie kwantowym. I stąd wyłania się opis świata ze skończoną wartością prędkości światła. Jednak jest wiele stanów geometrii kwantowej, w których nie występuje taka ładna wersja lokalności. Są grafy, w których każdy węzeł jest związany z każdym innym za pomocą tylko kilku kroków. Jak dotąd pętlowa grawitacja kwantowa nie potrafi objaśnić, jak takie geometrie kwantowe ewoluują. Weźmy pod uwagę dwa wymiary przestrzenne – po prostu duży region na płaszczyźnie, jak pokazano na rysunku 13. Taka płaszczyzna może mieć opis kwantowogeometryczny, przedstawiony na rysunku w postaci grafu. Rozważmy na grafie dwa węzły, którym nadamy nazwę Ted i Mary, odległe od siebie o wiele kroków. Możemy ze starego grafu zrobić nowy, dodając jeszcze jedną krawędź, która łączy bezpośrednio Teda z Mary (zobacz rysunek 16). Tak wygląda geometria kwantowa, w której Ted i Mary są sąsiadami. To tak, jakby właśnie kupili sobie telefony komórkowe; rozdzielająca ich przestrzeń się rozpłynęła.

Rysunek16. Dodanie łącza nielokalnego zaburza lokalność, zbliżając ku sobie dwa oddalone punkty.

Jeśli geometria rzeczywiście jest kwantowa, to być może w naszej obserwowalnej części Wszechświata istnieje 10180 węzłów – to znaczy jeden węzeł przypada na sześcian o krawędzi długości Plancka. Jeśli każdy z nich jest połączony tylko z kilkoma najbliższymi sąsiadami, to geometria kwantowa w dużej skali może wyglądać tak jak geometria klasyczna. Lokalność przestrzeni wyłania się wówczas z konkretnego modelu geometrii kwantowej. W tym wypadku jest mniej więcej tyle samo węzłów co krawędzi, gdyż każdy węzeł jest połączony z kilkoma sąsiadami. Jednak dzięki dodaniu tylko jednej krawędzi do ogromnej liczby krawędzi tworzących geometrię kwantową gwałtownie naruszamy

lokalność przestrzeni, pozwalając ogromnie oddalonym od siebie węzłom, takim jak Ted i Mary, na prawie natychmiastową komunikację ze sobą. Nazywamy to zakłócaniem lokalności, a dodaną krawędź łączem nielokalnym146. Lokalność można zakłócić zadziwiająco łatwo przez dodanie tylko jednego łącza nielokalnego. Pojedyncze nielokalne łącze będzie jedną z 10180 krawędzi wewnątrz obserwowalnego Wszechświata, ale istnieje 10360 miejsc, z którymi można ją połączyć. Gdy dodajemy je losowo do grafu mającego 10180 węzłów, to ze znacznie większym prawdopodobieństwem dodajemy łącze nielokalne niż lokalne, ponieważ liczba sposobów dodania łącza nielokalnego jest znacznie większa niż liczba sposobów wykonania tego lokalnie. Węzeł z jednego końca może być połączony z małą liczbą innych węzłów, jeśli chcemy, aby to było połączenie lokalne. Natomiast jeśli o lokalność nie dbamy, drugi koniec może dosięgnąć każdego innego węzła we Wszechświecie. I znowu przekonujemy się, jakim ogromnym ograniczeniem jest lokalność. Można się zastanowić, ile łączy nielokalnych trzeba dodać w kwantowej geometrii przestrzeni, aby dało się zaobserwować pojawienie jakiegokolwiek efektu w świecie makroskopowym. Ponieważ zwykłe cząstki mają kwantową długość fali wiele rzędów większą niż długość Plancka, bardzo małe jest

prawdopodobieństwo, aby foton o widzialnej długości fali mógł bezpośrednio przeskoczyć od Teda do Mary. Oszacowania sugerują, że można dodać około 10100 łączy lokalnych, zanim w eksperymencie makroskopowym zaobserwowano by komunikację szybszą od światła. To ogromna liczba (ale daleko nie taka jak 10180). Mimo to gdzieś we Wszechświecie węzły połączone nielokalnie mogłyby być całkiem powszechne; średnio może być ich kilka w jednym nanometrze sześciennym przestrzeni. Gdy już zezwolimy na połączenia nielokalne, to pojawia się ogromnie wiele sposobów zakłócania lokalności. Może być także kilka węzłów połączonych z wieloma innymi. Te bardzo towarzyskie węzły działałyby podobnie do plotek w sieci społecznościowej, rozsiewając na skróty wiele informacji po całym Wszechświecie. Czy Wszechświat mógłby być pełen takich nielokalnych połączeń? Jak można wykryć ich istnienie? Oczywiście splątanie i inne przejawy nielokalności teorii kwantów są przykładami zakłóconej lokalności. Być może opis na poziomie fundamentalnym – na którym nie ma przestrzeni, tylko sieć oddziaływań, a wszystko jest ze sobą wzajemnie połączone – jest teorią zmiennych ukrytych, której istnienie postulowałem w rozdziale 14. Jeśli tak jest, to teoria kwantów i przestrzeń wyłoniłyby się wspólnie147.

Inna hipoteza (tylko umiarkowanie szalona) zakłada, że łącza nielokalne wyjaśniają zagadkową ciemną energię, która zwiększa tempo rozszerzania się Wszechświata148. Jeszcze bardziej śmiała, ale mniej prawdopodobna hipoteza sugeruje, że mogą one wytłumaczyć ciemną materię149. A jeszcze bardziej szalona hipoteza zakłada, że cząstki naładowane elektrycznie są niczym innym jak końcami łączy nielokalnych150. Przypomina to starą ideę Johna Wheelera, że naładowane cząstki mogą być gardzielami tuneli czasoprzestrzennych, które (hipotetycznie) łączą bardzo odległe położenia w przestrzeni. Linie pola elektrycznego zazwyczaj kończą się na naładowanej cząstce, ale może się także wydawać, że kończą się gardzielą tunelu czasoprzestrzennego, gdyż (przypuszczalnie) przeskakują tunelem do przeciwnej gardzieli i tam się ujawniają. Jeden koniec tunelu mógłby odgrywać rolę ładunku dodatniego, a drugi ujemnego 151. Łącze nielokalne może działać podobnie: chwytać w pułapkę linię pola elektrycznego oraz wyglądać jak cząstka i bardzo odległa od niej antycząstka (zobacz rysunek 17).

Rysunek 17. Łącze dalekozasięgowe w postaci tunelu czasoprzestrzennego chwyta w pułapkę linię strumienia elektrycznego. Wydaje się, że wokół jednej z gardzieli tunelu czasoprzestrzennego powstaje pole elektryczne w punkcie, który ma wygląd ładunku elektrycznego.

Gdyby jeden z wyżej wymienionych pomysłów okazał się prawdziwy, to mała liczba połączeń nielokalnych

mogłaby być nawet korzystna, ale jeśli byłoby ich zbyt dużo, to wyłonienie się przestrzeni stałoby się problematyczne. Nazywa się to zagadnieniem odwrotnym. Łatwo przybliżyć konkretną gładką powierzchnię dwuwymiarową – powiedzmy powierzchnię kuli – siecią trójkątną (zobacz rysunek 18). Taki graf nazywany jest triangulacją powierzchni. Tak właśnie uczynił Buckminster Fuller, gdy wymyślił kopułę geodezyjną i przez pewien czas krajobraz był usiany tymi kopułami, aż przypomniano sobie zalety kwadratowych pokoi. Teraz rozważmy zagadnienie odwrotne. Przypuśćmy, że otrzymujecie dużo trójkątów z zadaniem zbudowania jakiejś struktury przez sklejanie ich krawędziami. Nie podano wam żadnej instrukcji, po prostu macie stworzyć powierzchnię, dobierając trójkąty losowo. To mało prawdopodobne, byście w ten sposób skonstruowali powierzchnię sferyczną. Najprawdopodobniej otrzymacie dziwne kształty, takie jak na rysunku 19 – z pikami albo jeszcze bardziej skomplikowane, coś bez ładu i składu.

Rysunek 18. Triangulacja gładkich powierzchni dwuwymiarowych

Rysunek 19. Szalone geometrie powstałe na skutek zlepiania trójkątów krawędziami

Otóż za pomocą zlepianych krawędziami trójkątów można otrzymać znacznie więcej dziwnych kształtów niż ładnych dwuwymiarowych powierzchni sferycznych. Z tych wszystkich podejrzanych form wystaje struktura atomowa, ponieważ występuje duża złożoność w skali pojedynczych trójkątów. Nie wyłania się tu jakaś ładna przestrzeń. Rezultaty wskazujące na wyłanianie się ogólnej teorii względności z pętlowej grawitacji kwantowej są nieosiągalne dla zagadnienia odwrotnego, ponieważ opierają się na konkretnym wyborze grafów

powstających w czasie triangulacji przestrzeni. Wywierają one wielkie wrażenie, ale nie mówią, jak opisać ewolucję bardziej ogólnych grafów, które miałyby wiele łączy nielokalnych. Raz jeszcze przekonujemy się, jak ograniczającą i szczególną cechą jest lokalność przestrzeni. Wynika stąd ważna lekcja. Jeśli przestrzeń wyłania się ze struktury kwantowej, to musi istnieć jakaś zasada albo oddziaływanie powodujące, że „atomy” przestrzeni grupują się tak, aby możliwa liczba ich ustawień ograniczona była tylko do takich, które „wyglądają” jak przestrzeń. W szczególności preferowane powinno być takie ułożenie, w którym atom przestrzeni sąsiaduje tylko z kilkoma innymi atomami przestrzeni – ponieważ przy losowym ułożeniu wystąpiłoby ono z najmniejszym prawdopodobieństwem. Ogólną kwantową teorię względności przedstawiłem jako konstrukcję uzyskaną za pośrednictwem pętlowej grawitacji kwantowej, ale kwestia zagadnienia odwrotnego nęka też inne podejścia do kwantowej grawitacji, w których pojawia się idea przestrzeni albo czasoprzestrzeni jako struktury atomowej. Wśród nich są: teoria zbiorów kauzalnych, modele macierzowe teorii strun i triangulacja dynamiczna. Atrakcyjne cechy tych teorii motywują uczonych do ich rozwijania, ale każda z nich też jest obarczona zagadnieniem odwrotnym. Główne pytanie, jakie te teorie sobie stawiają, jest

następujące: dlaczego świat realny wygląda jak trójwymiarowa przestrzeń, a nie raczej jak sieć ścisłych powiązań. Aby zdać sobie sprawę z trudności, na chwilę wyobraźmy sobie, że żyjemy w sieci użytkowników telefonów komórkowych. Przestrzeni tu nie ma, a jedyne pojęcie odległości albo sąsiedztwa definiuje to, kto do kogo dzwoni. Jeśli mówisz z kimś przynajmniej raz dziennie, to będziemy uważać was oboje za najbliższych sąsiadów. Im rzadziej dzwonisz do kogoś, tym dalej ta osoba znajduje się od ciebie. A teraz zauważmy, jak odmienne i bardziej elastyczne jest to pojęcie odległości niż pojęcie odległości w przestrzeni. W przestrzeni każdy ma tę samą liczbę potencjalnych najbliższych sąsiadów; w trójwymiarowej, w odróżnieniu od sieci komórkowej, nie może być ich więcej niż sześciu. W sieci komórkowej możesz także być tak blisko albo tak daleko od innego użytkownika sieci, jak tylko chcesz. Jeśli wiem, jak daleko jesteś od 50 000 innych użytkowników, to nic mi to nie powie o twej odległości od 50 001 użytkownika. Ten dodany użytkownik może być kimś obcym albo twoją matką. Natomiast w przestrzeni bliskość jest określona ściśle. Kiedy powiesz mi, kim są twoi najbliżsi sąsiedzi, to wiem, gdzie mieszkasz. Potrafię określić, jak daleko znajdujesz się od innych. W rezultacie potrzeba znacznie więcej informacji do ustalenia, jak połączona jest sieć, niż

do zorientowania się, jak są rozmieszczone obiekty w dwu- albo trójwymiarowej przestrzeni. Aby określić, jak połączonych jest pięć miliardów użytkowników w sieci, potrzeba oddzielnego bitu informacji dla każdej potencjalnej pary użytkowników. Daje to w przybliżeniu 2,5 × 1019. Do opisania położenia na powierzchni Ziemi każdego z tych użytkowników wystarczy zaś podanie dwóch liczb: jego długości i szerokości geograficznej – to znaczy śmiesznie małe 12 miliardów liczb. Jeśli zatem przestrzeń wyłania się na skutek wyłączania połączeń w sieci, to musi zostać zamknięta ogromna liczba potencjalnych połączeń. Jak te połączenia mają być wyłączane? Podejście nazwane quantum graphity wiąże zagadnienie to z energią potrzebną do stworzenia i utrzymania połączeń w sieci. Znacznie mniej energii potrzeba na sformowanie dwuwymiarowej albo trójwymiarowej sieci, jak na rysunku 13, niż na zbudowanie takiej w większej liczbie wymiarów. Sugeruje to prosty obraz bardzo wczesnego Wszechświata. Na początku było bardzo gorąco, i dlatego dostatecznie wiele energii na włączenie wszystkich połączeń. Wczesny Wszechświat był zatem światem, w którym wszystko było połączone ze wszystkim, w odległości najwyżej kilku kroków. Gdy się ochładzał, połączenia zaczynały zawodzić, aż pozostało ich niewiele, tyle by powstała trójwymiarowa sieć. Tak wygląda scenariusz wyłaniania się przestrzeni

(niektórzy z moich kolegów mówią o Wielkim Zamarzaniu, a nie o Wielkim Wybuchu). Proces ten nazwano geometrogenezą152. Geometrogeneza może wyjaśnić pewne zagadkowe cechy warunków początkowych Wszechświata, na przykład to, że mikrofalowe promieniowanie tła przybywa do nas ze wszystkich kierunków z taką samą temperaturą i takim samym spektrum fluktuacji. Tak się dzieje, ponieważ początkowo Wszechświat był bardzo ściśle powiązanym układem. Geometrogeneza zatem jest alternatywą dla hipotezy, że doznał on ogromnej inflacji już na samym początku swego istnienia. Ponieważ diabeł tkwi w szczegółach, w badaniach koncentrujemy się obecnie na zagadnieniu, jak i dlaczego na skutek Wielkiego Zamarzania pojawia się regularna trójwymiarowa struktura, podobna do dwuwymiarowej sieci z rysunku 13, a nie jakaś bardziej chaotyczna153. Okazuje się, że rozwiązanie zagadnienia odwrotnego udziela nam dwóch ważnych lekcji o naturze czasu. Pierwszą jest to, że bardziej prawdopodobne okazuje się wyłonienie z modeli wszechświatów kwantowych, w których istnieje zmienna czasu globalnego. Pokazują to dynamiczne modele triangulacji. Triangulacja polega na budowie powierzchni za pomocą łączenia ze sobą wielu trójkątów, jak w kopule geodezyjnej (zobacz rysunek 18).

W analogiczny sposób można skonstruować trójwymiarową zakrzywioną przestrzeń, łącząc czworościany, które są trójwymiarowymi odpowiednikami trójkątów. Modele triangulacji dynamicznej przyjmują te czworościany za atomy przestrzeni. Geometrię kwantową opisują nie tylko grafy, ale także sklejone ścianami czworościany154. Dzięki odpowiedniemu zbiorowi reguł taka konfiguracja przestrzeni ewoluuje w czasie, formując dyskretną triangulacyjną wersję czterowymiarowej czasoprzestrzeni (zobacz rysunek 20).

Rysunek 20. Reguły ewolucji dla triangulacji powierzchni

Są dwa rodzaje podejść do triangulacji dynamicznej: takie, w których czasoprzestrzeń jest atomizowana

i uważana za emergentną, jak w modelu wszechświatabloku, oraz takie, w których zakłada się pojęcie czasu uniwersalnego i wyłania się tylko przestrzeń. Poza tym konstrukcja przebiega podobnie. W rezultacie koherentna czasoprzestrzeń wyłania się tylko w modelach, w których czas z założenia jest rzeczywisty. Inne modele – te pozbawione czasu globalnego – padają ofiarą zagadnienia odwrotnego: to znaczy są zalewane dzikimi geometriami, zupełnie niepodobnymi do przestrzeni (zobacz rysunek 19). Modele, które rozwiązują zagadnienie odwrotne, znane są jako kauzalne triangulacje dynamiczne, wynalezione przez Ambjørna i Loll. Te emergentne czasoprzestrzenie są częściowo realistyczne, ponieważ mają trzy wymiary przestrzenne i jeden czasowy; niektóre z nich są przedstawione na rysunku 21. Są to pierwsze przykłady wszechświatów kwantowych, które wyglądają jak rozwiązania równań ogólnej teorii względności Einsteina. Nawet wykazują, że objętość przestrzeni zwiększa się w miarę upływu czasu, tak jak wymagają tego równania Einsteina.

Rysunek 21. Typowa geometria czasoprzestrzeni wyłaniająca się z modelu kauzalnej triangulacji dynamicznej155

Pozostaje jednak kilka zagadnień do rozwiązania – na przykład, czy te emergentne czasoprzestrzenie przypominają na tyle szczegółowo rozwiązania ogólnej teorii względności, aby reprodukować takie zjawiska jak fale grawitacyjne czy czarne dziury. Innym wyzwaniem jest zrozumienie, jaki jest los czasu globalnego w tych modelach. Nie rozstrzygnęły one też starego pytania, czy obecność czasu globalnego narusza wielopalczastą

symetrię czasu w ogólnej teorii względności (zobacz rozdział 6). W nowym podejściu sprawdzamy, czy dzięki pewnym korektom modelu możemy uzyskać ogólną teorię względności w formie dynamiki kształtu, która, jak widzieliśmy w rozdziale 14, jest teorią z czasem globalnym równoważną ogólnej teorii względności. Druga lekcja polega na tym, że jeśli przestrzeń jest emergentna, to na najniższym poziomie nie może być względności jednoczesności, ponieważ wszystko jest powiązane ze wszystkim. A skoro można przesłać sygnał między każdym z dwóch węzłów w jednym lub kilku krokach, to nie ma problemu z synchronizacją zegarów. Stąd na tym poziomie czas musi być globalny. Tę lekcję ilustrują rezultaty uzyskane na modelach teorii quantum graphity. Scenerię tworzy tutaj graf z dużą liczbą węzłów, z których każde dwa są ze sobą połączone albo nie. Geometrie kwantowe obejmują wówczas każdy graf, który można wykreślić przez połączenie wszystkich węzłów. Połączenia włącza lub wyłącza prawo dynamiki. Zbadano kilka modeli, w których założono różne prawa włączania i wyłączania krawędzi. Wydaje się, że mają one dwie fazy, analogicznie do dwóch faz wody. Jest faza wysokotemperaturowa, w której prawie wszystkie krawędzie są włączone, tak że każdy węzeł jest połączony z każdym innym w kilku zaledwie krokach. Nie istnieje lokalność, ponieważ informacja może łatwo

i szybko przeskakiwać pomiędzy dwoma węzłami. W tej fazie nie ma czegoś podobnego do przestrzeni. Jeśli zaś oziębi się model, okazuje się, że jest przejście do fazy zamrożonej, w której prawie wszystkie krawędzie są wyłączone. Jak w przestrzeni małowymiarowej, każdy węzeł ma tylko kilku najbliższych sąsiadów i trzeba dokonywać wielu przeskoków pomiędzy większością par węzłów. W modelu quantum graphity można także dołączyć materię. Cząstki żyją na węzłach i mogą przeskakiwać z węzła na węzeł tylko wtedy, gdy krawędź je łącząca jest włączona. Można założyć dynamikę, która spełnia zasadę odwzajemnionego działania realizującego się także w ogólnej teorii względności – zasadę, w której geometria wymusza ruch materii, a materia wymusza ewolucję geometrii. Pewne cechy tych modeli wskazują na wyłanianie się przestrzeni i wykazują zjawiska typu grawitacyjnego, takie jak odpowiedniki czarnych dziur. Te regiony podobne do czarnych dziur nie są trwałe; wyparowują powoli w sposób, który przypomina proces wyparowywania czarnych dziur odkryty przez Stephena Hawkinga. Trzeba jeszcze wielu badań tych propozycji, zanim będziemy mogli stwierdzić, że mogą być one realistyczne – ale już teraz przynoszą korzyść jako modele heurystyczne. Pokazują, że jeśli wszystko jest potencjalnie połączone ze wszystkim, to musi istnieć czas globalny. Względność jednoczesności

w szczególnej teorii względności jest konsekwencją lokalności. Możliwe jest określenie, czy odległe zdarzenia są jednoczesne, ponieważ prędkość światła wyznacza górną granicę transmisji sygnałów. W szczególnej teorii względności jednoczesność można stwierdzić tylko wtedy, gdy dwa zdarzenia zachodzą w tym samym miejscu. Jednak we wszechświecie kwantowym, gdzie każda cząstka jest potencjalnie tylko o jeden krok od każdej innej, wszystko zasadniczo zachodzi „w tym samym miejscu”. W takim modelu nie ma problemu z synchronizacją zegarów, a zatem czas jest uniwersalny. Gdy w takim modelu wyłania się przestrzeń, to razem z lokalnością. Dlatego także pojawia się granica prędkości sygnałów (wykazano to w modelach quantum graphity156). Szczególna teoria względności okazuje się dobrym przybliżeniem, jeśli rozważa się tylko zjawiska w wyłaniającej się przestrzeni i nie sięga w głąb aż do skali atomów czasoprzestrzeni –wzmacnia to główną lekcję udzieloną nam przez modele i teorie opisane w tym rozdziale: Przestrzeń może być iluzją, ale czas musi być realny. Wiedza o grawitacji kwantowej wciąż się rozszerza. Każde z prezentowanych tutaj podejść ma wielką wartość. Uczą nas czegoś istotnego o potencjalnych zjawiskach kwantowograwitacyjnych, które mogą być obserwowane w naturze; uczą nas także o konsekwencjach różnych hipotez, o wyzwaniach, jakie

napotykają, i o strategiach ich przezwyciężania. Bardziej udane podejścia albo mieszczą się w ramach paradygmatu newtonowskiego i spełniają wymagania kwantowej czasoprzestrzeni w pudełku, albo gdy mogą sprostać wyzwaniu kosmologicznemu, wskazują na realność czasu. 134 Gdy wyjaśniliśmy architektom Saucierowi i Perotte’owi, jak wiele przestrzeni potrzebujemy na tablice, zasugerowali, że budynek powinien być w całości pokryty szkłem i płytkami; wówczas moglibyśmy go w całości zapisać. 135 Najnowszy przegląd: J. Ambjørn et al., Nonperturbative Quantum Gravity, arXiv:1203.3591v1 [hep-ph] (2012); Emergence of a 4-D world from Causal Quantum Gravity, „Physical Review Letters” 2004, nr 93, s. 131301 [hep-th/0404156]. 136 Fotini Markopoulou, Space Does Not Exist, So Time Can, arXiv:0909.1861v1 [gr-qc] (2009). 137 Tomasz Konopka, Fotini Markopoulou, Lee Smolin, Quantum Graphity, arXiv:hep-th/0611197v1 (2006); Tomasz Konopka, Fotini Markopoulou, Simone Severini, Quantum Graphity: A Model of Emergent Locality, arXiv:0801.0861v2 (2008); Alioscia Hamma et al. A Quantum Bose–Hubbard Model with Evolving Graph as Toy Model for Emergent Spacetime, arXiv:0911.5075v3 [gr-qc] (2010). 138 Petr Horava, Quantum Gravity at a Lifshitz Point, arXiv:0901.3775v2 [hep-th] (2009). 139 T. Banks et al., M Theory as a Matrix Model: A Conjecture,

arXiv:hep-th/9610043v3 (1997). 140 Eksperci mogą zwrócić uwagę, że objętość i pole powierzchni nie są obserwablami fizycznymi, ponieważ nie są niezmiennicze względem dyfeomorfizmów czasoprzestrzeni. W niektórych wypadkach jednak stają się fizyczne, albo dlatego że są własnościami granicy, w której dyfeomorfizmy są stałe, albo dlatego że cechowanie czasu jest stałe, co pozwala na fizyczny opis ewolucji generowanej przez hamiltonian. 141 Na przykład: Aurelien Barrau et al., Probing Loop Quantum Gravity with Evaporating Black Holes, arXiv:1109.4239v2 (2011). 142 W jakim czasie? Każdej definicji czasu! W pętlowej grawitacji kwantowej czas jest dowolny, jako że jest to kwantowanie ogólnej teorii względności, w której czas może być wybrany dowolnie, odzwierciedlając jego wielopalczastą naturę. 143 W oryginalnym podejściu do pętlowej grawitacji kwantowej graf jest zawarty w trójwymiarowej przestrzeni mającej tylko najprostsze własności. Nic, co da się zmierzyć – na przykład długość albo objętość – nie jest ustalone, ale liczba wymiarów przestrzennych jest stała, tak jak spójność przestrzeni albo topologia. (Przez „topologię” rozumiemy ogólnie wszystko, co trzyma to razem; jest niezmienne, mimo że kształt zmienia się w sposób ciągły). Topologię najlepiej wyjaśnić na przykładach i najłatwiej zwizualizować w dwóch wymiarach. Rozważmy zamkniętą dwuwymiarową powierzchnię. Może być podobna do sfery lub torusa (pączek amerykański). Można w sposób gładki deformować sferę do różnych kształtów, ale nie da się gładko odkształcić sfery w torus. Inne topologie dwuwymiarowych powierzchni mogą przypominać pączki amerykańskie z wieloma dziurami. Gdy ustalimy topologię przestrzeni, możemy rozważać różne

sposoby osadzenia w niej grafu. Na przykład krawędzie grafu mogą być związane ze sobą, splecione lub w jakiś inny sposób połączone. Każdy ze sposobów osadzenia grafu w przestrzeni skutkuje odmiennym stanem kwantowym geometrii (chociaż w najnowszych pracach z dziedziny grawitacji kwantowej grafy są definiowane bez wspominania o jakimkolwiek osadzaniu). 144 Na przykład: Muxin Han, Mingyi Zhang, Asymptotics of Spinfoam Amplitude on Simplicial Manifold: Lorentzian Theory, arXiv:1109.0499v2 (2011); Elena Magliaro, Claudio Perini, Emergence of Gravity from Spinfoams, arXiv: 1108.2258v1 (2011); Eugenio Bianchi, You Ding, Lorentzian Spinfoam ​Propagator, arXiv:1109.6538v2 [gr-qc] (2011); John W. Barrett, Richard J. Dowdall, Winston J. Fairbairn, Frank Hellmann, Roberto Pereira, Lorentzian Spin Foam Amplitudes: Graphical Calculus and Asymptotics, arXiv:0907.2440; Florian Conrady, Laurent Freidel, On the Semiclassical Limit of 4d Spin Foam Models, arXiv:0809.2280v1 [gr-qc] (2008); Lee Smolin, General Relativity as the Equation of State of Spin Foam, arXiv:1205.5529v1 [gr-qc] (2012). 145 W ujęciu matematycznym: dualna triangulacji 3-rozmaitości. 146 Zob.: Fotini Markopoulou, Lee Smolin, Disordered Locality in Loop Quantum Gravity States, arXiv:gr-qc/0702044v2 (2007). 147 Ta idea jest podstawą programu, nad którym pracuję sporadycznie od lat. Zob.: Fotini Markopoulou, Lee Smolin, Quantum Theory from Quantum Gravity, arXiv:gr-qc/0311059v2 (2004). Zob. także: Julian Barbour, Lee Smolin, Extremal Variety as the Foundation of a Cosmological Quantum Theory, ​arXiv:hep-th/9203041v1 (1992); Lee Smolin, Matrix Models as Nonlocal Hidden Variables Theories, ​arXiv:hep-th/0201031v1 (2002); tegoż, Quantum Fluctuations and Inertia, „Physics Letters A” 1986, nr 113:8, s. 408–412; tegoż, On the

Nature of Quantum Fluctuations and Their Relation to Gravitation and he Principle of Inertia, „Classical and Quantum Gravity” 1986, nr 3, s. 347–359; tegoż, Stochastic Mechanics, Hidden Variables, and Gravity, w: R. Penrose, C.J. Isham (red.), Quantum Concepts in Space and Time, Oxford University Press, New York 1986; tegoż, Derivation of Quantum Mechanics from a Deterministic Nonlocal Hidden Variable Theory. 1. The Two-Dimensional Theory, IAS preprint, lipiec 1983, http://inspirehep.net/record/191936. 148 Chanda Prescod-Weinstein, Lee Smolin, Disordered Locality as an Explanation for the Dark Energy, arXiv:0903.5303v3 [hep-th] (2009). 149 Ciemna materia jest hipotetycznym rodzajem materii, która nie wydziela świat​ł a, ale okazuje się niezbędna, aby wyjaśnić ruch galaktyk w zgodzie z prawami Newtona. 150 Lee Smolin, Fermions and Topology, arXiv:gr-qc/9404010v1 (1994). 151 C.W. Misner, J.A. Wheeler, „Ann. Phys. (USA)” 1957, nr 2, s. 525–603, reprint w: Wheeler Geometrodynamics, Academic Press, New York 1962. 152 Fotini Markopoulou, Conserved Quantities in Background Independent Theories, arXiv:gr-c/0703027v1 (2007). 153 Francesco Caravelli, Fotini Markopoulou, Disordered Locality and Lorentz Dispersion Relations: An Explicit Model of Quantum Foam, arXiv:1201.3206v3 (2012); tychże, Properties of Quantum Graphity at Low Temperature, arXiv: 1008.1340v3 (2011); Francesco Caravelli et al., Trapped Surfaces and Emergent Curved Space in the Bose–Hubbard Model, arXiv:1108.2013v3 (2011); Florian Conrady, Space as a Low-

temperature Regime of Graphs, arXiv:1009.3195v3 [gr-qc] (2011). Inne podejście do geometriogenezy zob.: João Magueijo, Lee Smolin, Carlo R. Contaldi, Holography and the Scale-Invariance of Density Fluctuations, arXiv:astro-ph/0611695v3 (2006). 154 Grafy i triangulacje są ściśle związane ze sobą. Dla danej triangulacji można dopasować graf, w którym węzły są czworościanami, a dwa węzły połączone krawędzią, gdy odpowiednie czworościany są połączone ścianami. 155 Rysunek przedstawia kwantowy wszechświat z jednym wymiarem przestrzeni i jednym czasu, zapożyczone za zgodą z: R. Loll, J. Ambjørn, K.N. Anagnostopoulos, Making the Gravitational Path Integral More Lorentzian, or: Life Beyond Liouville Gravity, arXiv:hepth/9910232, „Nuclear Physics B – Proceedings Supplements” 2000, nr 88, s. 241–244. 156 Alioscia Hamma et al., Lieb–Robinson Bounds and the Speed of Light from Topological Order, arXiv:0808.2495v2 (2008).

Rozdział 16

Życie i śmierć Wszechświata Zajmiemy się teraz najważniejszym i najbardziej zagadkowym zagadnieniem dotyczącym Wszechświata: Dlaczego sprzyja powstaniu życia? Zobaczymy, że większa część odpowiedzi na to pytanie wiąże się z realnością czasu. Jeśli czas jest naprawdę realny, to powinny być takie własności Wszechświata, które można wyjaśnić tylko wtedy, gdy założymy, że czas jest pojęciem podstawowym. Te własności powinny się zdawać tajemnicze i przypadkowe, jeśli chodzi o odwrotne założenie – że czas jest emergentny. I rzeczywiście są takie własności, przejawiają się w tym, że nasz Wszechświat ewoluował od postaci prostej do postaci złożonej. Ten proces bardzo silnie ukierunkował czas – mówimy, że Wszechświat ma strzałkę czasu. Kierunkowość jest mało prawdopodobna w świecie, w którym czas jest nieistotny i emergentny. Rozejrzyjmy się wokół. Gołym okiem albo przez

najpotężniejsze teleskopy widzimy, jak Wszechświat jest wysoce zorganizowany i ogromnie złożony. Złożoność jest nieprawdopodobna. Wymaga wyjaśnienia. Nic nie może nagle przeskoczyć od formy prostej do bardzo złożonej. Wielka złożoność wymaga serii stopniowych, małych przemian. One zaś występują w pewnej kolejności, co wskazuje na silne uporządkowanie zdarzeń w czasie. Wszystkie naukowe wyjaśnienia złożoności wymagają istnienia historii, w trakcie której stopień złożoności zwiększa się powoli i stopniowo. To właśnie wspinaczka na szczyt nieprawdopodobieństwa, jak ją nazwał Richard Dawkins157. Wszechświat musi zatem mieć historię, która rozgrywała się w miarę upływu czasu. Wymagany jest także porządek przyczynowoskutkowy, który wyjaśni, jak Wszechświat doszedł do obecnego stanu. Według fizyków dziewiętnastowiecznych, a także pewnych współczesnych kosmologów przywiązanych do bezczasowego obrazu Wszechświata, złożoność, jaką wokół siebie obserwujemy, jest przypadkowa i siłą rzeczy tymczasowa. Zgodnie z ich poglądami Wszechświat zakończy swe istnienie w stanie równowagi. To tak zwana śmierć cieplna Wszechświata, podczas której materia i energia zostanie równomiernie rozłożona w całym Wszechświecie i nic już więcej nie nastąpi, oprócz rzadkich losowych fluktuacji158. Przez

większość czasu losowe fluktuacje będą zanikać tak szybko, jak się pojawiły, nie zmieniając w zasadzie nic. Jak jednak wyjaśnię w tym i następnym rozdziale, zasady umożliwiające powstanie nowej kosmologii z rozdziału 10 pozwolą nam zrozumieć, dlaczego czymś naturalnym i nieuniknionym jest Wszechświat ze wzrastającą złożonością. A zatem widzimy przed sobą dwie drogi, prowadzące do zupełnie różnych wersji przyszłości Wszechświata. W pierwszej wersji nie ma przyszłości, bo nie ma czasu. Czas jest iluzją, która w najlepszym razie stanowi miarę zmiany, iluzją, która zniknie, gdy zanikną zmiany. W obrazie ograniczonym czasowo, który proponuję, Wszechświat jest procesem stwarzającym nowe zjawiska i nowe struktury, które wciąż się odnawiają, gdy sam proces ewoluuje do stanów o coraz większym stopniu złożoności i zorganizowania. Dane obserwacyjne mówią nam jednoznacznie, że Wszechświat staje się bardziej interesujący w miarę upływu czasu. Na początku był wypełniony plazmą pozostającą w stanie równowagi. Z tego najprostszego ze wszystkich początków we wszystkich skalach wielkości wyewoluowała ogromna złożoność, od gromad galaktyk do molekuł biologicznych159. Trwałość i wzrost tej ogromnej struktury oraz jej złożoność wprawiają nas w zakłopotanie, ponieważ uniemożliwiają najprostsze wyjaśnienie, że powstała ona na skutek przypadkowego ułożenia się jej

składników. Przypadek nie doprowadziłby do struktury, która trwa przez miliardy lat, a jej złożoność wciąż wzrasta w miarę upływu czasu. Jak wkrótce wyjaśnię, jeśli złożoność, jaką obserwujemy wokół nas, byłaby przypadkowa, to z całą pewnością w miarę upływu czasu zmniejszałaby się, zamiast wzrastać. Przewidywanie, że Wszechświat umrze śmiercią cieplną, to jeszcze jeden krok poczyniony w kierunku usunięcia czasu z fizyki i kosmologii, bardzo podobny do starożytnej koncepcji, że naturalnym stanem Wszechświata jest brak zmian. Najstarszy pogląd w kosmologii zakładał, że naturalnym stanem jest równowaga – to znaczy, taki, w którym nie powstaje żaden impuls do organizacji, ponieważ wszystko znajduje się już na swoim miejscu. Taka była istota kosmologii Arystotelesa, która, jak opisałem w rozdziale 2, opierała się na fizyce przyjmującej, że każdy byt ma swój ruch naturalny: na przykład ziemia poszukuje centrum, podczas gdy dla powietrza naturalny ruch skierowany jest ku górze. Jedynym powodem zmian wciąż następujących w domenie ziemskiej jest, według Arystotelesa, to, że istnieją także inne przyczyny ruchu, zaliczane do wymuszających ruch, które potrafią wytrącić obiekt ze stanu naturalnego. Ludzie i zwierzęta stanowią źródło ruchu wymuszonego, ale są też inne źródła. Gorąca woda umożliwia powietrzu wejście w nią i dlatego częściowo przyjmuje naturalny kierunek powietrza

ku górze, aż się ochłodzi, a wówczas wydala powietrze i spada w postaci deszczu. Najbardziej podstawowym źródłem tego wymuszonego ruchu jest ciepło słoneczne, które częściowo należy do domeny niebieskiej. Tak czy inaczej źródłem wszystkich ruchów wymuszonych okazuje się Słońce. Gdyby sfera ziemska była rozłączona od niebieskiej i pozostawiona samej sobie, to wszystko wróciłoby do równowagi, do spoczynku w swym naturalnym położeniu, i ustałyby wszelkie zmiany. Współczesna fizyka zakłada inne pojęcie równowagi związane z prawami termodynamiki. Stosuje się ono do fizyki zjawisk w pudełku. Prawa termodynamiki występują w kontekście układu izolowanego, który nie wymienia ze swym otoczeniem ani energii, ani materii. Musimy jednak zachować ostrożność i nie pomylić pojęcia równowagi według Arystotelesa albo Newtona ze współczesnym pojęciem równowagi termodynamicznej. Równowaga według Arystotelesa albo Newtona powstaje na skutek równowagi sił. Na przykład most stoi, ponieważ siły działające na każdy dźwigar i nit są w równowadze. Pojęcie równowagi we współczesnej termodynamice jest zupełnie inne. Ma zastosowanie do układu z wielką liczbą cząstek i istotny związek z pojęciem prawdopodobieństwa. Powinniśmy się upewnić, że rozumiemy pojęcia, zanim będziemy mówić o śmierci cieplnej

Wszechświata. Dotyczy to przede wszystkim zrozumienia, czym jest entropia i drugie prawo termodynamiki. Kluczem do zrozumienia współczesnej termodynamiki jest dostrzeżenie, że zawiera ona w sobie dwa poziomy opisu. Jeden to poziom mikroskopowy, który precyzyjnie opisuje położenia i ruchy wszystkich atomów w każdym konkretnym układzie. Jest to stan mikroskopowy. Drugi stanowi poziom makroskopowy albo stan makroskopowy układu, który jest gruboziarnistym, przybliżonym opisem dokonanym za pomocą kilku zmiennych, takich jak temperatura i ciśnienie w wypadku gazu. Badanie termodynamiki układu wymaga ustalenia związku między tymi dwoma poziomami opisu. Prostym przykładem jest standardowy dom zbudowany z cegieł. Stanem makroskopowym tutaj jest plan architektoniczny, stan mikroskopowy to położenie każdej z cegieł. Architekt tylko wyznacza, gdzie powstaną z cegieł ściany o takich to a takich wymiarach, i z otworami na okna i drzwi. Nie musi już określać, gdzie zostanie ułożona każda z cegieł. Cegły w większości są identyczne, dlatego struktura ściany nie ulegnie zmianie, gdy dwie sztuki zostaną zamienione miejscami. Stąd istnieje wiele stanów mikroskopowych, które dają ten sam stan makroskopowy. Porównajmy to z dziełem architekta Franka Gehry’ego, czyli z Muzeum Guggenheima w Bilbao,

którego fasada składa się z płatów metalu o niepowtarzalnych kształtach. Aby dało się wykonać zakrzywioną powierzchnię dzieła Gehry’ego, każdy arkusz musi być inny; ponadto wielkie znaczenie ma to, w którym miejscu powinien się znaleźć. Budynek nabierze kształtu zaprojektowanego przez architekta tylko wtedy, gdy każdy metalowy kawałek powierzchni znajdzie się dokładnie na swoim miejscu. W tym przykładzie rysunek architektoniczny określa znowu stan makroskopowy, a to, gdzie ma się znaleźć każdy kawałek powierzchni, jest stanem mikroskopowym. W przeciwieństwie do tradycyjnych budynków z cegły tu nie ma możliwości manipulacji stanem mikroskopowym. Tylko jeden stan mikroskopowy tworzy zamierzony stan makroskopowy. Koncepcja liczby stanów mikroskopowych tworzących ten sam stan makroskopowy wyjaśnia, dlaczego budowle zaprojektowane przez Gehry’ego są tak rewolucyjne. Ma ona swoją nazwę, jest nią mianowicie entropia. Entropia budynku jest miarą sposobów, na jakie można poskładać części w całość, aby zrealizować plan architekta. Standardowy budynek z cegły ma ogromną entropię. Budynek Franka Gehry’ego może mieć entropię nawet równą zeru, ze względu na unikatowy stan mikroskopowy160. Na tym przykładzie widzimy, że entropia rośnie, gdy liczba informacji maleje, i na odwrót. Do opisu projektu Gehry’ego potrzeba znacznie więcej informacji,

ponieważ należy dokładnie wyjaśnić, jak wykonana jest każda z najmniejszych części budynku i w którym miejscu ma się znaleźć. Znacznie mniej informacji potrzeba, aby opisać projekt zwykłego budynku z cegły, ponieważ wszystko, co trzeba o nim wiedzieć, to rozmiary jego ścian. Zobaczmy, jak ta metoda działa na bardziej typowym przykładzie z fizyki. Rozważmy pojemnik pełen gazu składającego się z bardzo dużej liczby molekuł. Podstawową rolę odgrywa tu opis mikroskopowy, czyli gdzie znajduje się każda z molekuł i jak się porusza. To ogromna liczba informacji. W drugiej kolejności plasuje się opis makroskopowy, w którym gaz scharakteryzowany jest za pomocą takich pojęć jak gęstość, temperatura i ciśnienie. Określenie gęstości i temperatury wymaga znacznie mniej informacji niż sytuacja, gdy trzeba podać położenie każdego atomu. W związku z tym łatwiej przekształcić opis mikroskopowy na makroskopowy, a nie odwrotnie. Jeśli znamy położenie każdej z molekuł, to znamy gęstość i temperaturę, która jest średnią energią ruchu. Odwrotny proces jest już niemożliwy, ponieważ istnieje ogromna liczba mikroskopowych ułożeń pojedynczych atomów dających tę samą gęstość i temperaturę. Aby przełożyć opis mikroskopowy na makroskopowy, przydaje się policzenie stanów mikroskopowych przypadających na dany stan

makroskopowy. Tak jak w wypadku budynków, liczba ta jest dana przez entropię konfiguracji makroskopowej. Zauważmy, że entropia zdefiniowana w ten sposób jest własnością tylko opisu makroskopowego. Jest ona zatem własnością emergentną. Nie ma sensu określanie entropii konkretnego stanu mikroskopowego układu. Następnym krokiem jest powiązanie entropii z prawdopodobieństwem. Czynimy to przez założenie, które mówi, że wszystkie stany mikroskopowe są jednakowo prawdopodobne. To postulat fizyczny, uzasadniony obserwacją, że atomy poruszają się chaotycznie, co prowadzi do przypadkowości ich ruchu. Im więcej jest sposobów stworzenia stanu makroskopowego z mikrostanów – czyli im większa entropia stanu makroskopowego – tym bardziej prawdopodobna jest jego realizacja. Najbardziej prawdopodobny stan makroskopowy nazywa się stanem równowagi. Równowaga jest także stanem o największej entropii. Podzielmy kota na atomy, z których się składa, i zmieszajmy je losowo razem z atomami zawartymi w powietrzu. Znacznie więcej jest stanów mikroskopowych, w których atomy kota są losowo zmieszane z powietrzem, niż tych, w których kot siedzi na kanapie i mrucząc, liże swe futro. Kot jest najmniej prawdopodobnym ułożeniem atomów w porównaniu z losowym zmieszaniem tych samych atomów z powietrzem, stąd też ma małą entropię i zawiera dużo

informacji. Atomy w gazie, zderzając się, często wykonują ruchy chaotyczne. Gdy dochodzi do zderzenia, oddalają się od siebie w mniej lub więcej losowo wybranym kierunku. Czas więc przestawia stany mikroskopowe. Nawet gdy stan mikroskopowy nie powstaje losowo, to całkiem szybko ulegnie randomizacji. Wskazuje to, że jeśli układ powstanie w stanie innym niż stan równowagi, z małą entropią, to w miarę upływu czasu najprawdopodobniej jego stan mikroskopowy ulegnie randomizacji, co zwiększy entropię. Tak mówi druga zasada termodynamiki. Aby uświadomić sobie działanie tej zasady, rozpatrzmy prosty eksperyment. Potrzebujemy talii kart i kogoś, kto je potasuje. Przyjmijmy, że na początku karty były ułożone w kolejności. Następnie co sekundę, zmieniają swe położenie w talii podczas tasowania. Eksperyment polega na obserwowaniu, co dzieje się z porządkiem kart podczas powtarzającego się tasowania. Karty w talii na początku były ułożone kolejno, ale dalsze tasowania sprawiają, że ich porządek staje się coraz bardziej losowy. Entropia wzrasta. Po wystarczającej liczbie przestawień nie można już odróżnić porządku kart od ich czysto losowego ułożenia; w konsekwencji nie pozostało żadne wspomnienie o porządku początkowym. Ta tendencja do przekształcania się porządku

w nieporządek jest ujęta w formie drugiej zasady termodynamiki, która w powyższym kontekście głosi, że tasowanie talii kart będzie prowadzić do zniszczenia dowolnie wybranego porządku początkowego i zamienienia go w losowe ułożenie. Entropia nie zawsze wzrasta. W każdej chwili tasowanie mogłoby ją zmniejszyć – na przykład przy ułożeniu kart tak, jak na początku. Jednak bardziej prawdopodobne jest to, że w wyniku tasowania uporządkowanej talii kart entropia będzie wzrastać, zamiast maleć. Im więcej kart w talii, tym mniej prawdopodobne jest to, że tasowanie doprowadzi do zupełnego ich pomieszania. Stąd dłuższe będą interwały czasu pomiędzy tasowaniami doprowadzającymi do zupełnego przestawienia kart. Niemniej dopóki w talii jest skończona liczba kart, dopóty istnieje taki interwał czasu, w jakim tasowanie, w tempie jednej karty na sekundę, doprowadzi prawdopodobnie z powrotem do początkowego ich uporządkowania. Ten interwał czasu jest zwany czasem powrotu Poincarégo. Jeśli obserwujemy układ znacznie krócej, niż wynosi czas powrotu, to najprawdopodobniej entropia będzie wzrastać. Poobserwujmy go jednak znacznie dłużej, a być może zauważymy, że entropia będzie się także zmniejszać. Opowieść o roli przypadkowości w procesie tasowania kart może być przełożona na opis gazu. W gazie istnieją uporządkowane konfiguracje atomów,

tak jak istnieją konfiguracje, w których wszystkie atomy znajdują się w jednej części pojemnika i poruszają w tym samym kierunku. Są one analogiczne do uporządkowanej konfiguracji kart. Chociaż jednak istnieją, to są znacznie rzadsze niż konfiguracje, w których atomy są rozłożone losowo w pojemniku i poruszają się w losowo określonych kierunkach. Jeśli rozpoczniemy od takiej konfiguracji, w której wszystkie atomy znajdą się w jednym rogu pojemnika i poruszają się jednakowo, to zobaczymy, że podczas ruchu i zderzeń ze sobą rozproszą się po całym pojemniku, wypełniając go w całości. Po pewnym czasie położenia atomów ulegną całkowitemu przetasowaniu, tak że ich gęstość w pojemniku okaże się jednorodna. W tym samym tempie, dzięki zderzeniom, nastąpi randomizacja ich energii i kierunków ruchu. W końcu większość atomów będzie mieć energię bliską energii średniej, która jest temperaturą. Niezależnie od tego, jak bardzo uporządkowana i niezwykła jest konfiguracja początkowa, po chwili gęstość i temperatura atomów w pojemniku będzie jednorodna i zrandomizowana. To właśnie stan równowagi. Gdy gaz raz osiągnie równowagę, to najprawdopodobniej zostanie już w tym stanie. W tym kontekście druga zasada termodynamiki mówi, że w krótkich interwałach czasu najbardziej prawdopodobna jest dodatnia zmiana entropii, albo przynajmniej brak zmiany. Jeśli startujemy

z konfiguracją spoza stanu równowagi, to zaczynamy z konfiguracją mniej prawdopodobną i ze stanu o mniejszej entropii. Najprawdopodobniej dzięki zderzeniom atomów konfiguracja ulegnie dalszej randomizacji, zatem zwiększy swoje prawdopodobieństwo. Wzrośnie więc entropia układu. Jeśli układ rozpocznie istnienie w stanie równowagi, w którym entropia osiągnęła maksimum swej wartości, ponieważ konfiguracja uległa już randomizacji, to najprawdopodobniej będzie dalej tak trwać. Natomiast w dłuższym okresie pojawią się mało prawdopodobne fluktuacje sprowadzające gaz do bardziej uporządkowanego stanu. Najbardziej prawdopodobne z tych fluktuacji powodują subtelne zmiany, trochę większą gęstość gazu w jednym miejscu, a odrobinę mniejszą w innym. Znacznie mniej prawdopodobne będą takie fluktuacje, które ściągną wszystkie atomy z powrotem do jednego rogu pojemnika, chociaż gdy czas obserwacji jest dostatecznie długi, one także się pojawią. Dopóki ilość atomów jest skończona, dopóty będą się pojawiać fluktuacje prowadzące do każdej konfiguracji, nawet najrzadziej występującej. Nie musimy czekać, aby zobaczyć fizyczny efekt takich fluktuacji. Słynna jest teoria Einsteina, w której wykorzystał je do potwierdzenia istnienia atomów. Przedstawił hipotezę, że ciecz, taką jak wodę, tworzą cząsteczki wykonujące chaotyczne ruchy, i przewidział, jak te ruchy wpłyną na małą cząstkę, taką jak pyłek

kwiatowy, unoszącą się na wodzie. Cząstki tworzące wodę są zbyt małe, aby je zobaczyć, ale ich wpływ na ruch pyłku można już zauważyć pod mikroskopem. Pyłek jest uderzany z wielu stron przez cząsteczki, co powoduje randomizację jego ruchu na powierzchni wody. Dokonując pomiaru energii, z jaką porusza się pyłek, można potem wnioskować, jak wiele cząsteczek w niego uderza w jednostce czasu i z jaką siłą. W jednej ze swych prac z 1905 roku Einstein przewidział własności atomów, szczególnie ich liczbę w gramie wody, co potem potwierdzono eksperymentalnie161. Z tego i wielu podobnych eksperymentów wiemy, że takie fluktuacje są realne; zalicza się je do zjawisk, którymi zajmuje się termodynamika. Fluktuacje rozwiązały główny paradoks komplikujący wczesne badania nad termodynamiką. Początkowo zasady termodynamiki były wprowadzane bez pojęć takich jak atom albo prawdopodobieństwo. Gazy i ciecze uważano za substancje ciągłe, a entropia i temperatura były definiowane bez uwzględniania pojęcia prawdopodobieństwa, tak jakby miały znaczenie podstawowe. W tym początkowym sformułowaniu druga zasada mówiła, że w każdym procesie entropia albo rośnie, albo pozostaje taka sama. Inna zaś przewidywała, że gdy entropia osiąga maksimum, to temperatura układu wszędzie jest taka sama. W połowie XIX wieku James Clerk Maxwell

i Ludwig Boltzmann sformułowali hipotezę, że materia jest zbudowana z atomów poruszających się chaotycznie, i podjęli próbę wyprowadzenia zasad termodynamiki przez zastosowanie statystyki do ruchu wielkiej liczby atomów. Zaproponowali na przykład, że temperatura jest po prostu średnią energią ruchu chaotycznego. Wprowadzili entropię i drugą zasadę termodynamiki w podobnym duchu, jak ja to zrobiłem powyżej. W tamtych czasach większość fizyków nie wierzyła w istnienie atomów. W rezultacie odrzucili wysiłki oparcia zasad termodynamiki na atomowym obrazie materii i wymyślili bardzo mocne argumenty mające świadczyć o tym, że termodynamiki nie można zbudować na analizie ruchu atomów. Jeden z tych argumentów brzmiał tak: prawa, jakim podlega ruch atomów (jeśli w ogóle one istnieją), muszą być odwracalne w czasie (jak omawiałem to w rozdziale 5). Jeśli nagramy ruch grupy atomów zgodny z prawami Newtona i puścimy film wstecz, to także otrzymamy historię zgodną z prawami Newtona. Jednakże druga zasada termodynamiki nie jest odwracalna względem czasu, ponieważ stwierdza, że entropia zawsze wzrasta albo pozostaje niezmieniona, ale nigdy się nie zmniejsza. Nie jest zatem możliwe, jak dowodzili sceptycy, aby prawo, które nie jest odwracalne względem czasu, dało się wyprowadzić z odwracalnych względem niego – tj. z tych, którym podlega ruch

domniemanych atomów. Prawidłowej odpowiedzi udzielili Paul i Tatiana Ehrenfestowie, młodzi badacze, protegowani Boltzmanna, a później także przyjaciele Einsteina162. Wykazali oni błędne sformułowanie drugiej zasady termodynamiki z ery fizyki przedatomowej. Entropia w istocie czasami się zmniejsza, tylko jest to mało prawdopodobne. Jeśli poczekamy dostatecznie długo, fluktuacje od czasu do czasu zredukują entropię układu. Są one więc niezbędną częścią opisu tego, jak pogodzić termodynamikę z istnieniem atomów podlegających prawom odwracalnym względem czasu. Niemniej jednak wydaje się, że nawet poprawny obraz nie daje nadziei, ponieważ każdy układ zamknięty w końcu dojdzie do równowagi – po czym nie będzie już zmian, żadnego rozwoju struktur ani złożoności, tylko wieczna równowaga, w której nic się nie zdarza oprócz losowych fluktuacji. Wszechświat w stanie równowagi nie może być złożony, ponieważ chaotyczne procesy sprowadzające go do tego stanu zniszczą każdą strukturę, lecz nie oznacza to, że złożoność sama w sobie może być mierzona brakiem entropii. Aby w pełni scharakteryzować złożoność, potrzebujemy pojęć spoza zakresu termodynamiki układów równowagowych, a to jest temat następnego rozdziału. Pytanie, dlaczego Wszechświat jest interesujący, staje się jeszcze bardziej zagadkowe, gdy rozpatrujemy

kosmologię z punktu widzenia termodynamiki. W paradygmacie newtonowskim Wszechświatem rządzi rozwiązanie równań pewnego prawa. Można je przybliżyć pewną kombinacją ogólnej teorii względności i Modelu Standardowego, ale szczegóły nie mają tu znaczenia. Rozwiązanie rządzące Wszechświatem jest wybrane z nieskończenie wielu możliwych i może zostać określone przez warunki początkowe w czasie Wielkiego Wybuchu lub tuż po nim. Dowiedzieliśmy się dzięki termodynamice, że prawie każde rozwiązanie praw fizyki opisuje Wszechświat w równowadze, ponieważ z definicji równowagi wynika, iż stanowi ona najbardziej prawdopodobną konfigurację. Inną konsekwencję równowagi stanowi to, że typowe rozwiązanie praw jest symetryczne w czasie – lokalne fluktuacje prowadzące do stanu o większym uporządkowaniu są tak samo prawdopodobne jak te prowadzące do stanu o mniejszym porządku. Puszczanie filmu wstecz wiedzie do historii równie prawdopodobnej i równie symetrycznej w czasie. Można powiedzieć, że nie ma tu globalnej strzałki czasu. Nasz Wszechświat zupełnie nie przypomina tego, który powinien wynikać z powyższych praw. Nawet teraz, więcej niż 13 miliardów lat po Wielkim Wybuchu, nie znajduje się w równowadze. A rozwiązanie, które go opisuje, jest symetryczne względem czasu. Takie własności byłyby ogromnie nieprawdopodobne, gdyby

rozwiązania opisujące nasz Wszechświat miały zostać wybrane losowo. Pytanie, dlaczego jest on interesujący i wręcz staje się coraz ciekawszy, jest zbliżone do pytania, dlaczego druga zasada termodynamiki miałaby teraz zadziałać w celu randomizowania Wszechświata do stanu równowagi cieplnej, skoro miała już na to miliardy lat. Najprostszą oznaką tego, że Wszechświat nie znajduje się w równowadze cieplnej, jest występowanie strzałki czasu. Upływ czasu jest naznaczony silną asymetrią: czujemy i obserwujemy, jak płynie on od przeszłości ku przyszłości. Niezliczone zjawiska świadczą o kierunkowości czasu. Wiele spraw jest nieodwracalnych (wypadek drogowy, źle dobrane słowa wypowiedziane do przyjaciela, któremu brak pewności siebie, rozlana szklanka mleka). Gorąca kawa w kubkach się oziębia, a nie odwrotnie, cukier się w nich rozpuszcza, a nie odwrotnie, upuszczone filiżanki rozbijają się na kawałki, które nigdy same nie złożą się z powrotem. Wszyscy starzejemy się w tym samym kierunku; książki i filmy opowiadające o kimś młodniejącym od starości ku latom dziecinnym są fantazją, nigdy w życiu niezrealizowaną163. W stanie równowagi nie ma czegoś takiego jak strzałka czasu. W tych warunkach porządek może wzrosnąć tylko chwilowo, dzięki losowym fluktuacjom. Te odchylenia od równowagi wyglądają po uśrednieniu

tak samo, gdy przebiegają w czasie w przód, jak i wstecz. Gdyby stworzyć film ukazujący atomy gazu w stanie równowagi, to nie można by było odróżnić, czy jest on puszczony w czasie w przód, czy wstecz. Nasz Wszechświat taki nie jest. Bardzo widoczna w naszym Wszechświecie strzałka czasu wymaga wyjaśnienia, ponieważ podstawowe prawa fizyki są symetryczne względem czasu. Każde rozwiązanie równań praw fizyki ma sprzężone z nim rozwiązanie, które zachowuje się jak to pierwsze, ale na filmie puszczonym wstecz (z drobną subtelnością, że prawa strona jest zamieniona na lewą, a cząstki na swe antycząstki). Podstawowe prawa nie zostaną więc naruszone, jeśli ktoś będzie się starzał w czasie wstecz albo kubki z kawą pozostawione na ladzie będą się ogrzewały, albo rozbite filiżanki będą składały się spontanicznie w całość. Dlaczego zatem te zjawiska nigdy nie zachodzą? I dlaczego te różne asymetrie względem czasu wskazują ten sam kierunek – ku zwiększającemu się nieporządkowi? Ma to swoją nazwę: zagadnienie strzałki czasu. W rzeczywistości w naszym Wszechświecie jest kilka różnych strzałek czasu. Wszechświat rozszerza się, a nie kurczy. Ten proces nazywamy kosmologiczną strzałką czasu. Małe układy Wszechświata pozostawione sobie wraz z upływem czasu dążą do stanu o większym nieporządku

(rozlane mleko, powietrze dążące do równowagi i tak dalej). To termodynamiczna strzałka czasu. Ludzie, zwierzęta i rośliny rodzą się w młodości, rosną, starzeją się, a potem umierają. Ten proces nazywamy biologiczną strzałką czasu. Doświadczamy przepływu czasu z przeszłości ku przyszłości. Pamiętamy przeszłość, ale nie przyszłość. To doznawana strzałka czasu. Jest jeszcze inna – mniej widoczna niż poprzednie strzałki, ale pomimo to stanowiąca ważną wskazówkę. Światło porusza się z przeszłości ku przyszłości. Dlatego światło, które wpada do naszych oczu, daje nam obraz świata przeszłego, a nie przyszłego. To elektromagnetyczna strzałka czasu. Światło powstaje wskutek ruchu ładunków elektrycznych. Porusz ładunek, a światło rozejdzie się wokół, zawsze w kierunku przyszłości, nigdy ku przeszłości. Wydaje się, że dotyczy to fal grawitacyjnych. Jest więc również strzałka czasu fal grawitacyjnych. Nasz Wszechświat w rzeczywistości zawiera wiele czarnych dziur. Czarna dziura jest bardzo silnie asymetryczna względem czasu. Może do niej wpaść wszystko, ale wydobyć się – tylko promieniowanie termiczne Hawkinga. Czarna dziura jest obiektem przyjmującym wszystko i obracającym w gaz fotonów w stanie równowagi. Ten nieodwracalny proces wytwarza ogromne ilości entropii.

A co z białymi dziurami? Te hipotetyczne obiekty są rozwiązaniami równań ogólnej teorii względności otrzymanymi dla czasu odwróconego w czarnych dziurach. Białe dziury zachowują się odwrotnie niż czarne. Nic nie może wpaść do białej dziury, ale wszystko może z niej wylecieć. Biała dziura może wyglądać jak spontanicznie pojawiająca się gwiazda, a taki obraz otrzymamy, puszczając wstecz film z grawitacyjnym kolapsem gwiazdy do postaci czarnej dziury. Astronomowie nie widzieli dotąd nic, co mogliby zinterpretować jako białą dziurę. W naszym Wszechświecie jest coś dziwnego, nawet jeśli zakładamy istnienie tylko czarnych dziur. Zgodnie z równaniami ogólnej teorii względności mógł on zacząć swe istnienie wypełniony czarnymi dziurami. Jednak wydaje się, że we wczesnym Wszechświecie ich nie było, jak wspominaliśmy w rozdziale 11. Wszystkie znane nam czarne dziury zostały raczej uformowane znacznie później, w wyniku zapaści grawitacyjnej masywnych gwiazd. Dlaczego są czarne dziury, a nie ma białych? I dlaczego Wszechświat nie rozpoczął swego istnienia wypełniony czarnymi dziurami? Wydaje się, że istnieje także strzałka czasu czarnych dziur, o której istnieniu świadczy ich brak we wczesnej historii Wszechświata. Czy Galaktyka mogłaby się znajdować po drugiej stronie Wszechświata, gdzie niektóre z tych strzałek zmieniają swój zwrot? Nie ma na to dowodów.

Właściwie moglibyśmy mieszkać we wszechświecie, w którym w pewnych regionach niektóre z tych strzałek czasu zmieniałyby swój zwrot, ale najwidoczniej tak nie jest. Dlaczego? Te bardzo widoczne strzałki czasu to fakty charakteryzujące nasz Wszechświat, które wymagają wyjaśnienia. A każde wytłumaczenie opiera się na założeniu o naturze czasu. Wyjaśnienie zaproponowane przez kogoś, kto wierzy, że czas wyłania się z bezczasowego świata, będzie się różniło od propozycji kogoś, kto jest przekonany, że czas jest pojęciem podstawowym i jest realny. Z powyższym związane jest pytanie o to, czy prawa fizyki są odwracalne względem czasu czy nie. Fakt, że prawa natury są odwracalne względem czasu, może świadczyć o tym, że czas nie jest pojęciem podstawowym, co omawialiśmy w rozdziale 5. Jak mamy wyjaśnić strzałki czasu, jeśli prawa natury są odwracalne względem czasu? Każda ze strzałek reprezentuje asymetrię czasu, jak więc mogą one powstawać z praw symetrycznych względem czasu? Można na to pytanie odpowiedzieć w ten sposób, że prawa działają na warunki początkowe. Prawa mogą być symetryczne względem odwrócenia biegu czasu, ale warunki początkowe nie muszą. Warunki początkowe mogą rozwinąć się w warunki końcowe, które są od nich różne. Faktycznie tak jest: warunki początkowe naszego Wszechświata wydają się doskonale dopasowane

do tego, aby stworzyć wszechświat, który jest asymetryczny względem czasu. Oto przykład. Wydaje się, że wczesne tempo rozszerzania się Wszechświata, ustalone przez warunki początkowe, maksymalizowało produkcję galaktyk i gwiazd. Gdyby było jeszcze większe, to Wszechświat rozrósłby się za szybko, aby mogły powstać galaktyki i gwiazdy. Gdyby zaś było zbyt wolne, to mógłby się zaraz zapaść do osobliwości początkowej, zanim powstały gwiazdy i galaktyki. Tempo ekspansji okazało się idealne dla formowania się niezliczenie wielu gwiazd, i to one dzięki emisji gorących fotonów do zimnej przestrzeni przez miliardy lat utrzymywały Wszechświat z dala od równowagi, co wyjaśnia termodynamiczną strzałkę czasu. Także elektromagnetyczną strzałkę czasu mogą uzasadnić warunki początkowe asymetryczne względem czasu164. Na początku Wszechświata nie było fal elektromagnetycznych. Światło powstało później, dzięki ruchowi materii. Wyjaśnia to, dlaczego gdy spoglądamy wokół, obrazy, jakie niesie światło, dają nam informację o materii we Wszechświecie. Gdybyśmy tylko opierali się na prawach elektromagnetyzmu, mogłoby być inaczej. Równania elektromagnetyzmu pozwalają Wszechświatowi rozpocząć istnienie ze światłem rozchodzącym się swobodnie. To znaczy, że światło powstałoby raczej bezpośrednio podczas Wielkiego Wybuchu, niż zostało później wyemitowane przez

materię. W takim wszechświecie, każdy obraz, który unosiłoby światło od materii, zniknąłby w powodzi światła pochodzącego bezpośrednio z Wielkiego Wybuchu. W takim świecie nie widzielibyśmy gwiazd i galaktyk, gdy patrzylibyśmy wstecz przez teleskopy. Moglibyśmy dostrzec po prostu jakiś chaos. Albo światło powstałe w Wielkim Wybuchu mogłoby nieść obrazy obiektów, których nigdy tam nie było, jak wizje ogrodów ze słoniami przeżuwającymi gigantyczne szparagi. Tak wyglądałby Wszechświat, gdybyśmy nakręcili film o nim w odległej przeszłości i odtworzyli go wstecz. W odległej przyszłości pojawi się wiele obrazów – obrazów rzeczy, które niegdyś istniały. Jeśli zaś puścimy film do tyłu w czasie, zobaczymy Wszechświat wypełniony obrazami tego, co ma się dopiero zdarzyć. Rzeczywiście, światło niosące obraz mogłoby dotrzeć do zdarzenia, które obraz reprezentuje, i zniknąć tam, a to, które widzielibyśmy, mówiłoby tylko o rzeczach mających dopiero nastąpić. Nie żyjemy w takim wszechświecie, ale jeśli rozwiązaniom praw fizyki odpowiadają takie wszechświaty, to moglibyśmy w nim mieszkać. Aby wyjaśnić, dlaczego widzimy tylko rzeczy, które zachodzą albo już zaszły, a nie zobaczymy tych, które mają nastąpić, albo nigdy nie nastąpią, musimy narzucić bardzo ścisłe warunki początkowe. Nie dopuszczą one

do powstawania wszechświata z jakimkolwiek światłem rozchodzącym się swobodnie i niosącym obrazy. To bardzo silny warunek, ale potrzebny do wyjaśnienia elektromagnetycznej strzałki czasu. Podobnie jest ze strzałkami czasu fal grawitacyjnych i czarnych dziur. Jeśli podstawowe prawa są symetryczne względem czasu, to wyjaśnieniem, dlaczego nasz Wszechświat jest asymetryczny, możemy obarczyć wybór warunków początkowych. A zatem trzeba założyć, że na początku we Wszechświecie nie było rozchodzących się swobodnie fal grawitacyjnych, nie było też czarnych ani białych dziur. Podkreślał to Roger Penrose i zaproponował pewną zasadę w celu wyjaśnienia. Nazwał ją hipotezą krzywizny Weyla165. Krzywizna Weyla jest wielkością matematyczną, która nie jest równa zeru w obecności promieniowania grawitacyjnego, czarnych albo białych dziur. Zasada Penrose’a głosi, że w osobliwości początkowej ta wielkość znika. Penrose zauważa, że zgadza się to z tym, co wiemy o wczesnym Wszechświecie. Jest to warunek asymetryczny względem czasu, ponieważ z pewnością nie jest prawdziwy w późniejszych chwilach istnienia Wszechświata. Później zawiera on wiele fal grawitacyjnych i wiele czarnych dziur. Stąd, argumentuje Penrose, aby wyjaśnić Wszechświat, jaki widzimy, należy nałożyć ten warunek asymetryczny względem czasu na wybór rozwiązania równań ogólnej teorii względności (symetrycznych

względem czasu). Potrzeba asymetrycznych warunków początkowych znacznie osłabia argument, że czas jest nierealny, ponieważ prawa natury są symetryczne względem czasu. Nie można zignorować roli warunków początkowych i oświadczyć, że przeszłość jest podobna do przyszłości, gdy warunki początkowe, które trzeba wybrać, aby nawet z grubsza dały zgodność z obserwowanym Wszechświatem, są zupełnie niepodobne do tych, które powstały w wyniku ewolucji166. Całe zadanie wyjaśnienia opiera się na wyborze warunków początkowych. Ponieważ zaś nie znamy żadnego racjonalnego wyjaśnienia tego wyboru, trafiliśmy w ślepy zaułek, pozostawiając bez odpowiedzi najistotniejsze pytanie dotyczące Wszechświata. Istnieje inne, znacznie prostsze rozwiązanie. Wierzymy, że nasze prawa stanowią przybliżenie pewnego bardziej fundamentalnego prawa. A jeśli to głębsze prawo jest asymetryczne względem czasu? Jeśli jest ono asymetryczne względem czasu, to z pewnością taka jest także większość jego rozwiązań167. Nie będzie zatem potrzeby wyjaśniania, dlaczego nigdy nie obserwujemy zwariowanych obiektów, które powstawałyby podczas naturalnych procesów zachodzących w czasie płynącym wstecz, ponieważ po odwróceniu czasu nie byłoby to już rozwiązanie. Zagadka, dlaczego widzimy tylko obrazy pochodzące

z przeszłości, a nie z przyszłości, zostałaby rozwiązana. Fakt bardzo silnej asymetrii Wszechświata względem odwrócenia czasu byłby bezpośrednio ​wyjaśniony asymetrią prawa fundamentalnego. Asymetryczny względem odwrócenia czasu wszechświat nie byłby już mało prawdopodobny, on byłby wymagany. Myślę, że to miał na myśli Penrose, gdy zaproponował swą hipotezę krzywizny Weyla. Kwantowa teoria grawitacji, która w odczuciu Penrose’a powinna być teorią silnie asymetryczną względem odwrócenia czasu, narzuci nam różnicę między fizyką okolicy początkowej osobliwości a fizyką w późniejszym Wszechświecie. Jednakże teoria asymetryczna względem czasu jest nienaturalna, jeśli czas jest emergentny. Jeśli fundamentalna teoria nie będzie zawierać pojęcia czasu, nie będziemy mieli sposobu, aby odróżnić przeszłość od przyszłości. Ekstremalne nieprawdopodobieństwo naszego Wszechświata wciąż wymagałoby wyjaśnienia. Teoria asymetryczna względem czasu jest znacznie bardziej naturalna, gdy czas jest pojęciem podstawowym. Istotnie, trudno o coś bardziej naturalnego niż teoria, która odróżnia przeszłość od przyszłości, ponieważ obie są bardzo odmienne. Asymetryczne względem czasu prawa rządzące asymetrycznym względem czasu wszechświatem są zupełnie naturalne w ramach metafizyki, w której realny jest czas i upływ chwil od przeszłości ku przyszłości.

Realność czasu nabiera więc wiarygodności w tych rozważaniach, ponieważ nie musimy już wyjaśniać, dlaczego istnieje tak ogromnie nieprawdopodobna asymetria Wszechświata względem czasu. Czy możemy mówić o Wszechświecie, że jest mało prawdopodobny? Kilka razy w tym rozdziale tak wypowiadałem się o naszym Wszechświecie albo jego warunkach początkowych – na przykład gdy dowodziłem, że mało prawdopodobne jest, aby Wszechświat rządzony prawami symetrycznymi względem czasu miał strzałkę czasu. Ale co to znaczy twierdzić, że Wszechświat jest mało prawdopodobny? Jest on jeden i zdarza się tylko raz. Jest jedyny w swoim rodzaju. Czy jego właściwościom można przypisywać prawdopodobieństwa? Aby wyjaśnić to nieporozumienie, powinniśmy wiedzieć, co rozumiemy, mówiąc o jakimś układzie, że znajduje się w mało prawdopodobnej konfiguracji. W ramach paradygmatu newtonowskiego ma to sens, ponieważ opis odnosi się do jakiegoś podukładu, który może być jednym z wielu swego rodzaju, ale oczywiście nie może to dotyczyć Wszechświata jako całości. Można próbować zdefiniować prawdopodobieństwo posiadania przez nasz Wszechświat jakiejś szczególnej własności, zakładając, że warunki początkowe zostały wybrane losowo z przestrzeni konfiguracyjnej, lecz wiemy, że takie założenie jest fałszywe. Wiemy, że nasz

Wszechświat nie powstał w wyniku losowego wyboru, na co wskazuje wiele jego własności. Można uniknąć tej zagadki, przyjmując, że jest bardzo wiele wszechświatów. Jednak jak już widzieliśmy w rozdziale 11, są dwa rodzaje teorii wieloświata: takie, w których nasz Wszechświat jest atypowy i stąd równie mało prawdopodobny, jak te stworzone przez wieczną inflację, i takie egzemplifikowane przez kosmologiczny dobór naturalny prowadzący do zbioru wszechświatów, w którym wszechświaty takie jak nasz są prawdopodobne. Jak wyjaśniałem w rozdziale 11, tylko w tych ostatnich możliwe są falsyfikowalne przewidywania dla wykonalnych obserwacji; w teoriach pierwszego rodzaju trzeba korzystać z zasady antropicznej, aby wyselekcjonować nasz typ mało prawdopodobnych wszechświatów, i nie są możliwe przewidywania, dzięki którym hipotezy wspierające ten scenariusz można niezależnie testować. W końcu musimy dojść do wniosku, że twierdzeniu, iż nasz Wszechświat jest mało prawdopodobny, brak empirycznej treści. Cała nauka o termodynamice opiera się wszak na pojęciu prawdopodobieństwa układu mikroskopowego. Stąd wynika, że popełniamy błąd kosmologiczny, gdy stosujemy termodynamikę w rozważaniach o Wszechświecie jako całości168. Jedynym wyjściem, aby uniknąć tego błędu i paradoksu nieprawdopodobnego wszechświata, jest oparcie

wyjaśnień jego złożoności na fizyce asymetrycznej względem czasu – fizyce, w której wszechświat taki jak nasz jest raczej nieunikniony niż nieprawdopodobny. To nie jedyny wypadek, gdy fizycy dochodzą do paradoksalnych ​wniosków, popełniając błąd stosowania termodynamiki do opisu Wszechświata jako całości. Ludwig Boltzmann, który wyjaśnił związek entropii i drugiej zasady termodynamiki, chyba pierwszy zaproponował odpowiedź na pytanie, dlaczego Wszechświat nie jest w równowadze. Nic nie wiedział o rozszerzaniu się Wszechświata ani o Wielkim Wybuchu. W jego koncepcji kosmologicznej Wszechświat był statyczny i wieczny, a ta wieczność trwania stanowiła dla niego wielką zagadkę, ponieważ Wszechświat powinien już osiągnąć równowagę po upływie nieskończonego czasu. Boltzmann myślał, że jednym z powodów jej nieosiągnięcia jest to, że w miejscu Układu Słonecznego i wokół niego doszło niedawno do bardzo dużej fluktuacji, w wyniku której Słońce, planety i otaczające gwiazdy uformowały się spontanicznie z chmury gazowej będącej w równowadze. Obecnie zaś entropia naszego regionu wzrasta, gdy dąży on do równowagi. Była to pewnie najlepsza koncepcja zgodna z wiedzą kosmologiczną końca XIX wieku, lecz okazała się błędna. Wiemy to teraz, ponieważ możemy spoglądać wstecz prawie do czasów samego Wielkiego Wybuchu i odpowiadających mu 13 miliardów lat, i nie widać

żadnych dowodów na to, że nasz region Wszechświata był miejscem fluktuacji o małej entropii w stanie równowagi. Zamiast tego widzimy Wszechświat ewoluujący w czasie, ze strukturami rozwijającymi się w nim w każdej skali podczas ekspansji. Boltzmann mógł tego nie wiedzieć, ale jest pewien argument, który podważa jego wyjaśnienie. Z doświadczenia wynika bowiem, że im mniejsza jest fluktuacja, tym częściej występuje w stanie równowagi. Stąd im mniejszy region wychodzący ze stanu równowagi, tym bardziej jest to prawdopodobne. Astronomowie w czasach Boltzmanna wiedzieli, że Wszechświat ma rozmiar wynoszący przynajmniej dziesiątki tysięcy lat świetlnych i zawiera w sobie wiele milionów gwiazd. Zatem jeśli nasz region przestrzeni poddany był fluktuacji, to byłaby to fluktuacja niezmiernie rzadka – znacznie rzadsza niż inne, mniejsze, które mogłyby nas obejmować. Rozważmy fluktuację obejmującą tylko Układ Słoneczny. Wiemy, że nie jesteśmy w takiej, ponieważ w nocy nie widzimy nic oprócz promieniowania podczerwonego otaczającego nas gazu w równowadze. Zgodnie z założeniami Boltzmanna fluktuacje takie jak tamta powinny występować znacznie częściej w równowagowym wszechświecie, niż wskazuje na to obraz, jaki widzimy – a widzimy miliardy gwiazd pozostających tak samo poza stanem równowagi jak nasz Układ Słoneczny. Z większym

prawdopodobieństwem moglibyśmy się znaleźć we fluktuacji o rozmiarach Układu Słonecznego niż w takiej o rozmiarach Galaktyki169. Kontynuujmy zatem. Większość Układu Słonecznego nie ma związku z naszym istnieniem, stąd bardziej prawdopodobnie znaleźlibyśmy się na Ziemi z gorącą plamą na niebie niż w Układzie Słonecznym ze Słońcem, siedmioma planetami, kometami i całym tym widowiskiem. A to tylko początek. Wszystko, co naprawdę wiemy, to że jesteśmy istotami myślącymi, uświadamiającymi sobie własne istnienie. Niemniej jednak aby stworzyć mózg ze wspomnieniami i obrazami, potrzebna byłaby mniejsza fluktuacja niż ta, która wykreowałaby całą planetę z żywymi istotami orbitującą wokół ogromnej gwiazdy. Fluktuację stwarzającą tylko jeden mózg, pełen wspomnień i doświadczeń urojonego świata, nazwijmy mózgiem boltzmannowskim. A więc istnieje cały zakres możliwości wyjaśnienia naszego nieprawdopodobnego istnienia jako pewnej fluktuacji w wiecznym boltzmannowskim równowagowym wszechświecie. Możemy być we fluktuacji o zasięgu Układu Słonecznego albo Galaktyki, jedną z bilionów istot żyjących na planecie, albo po prostu fluktuacją o rozmiarze mózgu wypełnioną wspomnieniami i obrazami. Ta ostatnia wymaga znacznie mniej informacji – to znaczy mniej zmniejsza entropię – stąd fluktuacje pojedynczych

mózgów pojawiają się znacznie częściej w wiecznym wszechświecie niż te o zasięgu Układu Słonecznego albo Galaktyki zawierające całe populacje mózgów. Nazywamy to paradoksem mózgu boltzmannowskiego. Implikuje on, że w nieskończonym czasie istnieje znacznie więcej mózgów uformowanych przez małe fluktuacje we Wszechświecie niż tych powstających na skutek powolnej ewolucji, które wymagają fluktuacji trwającej miliardy lat. A więc jest ogromnie prawdopodobne, że będąc istotami świadomymi, jesteśmy mózgami boltzmannowskimi. Mimo to wiemy, że nie jesteśmy takimi spontanicznie powstałymi mózgami – bo jeśli jesteśmy, to jest bardziej prawdopodobne, że nasze wspomnienia powinny być niespójne niż spójne. I nie jest także prawdopodobne, aby nasze mózgi przechowywały w sobie obrazy ogromnego Wszechświata wypełnionego wokół nas galaktykami i gwiazdami. Tak więc scenariusz Boltzmanna okazuje się klasycznym reductio ad absurdum. Nie powinniśmy być zaskoczeni, bo popełniliśmy kosmologiczny błąd rozumowania, który doprowadził nas do paradoksalnego wnios​ku. Bezczasowy obraz fizyki oparty na paradygmacie newtonowskim ujawnił swoją niemoc wobec najbardziej podstawowych zagadnień: dlaczego wszechświat jest interesujący i dlaczego interesujące jest to, że takie istoty jak my mogą być tu i temu się dziwić.

Jeśli przyjmiemy realność czasu, możemy stworzyć asymetryczną względem niego fizykę, w której Wszechświat w sposób naturalny może rozwijać swą strukturę i złożoność. W taki sposób unikniemy paradoksu nieprawdopodobnego wszechświata. 157 Richard Dawkins, Wspinaczka na szczyt nieprawdopodobieństwa, przeł. Małgorzata Pawlicka-Yamazaki, Prószyński i S-ka, Warszawa 1998. 158 Fluktuacje to jeden z tych terminów używanych w fizyce, które łatwo mogą wprowadzić laików w błąd. Fluktuacja jest drobną losową zmianą w małej części układu. Może ona łatwo wprowadzić nieporządek w układzie, tak jak kropla farby z pędzla zniszczy starannie wykonany przez artystę portret, lecz czasem przyczyniają się także do wyższego stopnia organizacji układu, gdy na przykład mutacja powstająca na skutek losowej zmiany DNA stwarza zwierzę lepiej dostosowane do warunków. 159 Warto wspomnieć, że cząsteczki organiczne (albo prebiotyczne) odkryto nie tylko na Ziemi, lecz także w meteorytach, kometach i międzygwiezdnych chmurach gazu i pyłu. 160 Ponieważ logarytm z 1 jest równy 0. Ze względów matematycznych zwykle definiujemy entropię jako logarytm z liczby wyrażającej ilość równoważnych mikrostanów. 161 Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen, „Annalen der Physik” 1905, nr (8), s. 549–560.

162 Martin J. Klein, Paul Ehrenfest: The Making of a Theoretical Physicist, Elsevier, New York 1970. 163 Zob. na przykład: Martin Amis, Strzała czasu albo natura występku, przeł. Michał Klobukowski, Muza, Warszawa 1997 albo Ciekawy przypadek Benjamina Buttona, film na podstawie opowiadania F. Scotta Fitzgeralda. 164 Bardzo dziękuję Stevenowi Weinbergowi z Uniwersytetu Waterloo za dyskusję, w której przekonał mnie o ważności elektromagnetycznej strzałki ​czasu. Jego ​artykuł z 2011 roku: Electromagnetism and Time-Asymmetry, ​arXiv:1004.1346v2, bardzo silnie wpłynął na treść następnego ustępu. 165 Roger Penrose, Singularities and Time-Asymmetry, w: S.W. Hawking, W. Israel (red.), General Relativity: An Einstein Centenary Survey, Cambridge University Press, Cambridge, UK 1979, s. 581– 638. 166 Wielu fizyków i filozofów zastanawiało się, czy rzeczywiście jest kilka różnych strzałek czasu. Czy istnienie jednej lub większej ich liczby da się wyjaśnić istnieniem innych? Kosmologiczna strzałka czasu prawdopodobnie nie ma związku z innymi strzałkami. Łatwo wyobrazić sobie wszechświat rozszerzający się tak szybko, że żadna z grawitacyjnie powiązanych form nie miałaby czasu, aby się sformować. Taki wszechświat pozostawałby w wiecznej równowadze i nie miał termodynamicznej strzałki czasu. Stąd sam fakt, że Wszechświat się rozszerza, nie jest wystarczający do wyjaśnienia termodynamicznej strzałki czasu. Łatwo także wyobrazić sobie taki, który rozszerza się do swego maksymalnego rozmiaru, a potem zaczyna się kurczyć. O ile obecnie wiemy, to nie ten, w którym żyjemy, ale są rozwiązania równania ogólnej teorii względności, które symulują takie zachowanie. Byłby to

zatem wszechświat, w którym kosmologiczna strzałka czasu odwróciła się w połowie drogi. Czy termodynamiczna strzałka czasu także by się odwróciła, tak że nagle rozlane mleko starłoby się z podłogi i niczym Humpty Dumpty scaliło na powrót? Twórcy literatury science fiction bardzo lubią wykorzystywać ten motyw, ale nader nieprzekonująco. Biologiczna strzałka czasu natomiast może całkiem dobrze być konsekwencją strzałki termodynamicznej. Starzejemy się, ponieważ, jak stwierdzono, w naszych komórkach zaczyna narastać nieporządek. Strzałką termodynamiczną tłumaczy się także przynajmniej niektóre strzałki doświadczania zmysłowego. Pamiętamy przeszłość, a nie przyszłość, ponieważ pamięć jest formą organizacji, a to zorganizowanie zmniejsza się w kierunku przyszłości – przynajmniej tak się twierdzi. Wreszcie czy da się zredukować termodynamiczną strzałkę czasu do wyboru warunków początkowych? Proponował to Penrose, który dowodził, że jego hipoteza krzywizny Weyla mogłaby wyjaśnić termodynamiczną strzałkę czasu, ponieważ wszechświat bez czarnych i białych dziur na początku ma znacznie mniej entropii, niż miałby, gdyby był nimi wypełniony losowo. Uczony odwołuje się do posiadania przez czarne dziury entropii, zadziwiającego faktu odkrytego przez Jacoba Bekensteina w 1972 roku i rozwiniętego przez Stephena Hawkinga wkrótce potem. Czarne dziury mają ogromną entropię, ponieważ najbardziej nieodwracalnym procesem we Wszechświecie jest wysłanie czegoś poza jej horyzont. W świetle ogromnej entropii czarnych dziur, z którymi mógłby powstać wszechświat, ale nie powstał, ten nasz realny, stworzony bez nich, miał prawie znikomą entropię. Propozycja Penrose’a może odnieść sukces, jeśli zachowamy warunek, że Wszechświat rozszerza się wolno i wystarczająco jednorodnie, aby mogły się uformować wszystkie struktury powiązane grawitacyjnie. Z tej perspektywy wszechświat złożony jest bardzo prawdopodobny, ponieważ większość warunków początkowych prowadziłaby do takiego, który rozpoczął swe istnienie i pozostał w równowadze. Byłby on wypełniony światłem i falami grawitacyjnymi obecnymi od początku i nieniosącymi obrazów przeszłości albo

przyszłości. Czarne dziury i białe dziury dominowałyby od początku. W świecie rządzonym prawami symetrycznymi względem czasu wyjaśnienie, dlaczego żyjemy w złożonym wszechświecie, spoczywa na wyborze bardzo niesymetrycznych względem czasu warunków początkowych. 167 Podstawowe prawo niesymetryczne względem czasu powinno prowadzić do symetrycznych względem niego praw, gdy zostanie przybliżone przez teorię efektywną w warunkach bardzo małych energii i z dala od regionów czasoprzestrzeni mających dużą krzywiznę. Zatem asymetria względem czasu byłaby bardzo wyraźna w bardzo wczesnym Wszechświecie, co wyjaśniałoby potrzebę bardzo asymetrycznych względem czasu warunków początkowych. 168 Zauważmy, że mówimy o własnościach całego Wszechświata, które nie są własnościami jego małego podukładu. Zawsze możemy stosować prawdopodobieństwo do małych podukładów albo regionów Wszechświata, ale nie wyczerpują one wszystkiego, czego chcemy się dowiedzieć o nim całym. 169 Oczywiście, jeśli czas jest nieskończony, to każda skala fluktuacji zdarza się nieskończenie wiele razy. Trudno teraz powiedzieć, że rzadsze fluktuacje zdarzają się rzadziej, ponieważ iloraz dwóch nieskończoności jest nieokreślony.

Rozdział 17

Czas odrodził się z ciepła i światła W ostatnim rozdziale rozważaliśmy jedną z największych zagadek kosmologicznych: dlaczego Wszechświat staje się coraz bardziej interesujący w miarę upływu czasu. Przekonaliśmy się, że próby zmierzenia się z tym problemem oparte na obrazie bezczasowym sugerowanym przez paradygmat newtonowski prowadzą do dwóch paradoksów: stwierdzenia, że nasz Wszechświat jest nieprawdopodobny, i paradoksu mózgu boltzmannowskiego. W tym rozdziale wyjaśnię, jak zasady nowej teorii kosmologicznej, przedstawione w rozdziale 10, pozwolą zrozumieć, dlaczego Wszechświat jest interesujący, i jednocześnie umożliwią uniknięcie tych paradoksów. Rozpoczniemy od prostego pytania: czy Wszechświat może zawierać w sobie dwie identyczne chwile? Fakt istnienia strzałki czasu wskazuje, że każda chwila jest unikatowa. Przynajmniej dotąd Wszechświat

różni się w różnych chwilach; te różnice widoczne są we własnościach galaktyk albo we względnym rozpowszechnieniu pierwiastków. Teraz pytanie jest następujące: Czy ten ciąg chwil jest przypadkowy czy też odzwierciedla jakąś głębszą zasadę? W teoriach opartych na paradygmacie newtonowskim istnienie strzałki czasu okazuje się przypadkowe. W wiecznym wszechświecie będącym w stanie równowagi oczekujemy pojawiania się wielu par identycznych albo podobnych chwil. Istnieje głębsza zasada stwierdzająca, że żadne dwie chwile nie mogą być identyczne. To zasada identyczności rzeczy nierozróżnialnych Leibniza, którą w rozdziale 10 poznaliśmy jako konsekwencję jego zasady przyczyny koniecznej. Reguła ta utrzymuje, że we Wszechświecie nie mogą istnieć dwa obiekty, które byłyby nierozróżnialne, lecz odrębne. Tak dyktuje zdrowy rozsądek. Jeśli obiekty są rozróżnialne tylko dzięki ich obserwowalnym własnościom, to nie może być dwóch rozróżnialnych obiektów, które mają takie same własności. Zasada ta realizuje podstawową ideę Leibniza, że fizyczne własności ciał są relacyjne. Co można powiedzieć o dwóch elektronach, jednym w atomie narzuty, a drugim w kraterze Księżyca, po jego ciemnej stronie? Nie są one identycznymi cząstkami, ponieważ położenie jest jedną z ich własności. Można powiedzieć, że z relacyjnego punktu widzenia są rozróżnialne, gdyż

mają rozróżnialne otoczenia170. Nie istnieje przestrzeń absolutna, dlatego nie ma sposobu, aby stwierdzić, co dzieje się w konkretnym punkcie, bez podania instrukcji, jak ten punkt rozpoznać. Nie możemy więc zlokalizować obiektu w punkcie, dopóki nie mamy jakiegoś sposobu określenia tego miejsca. Jednym ze sposobów jest zauważenie czegoś szczególnego w widoku z tego miejsca. Przypuśćmy, że ktoś twierdziłby, iż dwa obiekty w przestrzeni mają takie same własności i takie same otoczenia. Oznacza to, że odkrylibyśmy w przestrzeni taką samą organizację wszystkiego bez względu na to, jak daleko położone są od siebie badane obiekty. Gdyby zdarzyła się taka dziwna sytuacja, to obserwator nie byłby w stanie odróżnić jednego obiektu od drugiego. A więc żądać, aby świat zawierał dwa identyczne obiekty, to wymóg niemożliwy do spełnienia. Oznacza on, że muszą istnieć dwa identyczne miejsca we Wszechświecie – położenia, z których widok Wszechświata jest taki sam. Wszechświat jako całość jest zatem kształtowany przez pozornie proste żądanie, aby nie zawierał dwóch identycznych obiektów171. Te same argumenty dotyczą zdarzeń w czasoprzestrzeni. Zasada identyczności rzeczy nierozróżnialnych wymaga, aby nie było dwóch zdarzeń w czasoprzestrzeni, które miałyby takie same własności obserwowalne. Ani nie może być dwóch takich samych

chwil. Gdy patrzymy w głąb nocnego nieba, widzimy Wszechświat z konkretnego miejsca i w konkretnej chwili. W tym widoku zawarte są wszystkie fotony docierające do nas z bliska i daleka. Jeśli fizyka jest relacyjna, to te fotony tworzą rzeczywistość właściwą konkretnemu zdarzeniu – to znaczy oglądaniu nieba w danym miejscu i w danej chwili. Zasada identyczności rzeczy nierozróżnialnych mówi wówczas, że widok Wszechświata, jaki obserwator mógłby oglądać z każdego zdarzenia w historii, jest niepowtarzalny. Przypuśćmy, że obcy porwali cię, gdy spałeś, i zabrali w podróż swoim wehikułem czasu. W zasadzie gdybyś się miał obudzić i znaleźć w odległej galaktyce, daleko od domu, to mógłbyś dokładnie poznać swoje położenie we Wszechświecie dzięki sporządzeniu mapy tego, co widzisz, gdy patrzysz wokół. Mógłbyś także stwierdzić dokładnie, kiedy zostałeś przeniesiony w to miejsce. Oznacza to, że Wszechświat nie ma dokładnych symetrii. I rzeczywiście tak jest, jak już wspominaliśmy w rozdziale 10. Wszystkie symetrie postulowane dotąd przez fizyków okazały się albo przybliżone, albo złamane, choć są pomocne w analizie modeli małych części Wszechświata. Zgodnie z zasadą identyczności rzeczy nierozróżnialnych nasz Wszechświat jest tym, w którym każda chwila i każde miejsce w każdej chwili są odróżnialne od innych. Żadna chwila nigdy się nie

powtarza. Gdy zanalizuje się to wystarczająco szczegółowo, dotrze do nas, że każde zdarzenie we Wszechświecie jest unikatowe. W takim Wszechświecie nigdy nie zostaną w pełni zrealizowane warunki potrzebne, aby zrozumieć paradygmat newtonowski. Taka metoda, jak już wspominano, wymaga powtarzania eksperymentów wiele razy, aby stwierdzić ich powtarzalność i aby odróżnić efekty powodowane prawami ogólnymi od tych wynikających z warunków początkowych. Te cele można osiągać w przybliżeniu, ale nigdy się to całkowicie nie uda, ponieważ im więcej szczegółów zauważamy, tym bardziej oczywiste jest to, że żadne zdarzenie ani eksperyment nie może być kopią innego. Pomocne będzie wprowadzenie pojęcia hipotetycznego wszechświata, w którym każde zdarzenie i każda chwila są unikatowe. Wszechświat spełniający zasadę identyczności rzeczy nierozróżnialnych nazwiemy wszechświatem leibnizowskim. Stanowi on wielkie przeciwieństwo tego, jaki wyobrażał sobie Ludwig Boltzmann. W jego wizji kosmologii większość historii Wszechświata dominowały okresy równowagi cieplnej, w których entropia osiągała swoją wartość maksymalną i nie było ani struktury, ani organizacji. Te długie okresy podobne do śmierci są przerywane przez względnie krótkie interwały, w których dzięki fluktuacjom statystycznym pojawiają się struktura i organizacja, a potem

rozpraszają się zgodnie z tendencją wzrastania entropii. Taki wszechświat nazywamy wszechświatem bol​tzmannowskim. Pytanie, od którego zależy przyszłość, brzmi: Czy żyjemy we wszechświecie boltzmannowskim czy leibnizowskim? W tym drugim czas jest realny w takim sensie, że żadna chwila nie jest taka sama jak inne. We wszechświecie boltzmannowskim wiele chwil się powtarza – jeśli niezupełnie dokładnie, to z dowolnym żądanym stopniem dokładności. W przybliżonym sensie większość chwil jest w nim taka sama jak inne, ponieważ wszystkie chwile w stanie równowagi są mniej więcej takie same. Stałe są własności ogólne, takie jak temperatura i gęstość, które wynikają z uśrednienia. To prawda, atomy fluktuują wokół tych wartości średnich, ale prawie nigdy nie zdołają sięgnąć do makroskopowych poziomów struktury i organizacji. We wszechświecie boltzmannowskim po upływie dostatecznie długiego czasu jego konfiguracja może zbliżyć się z dowolną dokładnością do jakiejkolwiek innej. Po uśrednieniu te niemalże powtórzenia odseparowane są od siebie czasem powrotu Poincarégo. A jeśli czas trwa wiecznie, każda chwila powtarza się nieskończenie wiele razy. Wszechświat leibnizowski jest przeciwieństwem wyżej opisanego; z definicji żadna chwila nigdy się nie powtarza. Nasz Wszechświat nie może być jednocześnie boltzmannowski i leibnizowski. Zatem którym z nich

jest? Jeśli czas jest realny, niemożliwe jest wystąpienie dwóch różnych, ale identycznych chwil. Czas w pełni jest realny tylko we wszechświecie leibnizowskim. Wszechświat leibnizowski będzie pełen złożoności, która stwarza szeroki wachlarz form i struktur. I będzie nieprzerwanie podlegał zmianom, co zagwarantuje, że każdą chwilę da się odróżnić od każdej innej dzięki strukturom i formom w nim obecnym. I z pewnością taki jest nasz Wszechświat. Dobrze wiedzieć, że nasz Wszechświat raczej spełnia wielką zasadę identyczności rzeczy nierozróżnialnych, ale nie wyjaśnia to całej tajemnicy. Zasady bowiem nie oddziałują na materię, w przeciwieństwie do praw. Musimy się dowiedzieć, jak zasada, działając przez prawa, zapewnia swoje spełnienie. W pewnym stopniu znamy już tę odpowiedź – wiąże się ona ze specyficznym związkiem grawitacji z termodynamiką. Jeden ze składników naszego współczesnego Wszechświata leibnizowskiego jest prawie w stanie równowagi cieplnej; to kosmiczne mikrofalowe promieniowanie tła – ale jak wiemy, jest ono reliktem wczesnego Wszechświata, powstałym około 400 000 lat po Wielkim Wybuchu. Równowaga rzeczywiście rządzi w ogromnych regionach przestrzeni międzygwiezdnej i międzygalaktycznej, lecz większość Wszechświata jest od niej daleka. Najbardziej pospolitym obiektem

w naszym Wszechświecie są gwiazdy, a te nie są w stanie równowagi względem swego otoczenia. Gwiazda znajduje się w stanie równowagi dynamicznej między ciśnieniem wywołanym reakcjami nuklearnymi zachodzącymi w jądrze, dążącym do jej rozsadzenia a grawitacją, która chce doprowadzić do kolapsu. Może ona osiągnąć to, co Boltzmann nazwałby równowagą, tylko wtedy gdy wyczerpie swoje paliwo nuklearne i zazna spokoju jako biały karzeł, gwiazda neutronowa albo czarna dziura (z tym wyjątkiem, że jako czarna dziura może stać się motorem napędzającym układ akrecji materii). Jednak takie układy nie są w stanie równowagi, ale w dynamicznym stanie stacjonarnym. Gwiazdę można uważać za układ wyprowadzony daleko od równowagi przez stacjonarny przepływ energii. Energia pochodzi z reakcji nuklearnych i potencjalnej energii grawitacyjnej, które powoli są przekształcane w światło z szerokiego zakresu częstości. Światło gwiazd oświetla potem powierzchnie planet, takich jak nasza, oddalając je znacznie od stanu równowagi. To przykład ogólnej zasady172: przepływy energii przez układy otwarte na ogół wymuszają ich przejście do stanu o wyższej organizacji. (Przypomnijmy, „układ otwarty” to każdy układ ograniczony, który może wymieniać energię ze swoim otoczeniem). Możemy nazwać to zasadą samoorganizacji wymuszonej. Jeśli reguła przyczyny koniecznej jest najwyższą władczynią

zasad wyjaśniających naturę, a identyczność rzeczy nierozróżnialnych księżniczką, to zasada samoorganizacji wymuszonej jest dobrym aniołem, który wykonuje drobiazgową pracę wśród niezliczonych gwiazd i galaktyk, aby zapewnić Wszechświatowi różnorodność i złożoność. Wypełnij garnek wodą i postaw go na kuchence. Układ (garnek wraz z wodą) jest otwarty, ponieważ od dna powoli napływa energia, która ogrzewa wodę, zanim przez jej powierzchnię rozproszy się w powietrzu. Upraszczając zagadnienie, nakryjmy garnek pokrywką, co uniemożliwi wodzie wydostawanie się nawet wtedy, gdy zamieni się w parę. Po chwili woda osiągnie stan stacjonarny, w którym ani temperatura, ani gęstość nie pozostają stałe. Temperatura wody jest największa na dnie i zmniejsza się w kierunku powierzchni, gęstość zachowuje się odwrotnie. Energia przepływająca przez wodę wyprowadziła ją ze stanu równowagi. Wkrótce zaczynają się tworzyć struktury: cykle konwekcji, w których woda porusza się w sposób uporządkowany w kolumnach. Cykle wymusza dopływ ciepła od spodu. Ogrzewana woda rozszerza się i przemieszcza w górę w postaci wznoszącej się kolumny. Na powierzchni oddaje część swego ciepła, staje się gęstsza niż otoczenie i tonie, tworząc opadającą kolumnę. A ponieważ nie może wznosić się i opadać w tym samym miejscu, tworzy się struktura kolumn wznoszących się i opadających.

Na skutek stacjonarnego przepływu energii przez układ mogą powstawać złożone formy i struktury, będące dowodem na to, że układ znajduje się daleko od stanu równowagi termodynamicznej. Innym przykładem są utworzone przez wiatr zmarszczki na powierzchni wydmy. A na drugim końcu spektrum złożoności znajduje się życie. Wszystko to jest wynikiem stacjonarnego przepływu energii przez układ. To znaczy, między innymi, że złożone samoorganizujące się układy nigdy nie są izolowane. Przepływy te tworzą układy, które są zdecydowanie leibnizowskie. Istoty żywe przejawiają tendencję do występowania w wielu kopiach, ale każda z nich jest odróżnialna od innych. A im dalej wspinamy się po drabinie złożoności, tym bardziej osobniki są odmienne od innych. To piękna nauka. Sedno rzeczy w tym, że jak już zauważyliśmy w poprzednim rozdziale, drugiej zasady termodynamiki nie można stosować poza układem zamkniętym, zamkniętym w pudełku, które uniemożliwia wymianę materii i energii z otoczeniem. Żaden układ żywy nie jest układem zamkniętym. Wszyscy uczestniczymy w przepływie materii i energii – przepływie, który wymuszany jest aktywnością Słońca. Kiedy już zostajemy zamknięci w pudełku (co ostatecznie zapowiada pochówek), umieramy. A zatem Arystoteles słusznie zrozumiał, że sfera ziemska utrzymywana jest z dala od równowagi

za sprawą płynącej przez nią energii. W wyniku niedostatecznego zrozumienia tej idei niektórzy uczeni i filozofowie dopatrzyli się sprzeczności drugiej zasady termodynamiki z faktem, że dobór naturalny wytwarza coraz bardziej nieprawdopodobne struktury. Nie ma tu sprzeczności, ponieważ prawo wzrostu entropii nie stosuje się do biosfery, która nie jest układem zamkniętym. Dobór naturalny jest mechanizmem samoorganizacji, który może powstać spontanicznie na skutek tendencji do organizowania się układów zasilanych napływem energii z zewnątrz. W kontekście samoorganizacji układów możemy lepiej zrozumieć, jakie własności tworzą złożoność układu. Te o dużej złożoności nie mogą znajdować się w równowadze, ponieważ porządek nie jest przypadkowy, dlatego duża entropia i duża złożoność nie mogą współistnieć. Złożoność układu nie oznacza, że ma on niską entropię. Rząd atomów ułożonych wzdłuż prostej ma niską entropię, ale nie tworzy struktury złożonej. Złożoność lepiej charakteryzuje to, co Julian Barbour i ja nazwaliśmy różnorodnością: układ ma dużą różnorodność, jeśli każda para jego podukładów może być od siebie odróżniona przez minimalną informację o tym, jak są połączone albo powiązane z całością173. Miasto ma dużą różnorodność, ponieważ rozglądając się wokół, możesz z łatwością określić, na jakim rogu ulicy się znajdujesz. W naturze takie warunki na skutek procesów samoorganizacji

powstają w układach dalekich od równowagi. Wszechobecną cechą układów samoorganizujących się jest to, że stabilizują je mechanizmy sprzężenia zwrotnego. Każda istota żywa jest zawiłą siecią procesów sprzężenia zwrotnego, które regulują, kanalizują i stabilizują przepływającą przez nią energię i materię. Sprzężenie zwrotne może być dodatnie, co oznacza, że przyspiesza produkcję czegoś (na przykład pisk ze wzmacniacza, gdy mikrofon jest zbyt blisko mówcy). Ujemne sprzężenie zwrotne powoduje tłumienie sygnału, tak jak w regulatorze temperatury, który włącza piec, gdy dom jest niedogrzany, i wyłącza go, gdy jest zbyt ciepło. Gdy różnorodne mechanizmy sprzężenia zwrotnego rywalizują o wpływ na układ, w przestrzeni i w czasie pojawiają się prawidłowości. Prawidłowości mogą powstać w przestrzeni, gdy dodatnie sprzężenie zwrotne rywalizuje ze sprzężeniem ujemnym, ale oba działają w różnej skali. To podstawowy mechanizm biologicznej samoorganizacji, odkryty przez Alana Turinga174, wytwarzający w embrionie prawidłowości przekształcające się w części ciała, którym zarodek wkrótce się stanie. Ten mechanizm może zadziałać ponownie później, na przykład tworząc wzory na sierści kota albo na skrzydłach motyla. Co widzimy, gdy sięgamy wzrokiem w skali większej niż gwiezdna i planetarna? Gwiazdy są zorganizowane w galaktyki, ponieważ tam powstały. Same galaktyki są

dalekie od stanu równowagi termodynamicznej. Nasza własna galaktyka, Droga Mleczna, jest typową galaktyką spiralną. Zawiera nie tylko gwiazdy, ale także bardzo wiele obłoków gazu i pyłu międzygwiezdnego, z których formują się gwiazdy. Jedną z przyczyn zmian w Galaktyce jest gaz napływający z zewnątrz do dysku galaktycznego. Pył produkują gwiazdy i jest on wstrzykiwany w dysk galaktyczny, gdy obiekty te kończą swe życie w wybuchu jako supernowe. Gaz i pył istnieją w różnych fazach; niektóre są bardzo gorące, a niektóre skondensowane w bardzo zimnych chmurach. Proces samoorganizacji w Galaktyce jest wymuszany przez światło gwiazd – przez przepływ pochodzącej z nich energii. Od czasu do czasu masywna gwiazda eksploduje jako supernowa i dzięki temu do Galaktyki napływa wiele energii i materii. Obserwujemy także strukturę, jaką tworzą galaktyki, formując się w gromady i ściany rozdzielone próżnią. Uważa się, że układy te powstają dzięki ciemnej materii i są scalane jej oddziaływaniem. Tak więc nasz obecny Wszechświat charakteryzuje się strukturą i złożonością w kilku skalach, od organizacji molekuł w komórki organizmów żywych do galaktyk w gromadach. Istnieje w nim hierarchia samoorganizujących się układów, sterowanych przepływającą energią, stabilizowanych i kształtowanych przez procesy sprzężenia zwrotnego. Jak widać, jest to wszechświat znacznie bardziej leibnizowski niż boltzmannowski.

Co widzimy, patrząc w czasie wstecz? Wszechświat ewoluujący od struktur mniej do bardziej rozwiniętych, od równowagi do złożoności. Istnieją podstawy, by wierzyć, że materia i promieniowanie były we wczesnym Wszechświecie blisko stanu równowagi cieplnej. Były one bardzo gorące w stałej temperaturze, która wzrasta, im bardziej cofamy się w czasie. Przed erą rozprzęgnięcia (rozdzielenia fotonów od materii, które nastąpiło około 400 000 lat po Wielkim Wybuchu) materia była w stanie równowagi z promieniowaniem – tę równowagę, o ile wiemy, zaburzały tylko losowe fluktuacje gęstości materii. Cała struktura i złożoność, które dzisiaj obserwujemy, zostały uformowane po oddzieleniu się promieniowania od materii. Zarodkami struktur były małe losowe fluktuacje gęstości, a struktury te rozrastały się w miarę ekspansji Wszechświata. Uformowały się galaktyki, później gwiazdy, potem powstało życie. Nie jest to z pewnością obraz, jaki sugerowałoby naiwne stosowanie drugiej zasady termodynamiki. Druga zasada mówi, że układy zamknięte zwiększają swą randomizację, w miarę upływu czasu stając się coraz bardziej nieuporządkowane, coraz mniej złożone i zorganizowane. Coś zupełnie odwrotnego obserwujemy w historii Wszechświata, w której złożoność wzrastała w miarę formowania się struktur w wielu skalach, z najbardziej skomplikowanymi

powstałymi najpóźniej. Ewoluująca złożoność oznacza czas. Nigdy nie było statycznego układu złożonego. Wypływa z tego ważny wniosek, że Wszechświat ma historię i jest to historia narastającej złożoności pojawiającej się wraz z upływem czasu. Nie tylko zatem nie jest on boltzmannowski, ale z czasem staje się coraz mniej i mniej boltzmannowski. Nie anuluje to drugiej zasady termodynamiki. Druga zasada stosuje się do układów zamkniętych i takich, które w miarę upływu czasu dochodzą do stanu równowagi. Ponadto formowanie się złożoności jest w istocie zgodne ze wzrostem entropii, o ile wzrost entropii i pojawienie się złożoności następują w innych miejscach. Biosfera Ziemi organizuje się sama od czterech miliardów lat, od momentu pojawienia się życia na naszej planecie. Ta wzrastająca organizacja wymuszana jest przepływem energii ze Słońca, dostarczanej w przeważającej części w postaci fotonów światła widzialnego, wychwytywanego w fotosyntezie zachodzącej w roślinach. Fotosynteza zamienia energię fotonów na energię wiązań chemicznych. W tej postaci energia może przyspieszać reakcje chemiczne, w wyniku których na przykład mogą powstać białka. Energia przepływa przez biosferę i w końcu jest wypromieniowana w otaczającą przestrzeń w postaci ciepła, jako fotony promieniowania podczerwonego. Następnym działaniem tych fotonów może być ogrzanie

drobin pyłu znajdującego się w Układzie Słonecznym. Pojedynczy kwant energii mógł obniżyć entropię biosfery, będąc katalizatorem powstania złożonej molekuły, ale po wypromieniowaniu w przestrzeń jako światło podczerwone podnosi jedynie entropię całości Układu Słonecznego. W dłuższej skali czasu może to być zgodne z drugą zasadą termodynamiki, jeśli wzrost entropii spowodowany nagrzaniem drobiny pyłu w przestrzeni jest większy niż jej spadek wywołany powstaniem wiązania molekularnego. Jeśli więc będziemy uważać Układ Słoneczny za układ zamknięty, to fakt trwającej samoorganizacji w jego częściach jest zgodny ze wzrostem całkowitej entropii. Układ jako całość próbuje przejść do równowagi i zwiększa swą entropię tam, gdzie może. Druga zasada stara się doprowadzić Układ Słoneczny do stanu równowagi, ale dopóki istnieje ogromna gwiazda wypromieniowująca gorące fotony w zimną przestrzeń, dopóty ta równowaga nie następuje. Gdy zaś jej nie ma, molekuły mogą przenosić ten przepływ energii na coraz wyższe stany uporządkowania i złożoności. Gwiazdy świecą i płoną przez miliardy lat, co oznacza, że złożoność ma jeszcze dużo czasu na rozprzestrzenianie się. Istnienie gwiazd ma wielki wpływ na to, że Wszechświat po prawie 14 miliardach lat istnienia daleki jest od stanu równowagi. Dlaczego więc są tam gwiazdy? Jeśli Wszechświat musi dążyć w kierunku wzrostu entropii i nieporządku, to

dlaczego gwiazdy, które powodują, że jest on tak daleki od równowagi, są tak wszechobecne? Ujmując to inaczej, jeśli Wszechświat ma być leibnizowski, coś takiego jak gwiazdy musi istnieć. Jakie cechy praw natury to powodują? Fizyka gwiazd opiera się na dwóch niezwykłych cechach praw natury. Pierwszą jest niesamowicie dobre dopasowanie parametrów rządzących fizyką. Te prawie idealne dopasowania dotyczą mas cząstek elementarnych i natężeń czterech podstawowych oddziaływań przyrody. Umożliwiają one syntezę jądrową, stąd wodór w stanie gazowym zawarty w gwiazdach nie zachowuje się tak, jak gdyby nie było sił jądrowych. Zamiast po prostu poruszać się chaotycznie, atomy wodoru ściśnięte razem w jądrze gwiazdy oddziałują ze sobą w nowy sposób. Łączą się, aby stworzyć hel i kilka innych lekkich pierwiastków. Wyobraź sobie, że jesteś uwięziony w celi i dzień za dniem pozostajesz w tej samej nudnej równowadze. Każda godzina jest taka sama jak wszystkie inne. A potem nagle otwierają się drzwi, których przedtem tam nie było, i uciekasz w całkiem nowy świat. Prawa termodynamiki stosowane do pospolitych atomów nigdy by nie przewidziały syntezy jądrowej i nowych możliwości, jakie ona stwarza. Druga niezwykła cecha ma związek z zachowaniem układów ściskanych siłami grawitacji. Po prostu grawitacja obala nasze naiwne pojęcie o termodynamice.

Zgodnie z codzienną obserwacją i z drugą zasadą termodynamiki ciepło przepływa od ciała gorętszego do ciała zimniejszego. Lód topnieje. Woda w garnku wrze. Ciepło przestaje przepływać, gdy temperatura dwóch ciał jest taka sama, gdyż osiągnęły stan równowagi termodynamicznej. Zazwyczaj jeśli odbieramy ciału energię, to jego temperatura maleje, a kiedy ją dostarczamy – rośnie. Stąd gdy ciepło przepływa od ciała cieplejszego do zimniejszego, to cieplejsze się ochładza, a zimniejsze ogrzewa. Zachodzi to dopóty, dopóki oba ciała nie osiągną tej samej temperatury. To dlatego temperatura powietrza w pokoju jest wszędzie taka sama. W przeciwnym razie energia przepływałaby z miejsc gorętszych do zimniejszych, aż do chwili osiągnięcia takiej samej temperatury. Dzięki temu zachowaniu układy w równowadze są stabilne wobec działań małych fluktuacji. Przypuśćmy, że dzięki małej fluktuacji jedna strona pokoju staje się cieplejsza niż druga. Energia przepływałaby wówczas z cieplejszej strony, chłodząc ją, na stronę zimniejszą, ogrzewając ją, tak że wkrótce temperatura powietrza byłaby znowu stała w całym pomieszczeniu. W większości układów ten intuicyjny obraz działa, ale nie we wszystkich. Wyobraźmy sobie, że jest gaz, który zachowuje się inaczej – ochładza się, gdy otrzymuje energię, i ogrzewa, gdy energię oddaje. Może to przeczyć intuicji, ale są takie gazy. Jednak muszą być niestabilne.

Przypuśćmy, że mamy taki typ gazu w pokoju w stałej temperaturze. Mała fluktuacja przesuwa trochę energii z lewej strony na prawą. Wówczas lewa strona się ogrzewa, a prawa ochładza. Powoduje to dalszy przepływ energii z lewej na prawą, ze strony cieplejszej na stronę zimniejszą. Lewa strona wcale się nie oziębia, raczej przeciwnie, ogrzewa. A w miarę przepływu energii na stronę zimniejszą prawa staje się jeszcze bardziej chłodna. Wkrótce mamy niekontrolowaną niestabilność, która doprowadza do ciągłego wzrostu różnicy temperatur. A teraz przypatrzmy się tej gorętszej stronie i powtórzmy cały scenariusz. Przypuśćmy, że pojawia się następna fluktuacja, oziębiając troszeczkę centrum strony ciepłej. To samo zjawisko działa jak dodatnie sprzężenie zwrotne, aby dalej ochładzać centrum i ocieplać region wokół niego. Gdy czas płynie, mała fluktuacja urasta już do własności i proces ten może powtarzać się raz za razem, dzięki czemu wkrótce mamy skomplikowaną strukturę zimnych i ciepłych regionów. Układ, który się tak zachowuje, w sposób naturalny wymusza powstanie w nim złożonych struktur. Trudno przewidzieć, do czego dojdzie w takim układzie, ponieważ istnieje ogromna liczba różnorodnych konfiguracji, do których może on ewoluować. Układy takie nazywamy antytermodynamicznymi. Druga zasada wciąż się do nich stosuje, ale ponieważ dostarczanie energii schładza je, stan, w którym gaz jest jednorodnie

rozprzestrzeniony, jest bardzo niestabilny. Układ scalany siłami grawitacji zachowuje się właśnie w taki szalony sposób. Gwiazdy, układy słoneczne, galaktyki i czarne dziury są układami antytermodynamicznymi. Ochładzają się, gdy otrzymują energię. Oznacza to, że wszystkie te układy są niestabilne. Niestabilność wyprowadza je daleko od jednorodności i stymuluje formowanie się struktur w czasie i przestrzeni. Ma to duży związek z tym, że Wszechświat nie jest w stanie równowagi od swego początku, który nastąpił 13,7 miliarda lat temu. Wzrastającą złożoność i strukturę, które charakteryzują historię Wszechświata, w dużej części wyjaśnia fakt, że wypełniające go układy związane grawitacyjnie, od gromad galaktyk do gwiazd, są antytermodynamiczne. Łatwo pojąć, dlaczego takie układy są antytermodynamiczne. Grawitację od innych sił odróżniają dwie podstawowe cechy: siła grawitacyjna jest (1) długozasięgowa i (2) powszechnie przyciągająca. Rozważmy planetę orbitującą wokół gwiazdy. Jeśli dostarczymy energię, to przejdzie ona na orbitę dalszą od gwiazdy, gdzie będzie się poruszać wolniej. Zwiększanie energii redukuje zatem prędkość planety, a to zmniejsza temperaturę układu – ponieważ temperatura jest po prostu średnią prędkością obiektów w układzie. Na odwrót, gdy zabierzemy energię układowi słonecznemu, planeta musi odpowiedzieć

opadnięciem na bliższą gwiazdy orbitę, gdzie będzie się poruszać szybciej. Zabieranie energii ogrzewa więc układ. Możemy porównać to z zachowaniem atomu, który w całości utrzymują siły elektryczne działające pomiędzy ładunkami. Podobnie jak grawitacja, siła elektryczna działa na dużych odległościach, ale różni się tym, że przyciąga tylko ładunki różnoimienne. Dodatnio naładowany proton będzie przyciągał ujemnie naładowany elektron, ale gdy elektron zostanie związany z protonem, to powstały w ten sposób atom już jest elektrycznie obojętny. Mówimy, że nastąpiło nasycenie siły i atom nie przyciąga innych cząstek do siebie. Układ Słoneczny działa odwrotnie, ponieważ gdy gwiazda przyciągnie kilka planet, powstaje układ, który silniej niż samotna gwiazda wyłapuje przelatujące obok niego ciała. A zatem jest tu jeszcze jedna niestabilność – układ grawitacyjnie związany wciąż będzie do siebie przyciągał więcej ciał. To antytermodynamiczne zachowanie przejawia się w degeneracji gromad gwiezdnych. Gdyby gromada miała działać zgodnie z termodynamiką, to osiągnęłaby stan równowagi – w tym wypadku byłby to stan, w którym wszystkie gwiazdy miałyby tę samą średnią prędkość i pozostały zgromadzone na wieczność. Zamiast tego gromada gwiazd powoli się rozprasza. Dzieje się to w bardzo interesujący sposób. W pobliżu gwiazdy podwójnej – to znaczy dwóch gwiazd

orbitujących wokół siebie – co jakiś czas przelatuje inna gwiazda. Takie zbliżenie może spowodować zawężenie orbity gwiazdy podwójnej. Skutkuje to uwolnieniem energii, która jest przekazywana trzeciej gwieździe. Teraz trzecia gwiazda uzyskuje energię wystarczającą do ucieczki z gromady i rozpoczyna swą podróż w przestrzeń. Po długim czasie po gromadzie gwiezdnej pozostaje niewiele poza kilkoma gwiazdami podwójnymi krążącymi po bliskich orbitach i chmurą innych, szybko uciekających z gromady. Nie przeczy to drugiej zasadzie termodynamiki, tylko jej naiwnej interpretacji. Prawo mówiące, że entropia zwykle powinna wzrastać, po prostu kodyfikuje truizm, że im więcej jest sposobów, aby zaszło jakieś zjawisko, tym bardziej jest prawdopodobne, iż ono zajdzie. Normalne układy termodynamiczne kończą w pojedynczym, nudnym stanie jednorodnej równowagi; grawitacyjnie związane układy antytermodynamiczne zaś w jednym z wielu bardzo różnorodnych stanów. Tak więc fakt, że nasz Wszechświat jest interesujący, ma potrójne wyjaśnienie: zasada wymuszonej samoorganizacji działa w niezliczonych podukładach i skalach, od molekularnej do galaktycznej, dokonując ich ewolucji do stanów ze zwiększającą się złożonością. Motorem tego wymuszającego procesu są gwiazdy, które istnieją dzięki kombinacji dwóch czynników, doskonałego dostrojenia praw podstawowych i antytermodynamicznej natury grawitacji. Niemniej

jednak te siły mogą stworzyć wszechświat wypełniony gwiazdami i galaktykami tylko wtedy, gdy jego warunki początkowe są silnie asymetryczne względem czasu. Wszystko to można ująć i do pewnego stopnia zrozumieć w ramach paradygmatu newtonowskiego, ale jeśli dalej będziemy się nim posługiwać, to organizacja świata będzie się opierać na ogromnych nieprawdopodobieństwach – ekstremalnie niezwykłym doborze praw i warunków początkowych. Z perspektywy paradygmatu newtonowskiego można dojść do bardzo smutnego wniosku, że jedynym wszechświatem, który wydaje się naturalny, jest martwy wszechświat w stanie równowagi termodynamicznej, oczywiście nie ten, w którym my żyjemy. Natomiast z perspektywy realności czasu to zupełnie naturalne, że Wszechświat jest asymetryczny względem czasu, i takie są jego prawa podstawowe, iż istnieje silna strzałka czasu, która obejmuje wzrost entropii w układach zamkniętych razem ze stałym wzrostem struktury i złożoności. 170 Czytelnik może spytać, czy leibnizowska zasada identyczności rzeczy nierozróżnialnych przeczy statystyce Bosego, w której bozony mogą przebywać w tym samym stanie kwantowym. Odpowiem krótko: dłuższy wywód można znaleźć w dodatkach on line, zasada Leibniza zabrania dwóm zdarzeniom mieć taką samą wartość oczekiwaną pól kwantowych. 171 Jak wykazuję w rozdziale 10, to powoduje, że Wszechświat nie może być doskonale symetryczny.

172 Więcej o samoorganizacji traktują książki Baka, Kauffmana i Morowitza wyszczególnione w bibliografii. Jedną wersją zasady samoorganizacji wymuszonej jest twierdzenie o cyklach opisane w książce Morowitza, inną – zjawisko samoorganizującej się krytyczności omówione przez Baka. 173 Julian Barbour, Lee Smolin, Variety, Complexity and Cosmology, hep-th/9203041. 174 Alan Turing, The Chemical Basis of Morphogenesis, „Philosophical Transactions of the Royal Society London” 1952, nr 237:641, s. 37–72.

Rozdział 18

Nieskończona przestrzeń czy nieskończony czas? Widzieliśmy, że przyjmując realność czasu, możemy zrozumieć, dlaczego Wszechświat jest złożony i pełen struktur. Jak długo zdoła on trwać z tymi strukturami i złożonością? Może znajdujemy się w pęcherzykowym wszechświecie złożoności zanurzonym w dużo większym wszechświecie pozostającym w równowadze. To rozumowanie prowadzi do najbardziej spekulatywnych tematów współczesnej kosmologii: bardzo dużych odległości i bardzo odległej przyszłości. Nie ma bardziej romantycznego pojęcia niż nieskończoność, ale w nauce to pojęcie bardzo łatwo może prowadzić do nieporozumienia. Wyobraźmy sobie, że Wszechświat jest nieskończony w swych wymiarach przestrzennych, a te same prawa obowiązują wszędzie, ale warunki początkowe zostały wybrane losowo. A to obraz wszechświata boltzmannowskiego w swej krańcowej postaci. Prawie całość

nieskończonego wszechświata znajduje się w równowadze termodynamicznej; a cokolwiek interesującego się zdarza, jest tylko wynikiem fluktuacji. Jeśli coś może zdarzyć się we fluktuacji, zdarzy się gdzieś na pewno, a jeśli jest nieskończenie wiele tych „gdzieś”, to każda fluktuacja, nieważne jak mało prawdopodobna, pojawi się nieskończenie wiele razy175. Nasz obserwowalny Wszechświat może więc być tylko wielką fluktuacją statystyczną. Jeśli Wszechświat jest naprawdę nieskończony, to ten nasz obserwowalny, rozciągający się na obszarze około 93 miliardów lat świetlnych, będzie się powtarzał nieskończenie wiele razy w całej nieskończonej przestrzeni. Tak więc jeśli Wszechświat jest nieskończony i boltzmannowski, to istniejemy i prowadzimy życie takie jak teraz nieskończenie wiele razy. Z pewnością narusza to zasadę Leibniza mówiącą, że we Wszechświecie nie może być dwóch identycznych miejsc. To nie wszystko. Wyobraźmy sobie, że teraźniejszość może być inna. Mogłem się nie narodzić. Albo mogłeś poślubić swą pierwszą dziewczynę. Ktoś upił się rok temu, nie posłuchał rad przyjaciela, prowadził samochód i zabił w wypadku dziecko. Twój kuzyn został przypadkowo podmieniony po porodzie, oddany rodzicom stosującym przemoc i skończył jako seryjny morderca. Wyewoluowała rasa inteligentnych dinozaurów, rozwiązała problem zmiany klimatu

i wciąż dominuje na planecie, w związku z czym ssaki nigdy nie uzyskały swej obecnej pozycji. Wszystko to zdarzenia, które mogłyby zajść, powodując inne konfiguracje teraźniejszości Wszechświata. Każda z takich teraźniejszych konfiguracji jest możliwym do spełnienia sposobem ułożenia atomów w naszym sąsiedztwie, każda więc występuje nieskończenie wiele razy w nieskończonej przestrzeni. Dla mnie to przerażająca perspektywa. A przy okazji stwarza problemy etyczne. Czemu miałbym się przejmować swymi życiowymi wyborami, jeśli wszystkich innych dokonują inne wersje mnie samego w innych regionach nieskończonego Wszechświata? Mogę wybrać wychowywanie swojego dziecka w tym świecie, ale czy mam się martwić dziećmi w innych światach, które cierpią ze względu na złe decyzje, jakie podjęły inne wersje mnie samego? Oprócz tych wyzwań etycznych pojawiają się problemy dotyczące użyteczności nauki. Jeśli rzeczywiście faktem jest to, że wszystko, co może się zdarzyć, się zdarza, to możliwość wyjaśnień znacznie się zmniejsza. Reguła przyczyny koniecznej Leibniza wymaga, aby istniał racjonalny powód każdego wyboru sprawiającego, że Wszechświat stał się raczej taki, a nie inny. Jeśli zaś Wszechświat zachowuje się na wszystkie możliwe sposoby, to nie ma czego wyjaśniać. Nauka może dostarczać wiedzy o warunkach lokalnych, ale ostatecznie jest to bezowocne zadanie, ponieważ prawdą

będzie to, że cokolwiek mogłoby się zdarzyć właśnie teraz, to się zdarzy, i to nieskończenie wiele razy. To pewien rodzaj reductio ad absurdum zastosowanej do paradygmatu newtonowskiego w kosmologii – i inny przykład kosmologicznego błędu rozumowania. Ja nazywam to nieskończoną tragedią boltzmannowską. Tragedia polega na tym, że moc fizyki w przewidywaniu zjawisk maleje, ponieważ prawdopodobieństwo nie jest już tym, co nam się wydaje. Przypuśćmy, że wykonujesz eksperyment, dla którego mechanika kwantowa przewiduje wynik A z 99procentowym prawdopodobieństwem i wynik B z 1procentowym prawdopodobieństwem. Przypuśćmy, że eksperyment powtarzasz 1000 razy. Oczekujesz wówczas, że około 990 razy otrzymasz wynik A. Śmiało możesz nań postawić, ponieważ zgodnie z rozsądkiem oczekujesz, że na każde 99 wyników A otrzymasz 1 wynik B. Masz bardzo dużą szansę potwierdzić przewidywania mechaniki kwantowej. Jednak w nieskończonym wszechświecie istnieje nieskończenie wiele kopii ciebie wykonującego ten eksperyment. Nieskończona liczba tych kopii jest tobą obserwującym wynik A. Istnieje też nieskończona liczba kopii ciebie obserwującego wynik B. Tak więc przewidywanie mechaniki kwantowej, że jeden wynik wystąpi 99 razy częściej niż drugi, jest nieweryfikowalne w nieskończonym wszechświecie. Nazywa się to problemem miary w kosmologii

kwantowej. Wysłuchawszy bardzo bystrych ludzi pracujących w tej dziedzinie i przeczytawszy ich prace, przyznaję, że moim skromnym zdaniem jest to problem nierozwiązywalny. Wolę przyjąć do świadomości fakt, że mechanika kwantowa dowodzi, iż żyjemy w skończonym wszechświecie zawierającym tylko pojedynczą kopię mnie samego. Możemy uniknąć tragicznych konsekwencji nieskończonego wszechświata, zaprzeczając, że ma on nieskończoną przestrzeń. Hipoteza, że Wszechświat jest skończony w swych rozmiarach przestrzennych – Einstein uważał, że jest on skończony, ale nieograniczony – wydaje mi się sensowna i wiarygodna, ponieważ w przeszłość możemy patrzeć tylko na określoną odległość. To znaczy, że Wszechświat miałby ogólną topologię zamkniętej powierzchni, tak jak sfera albo pączek amerykański (torus). Ta propozycja nie przeczy wynikom obserwacji. Średnia krzywizna przestrzeni wskazuje, która topologia jest poprawna. Jeśli krzywizna jest dodatnia, tak jak dla sfery, to jest tylko jedna możliwość – trójwymiarowy analog topologii dwuwymiarowej sfery. Jeśli średnia krzywizna odpowiada płaskiej przestrzeni, jak w wypadku płaszczyzny, to też pozostaje tylko jeden wybór dla Wszechświata – trójwymiarowy analog topologii dwuwymiarowego torusa. Jeśli średnia krzywizna jest ujemna, jak w wypadku dwuwymiarowego siodła, to istnieje nieskończenie

wiele możliwości wyboru topologii. Są one zbyt złożone, żeby je tu opisywać, ale ich skatalogowanie stało się tryumfem matematyki końca XX wieku. Propozycja Einsteina jest hipotezą, którą należy potwierdzić. Jeśli Wszechświat jest zamknięty i wystarczająco mały, to światło miałoby szanse go obiec wokół, powinniśmy więc widzieć bardzo odległe galaktyki jako obrazy wielokrotne. Tego efektu poszukiwano, ale dotąd nie znaleziono. Istnieje jednak poważny powód, aby przyjąć model czasoprzestrzeni, w której przestrzeń jest zamknięta. Jeśli Wszechświat nie miałby zamkniętej przestrzeni, to musiałby być nieskończony w swych rozmiarach przestrzennych. Oznacza to, wbrew intuicji, że przestrzeń jest ograniczona. Ta granica znajduje się nieskończenie daleko, niemniej jest to granica, którą może przekraczać informacja176. W rezultacie wszechświat, który przestrzennie jest nieskończony, nie może być uważany za układ niezależny. Musi być traktowany jako część większego układu, z którego pochodzi informacja przekraczająca granicę do wewnątrz. Gdyby granica znajdowała się w skończonej odległości, to można sobie wyobrazić, że poza nią istnieje jeszcze dużo przestrzeni. Informację o granicy można by było poznać dzięki temu, co przychodzi ze świata znajdującego się poza nią177. Natomiast granica w nieskończoności nie pozwala na wyobrażenie

świata leżącego po drugiej stronie. Po prostu przyjmujemy całkowicie przypadkową informację o tym, co przychodzi i co gdzieś tam wychodzi. Nie można dowiedzieć się nic więcej na podstawie informacji przychodzącej do Wszechświata z nieskończonej granicy: mamy jakiś wybór, ale jest on przypadkowy. Stąd musimy uznać, że nic nie da się wyjaśnić w żadnym modelu wszechświata z nieskończoną granicą. Zasada hermetyczności wyjaśnień zostaje naruszona, a z nią reguła przyczyny koniecznej. Są tutaj pewne zawiłości matematyczne, o których nie chciałbym wspominać, ale argument wydaje się bardzo istotny i, o ile się orientuję, jest ignorowany przez kosmologów, którzy snują domysły o tym, że Wszechświat jest przestrzennie nieskończony. Nie widzę innej możliwości niż to, że musi on być przestrzennie zamknięty i bez granic. A zatem nie ma nic nieskończenie daleko ani nie ma nieskończonej przestrzeni, z którą trzeba się zmagać. Teraz skupimy naszą uwagę na nieskończonej przyszłości. Książki kosmologów pełne są obaw o przyszłość. Jeśli Wszechświat jest, jak dotąd, bardziej leibnizowski niż boltzmannowski, to czy może pozostawać taki tylko chwilowo? Być może w dłuższej perspektywie nie tylko my umrzemy, ale umrze także on. Ograniczenie do przestrzennie ograniczonych

wszechświatów wybawia nas z wielu tragedii i paradoksów nieskończonego wszechświata boltzmannowskiego, lecz nie ze wszystkich. Przestrzennie skończony i zamknięty wszechświat wciąż może trwać wiecznie, a jeśli nigdy nie będzie się kurczyć, to wiecznie będzie się rozszerzać. Jest zatem nieskończenie wiele czasu, aby mógł osiągnąć stan równowagi cieplnej. A jeśli ją osiągnie i bez względu na to, jak długo to trwało, wciąż pozostanie nieskończenie wiele czasu, oraz wciąż rozszerzającej się przestrzeni, aby fluktuacje mogły wytwarzać bardzo mało prawdopodobne struktury. W rezultacie można dalej także dowodzić, że wszystko, co może się zdarzyć, zdarzy się w końcu nieskończenie wiele razy. Prowadzi to znowu do paradoksu mózgu boltzmannowskiego. Jeśli reguła koniecznej przyczyny i identyczność rzeczy nierozróżnialnych mają być spełnione, to Wszechświat musi jakoś uniknąć swego końca w tak paradoksalnym stanie. Te zasady ograniczają wybór jego przyszłych losów. Tylko niewiele dzieł literatury naukowej próbuje prześledzić, co stanie się z Wszechświatem w odległej przyszłości. Wszystko to jednak spekulacje, ponieważ aby stwierdzić, co zajdzie w odległej przyszłości, trzeba dokonać bardzo istotnych założeń. A jednym z nich jest to, że prawa natury nigdy nie mogą się zmieniać, bo jeśli miałyby ulec zmianie, to fakt ten udaremniłby nasze przewidywania. A poza tym nie może istnieć żadne

nieodkryte zjawisko, które mogłoby zmienić bieg historii Wszechświata. Jeśli na przykład jest jakieś oddziaływanie tak słabe, że dotąd nieodkryte, ale pomimo to może ono odgrywać rolę na dużych odległościach i w czasie znacznie dłuższym niż obecny wiek Wszechświata, utrudniałoby to jakiekolwiek przewidywania na podstawie obecnej wiedzy. Oczywiście nie da się uwzględnić także innych niespodzianek, takich jak ściany kosmicznych pęcherzyków lecących do nas z prędkością światła z obszarów położonych poza obecnym horyzontem kosmicznym. Biorąc pod uwagę tylko dobrze sprawdzone prawa i zjawiska, wiarygodnie możemy powiedzieć tylko to: W końcu galaktyki przestaną wytwarzać gwiazdy. Galaktyki są gigantycznymi układami przekształcającymi wodór w gwiazdy. Nie są zbyt wydajne. Typowa galaktyka spiralna wytwarza średnio jedną gwiazdę rocznie. Po prawie 14 miliardach lat pierwotny wodór i hel wciąż stanowią większość materii Wszechświata, a mimo to wodoru pozostało w najlepszym razie tylko na skończoną liczbę gwiazd. Nawet jeśli cały wodór zostanie w końcu zamieniony w gwiazdy, to i tak będzie jakaś ostatnia. A to jest górna granica; najprawdopodobniej zanim cały wodór zamieni się w gwiazdy, wygasną procesy nierównowagowe, które prowadzą do ich powstawania. Ostatnia gwiazda się wypali. Gwiazdy mają

skończony czas życia. Te masywne żyją kilka milionów lat i giną w dramatycznych okolicznościach jako supernowe. Większość trwa wiele miliardów lat i gdy się wypali, kończy jako białe karły. Po śmierci ostatniej gwiazdy pozostanie jeszcze wiele czasu. A co potem? Gdy już zginie ostatnia gwiazda, Wszechświat będzie wypełniony materią, ciemną materią, promieniowaniem i ciemną energią. To, co stanie się z nim w olbrzymiej skali czasu, zależy w znacznym stopniu od składnika, o którym wiemy najmniej: od ciemnej energii. Ciemna energia jest energią związaną z pustą przestrzenią. Z obserwacji wynika, że stanowi ona 73 procent masy i energii Wszechświata. Jej pochodzenie jest nieznane, ale zauważono, jaki wpływ wywiera na ruch odległych galaktyk. Przypisuje się jej także istotną rolę w niedawno odkrytym przyspieszeniu ekspansji Wszechświata. Poza tym nie wiemy o niej nic. Może to być po prostu stała kosmologiczna albo jakaś egzotyczna forma energii o stałej gęstości. Chociaż gęstość ciemnej energii z grubsza wydaje się stała, nie wiemy jednak, czy tak jest czy tylko zmienia się ona na tyle wolno, że nie dostrzeżono tego podczas obserwacji. Przyszłość Wszechświata zależy w dużym stopniu od tego, czy gęstość ciemnej energii pozostanie stała czy też nie. Najpierw zapoznajmy się ze scenariuszem, w którym ciemna energia utrzymuje swoją gęstość w czasie

rozszerzania się Wszechświata. Jeśli ma stałą gęstość, to zachowuje się jak stała kosmologiczna Einsteina. Nie zwiększa się w czasie, gdy Wszechświat stale się rozszerza. Wszystko inne – cała materia i całe promieniowanie – rozprasza się w trakcie ekspansji Wszechświata, a gęstość energii pochodząca od tych źródeł bez przerwy się zmniejsza. Po kilkudziesięciu miliardach lat wszystko staje się już nieistotne z wyjątkiem gęstości energii związanej ze stałą kosmologiczną. To bardzo prosty przypadek, dlatego doskonale wiemy, co zachodzi. Na skutek gwałtownej ekspansji Wszechświata gromady galaktyk rozdzielają się tak szybko, że wkrótce znajdą się poza swoimi horyzontami. Fotony opuszczające gromadę z prędkością światła nie poruszają się na tyle szybko, aby dogonić inne gromady. Obserwatorzy w każdej gromadzie otoczeni są przez horyzonty, poza którymi znikają ich sąsiedzi. Każda z gromad staje się wówczas układem zamkniętym. Wnętrze każdego z takich horyzontów staje się czymś w rodzaju pudełka, odgradzającego układ od reszty Wszechświata. Tak więc teraz do nich się stosują metody fizyki zjawisk w pudełku – a to oznacza, że można do zjawisk w nich zachodzących stosować metody termodynamiki. W tym miejscu historii pojawia się nowy efekt mechaniki kwantowej, powodując, że wnętrze każdego horyzontu zapełnia się gazem fotonów w równowadze

termicznej – to rodzaj mgły stworzonej przez procesy analogiczne do tych, które doprowadzają czarne dziury do emisji promieniowania Hawkinga. Nazwano je promieniowaniem horyzontu. Temperatura i gęstość tego promieniowania jest bardzo niska, ale pozostaje stała w czasie, gdy Wszechświat się rozszerza. Tymczasem wszystko inne, w tym materia i promieniowanie tła, staje się coraz bardziej rozproszone, tak że po upłynięciu odpowiedniego czasu Wszechświat wypełnia tylko promieniowanie horyzontu. Wszechświat osiąga stan równowagi. Ten stan równowagi trwa wiecznie. Nie będzie końca, bo jest to wieczny wszechświat boltzmannowski. Wystąpią oczywiście fluktuacje i powroty i od czasu do czasu ta czy inna konfiguracja się powtórzy – także dotycząca paradoksu mózgu boltzmannowskiego, o której pisałem w rozdziale 16, że stanowi reductio ad absurdum paradygmatu newtonowskiego. Zgodnie z takim scenariuszem widoczna dotychczas złożoność jest tylko króciutkim błyskiem w porównaniu z wiecznym stanem równowagi, w jakim Wszechświat osiądzie. Wiemy prawie z pewnością, że nie jesteśmy mózgami boltzmannowskimi, ponieważ (jak już o tym wspomniano w rozdziale 16) w przeciwnym razie prawdopodobnie nie zauważylibyśmy ogromnego i uporządkowanego Wszechświata wokół nas. To, że nie jesteśmy mózgami boltzmannowskimi, oznacza, iż ten

scenariusz przyszłości Wszechświata jest fałszywy. Z punktu widzenia reguły przyczyny koniecznej, działającej za pomocą swego substytutu, zasady identyczności rzeczy nieodróżnialnych, ten scenariusz także jest fałszywy. Pozostaje jednak pytanie, jak go uniknąć. Gdyby Wszechświat miał wystarczającą gęstość materii, aby zatrzymać swoją ekspansję i spowodować kolaps, byłby to najprostszy sposób uniknięcia śmierci cieplnej. Materia przyciąga się grawitacyjnie, co spowalnia ekspansję, dlatego gdy jest jej wystarczająco dużo, to Wszechświat zapadnie się do osobliwości początkowej. A może efekty kwantowe powstrzymają kolaps i „odbiją” Wszechświat, zamieniając kontrakcję na ekspansję prowadzącą do nowego Wszechświata? Jednak wydaje się, że jest zbyt mało materii, aby odwrócić ekspansję, nie wspominając już o tendencji ciemnej materii do jej przyspieszania. Gdyby stała kosmologiczna w rzeczywistości nie była stała, to mielibyśmy następny prosty sposób uniknięcia w przyszłości śmierci cieplnej. Podczas gdy dowody wskazują, że ciemna energia – praktycznie uważana za stałą kosmologiczną – nie zmieniła się w skali obecnego wieku Wszechświata, nic nie pozwala przypuszczać, że nie zmieni się w perspektywie jeszcze dłuższej. Tę zmianę mogłoby powodować jakieś bardziej podstawowe prawo, takie, które działa tak wolno, że efekty jego działania są dostrzegalne

w ogromnej skali czasu. Albo zmiana mogłaby się okazać po prostu związana z ogólną tendencją ewoluowania praw fizyki. Istotnie, zasada nieistnienia nieodwzajemnionych działań sugeruje, że na stałą kosmologiczną powinien mieć wpływ Wszechświat, na który ona sama tak zdecydowanie oddziałuje. Stała kosmologiczna mogłaby dążyć do zera. Jeśli tak będzie, to ekspansja zwolni, ale najprawdopodobniej się nie odwróci. Wszechświat mógłby być wieczny, ale statyczny; to przynajmniej chroni przed paradoksem mózgu boltzmannowskiego. To, czy Wszechświat bez stałej kosmologicznej będzie rozszerzał się wiecznie czy też dozna kolapsu, ostatecznie będzie zależeć od warunków początkowych. Jeśli energii zawartej w ekspansji wystarczy, aby przezwyciężyć grawitacyjne przyciąganie się wszystkiego, to nigdy nie dozna on kolapsu. Niemniej jednak nawet gdyby był wieczny, jest dostatecznie duże prawdopodobieństwo jego ponownego narodzenia, ponieważ każda czarna dziura, na skutek eliminacji jej osobliwości, może doprowadzić do narodzin wszechświata dziecięcego. W rozdziale 11 wskazywałem, że są mocne dowody teoretyczne, iż musi się to zdarzyć. Jeśli tak jest, to nasz Wszechświat, który wciąż jest daleki od śmierci, ma już przynajmniej miliard miliardów swych potomków. Te nowe wszechświaty dają początek dalszemu potomstwu. I zupełnie nieistotne

wydaje się to, że każdy z nich, namnożywszy tyle innych, może w jakimś momencie sam umrzeć. Jest także możliwość odrodzenia całego Wszechświata zamiast samych czarnych dziur. To hipoteza badana w pewnej klasie teorii kosmologicznych nazwanych modelami cyklicznymi. Jeden z modeli, stworzony przez Paula Steinhardta z Uniwersytetu Princeton i Neila Turoka z Instytutu Perimeter, wykazuje takie zachowanie, pod warunkiem że stała kosmologiczna dąży do zera, a potem staje się coraz bardziej ujemna178. Ze względów, których tutaj nie wyjaśnię, powoduje to dramatyczny kolaps całego Wszechświata. Jednak, jak dowodzą twórcy, po tym kolapsie następuje odbicie i ponowna ekspansja. To odbicie mogą powodować efekty grawitacji kwantowej albo unika się ostatecznej osobliwości dzięki ogromnie wielkiej wartości ciemnej energii. Dowody teoretyczne, że efekty kwantowe powodują odbicie od kosmologicznej osobliwości, prowadząc do ponownej ekspansji, są nawet silniejsze niż w wypadku osobliwości czarnych dziur 179. W ramach pętlowej grawitacji kwantowej zbadano kilka modeli efektów kwantowych występujących w okolicy kosmologicznej osobliwości i rezultaty tych badań wskazują, że odbicie jest zjawiskiem uniwersalnym. Trzeba jednak brać pod uwagę to, że są to tylko modele, i jak dotąd obarczone bardzo radykalnymi założeniami.

Główne założenie, to że Wszechświat jest przestrzennie jednorodny. Najbardziej jesteśmy pewni tego, że jego bardzo jednorodne regiony – pozbawione fal grawitacyjnych i czarnych dziur – odbiją się, aby dać początek nowym wszechświatom. W najgorszym razie regiony silnie niejednorodne się nie odbiją. Po prostu doznają kolapsu do osobliwości, gdzie czas się zatrzyma. Jednak nawet taki scenariusz ma swe dobre strony, ponieważ będzie stanowił zasadę wyboru określającą, które regiony Wszechświata odbiją się i dokonają swej reprodukcji. Gdy zachowają się tak te bardziej jednorodne, to początki nowych światów, tuż po odbiciu, będą także bardzo jednorodne180. Na podstawie tego można przypuszczać, że w bardzo wczesnym okresie, tuż po odbiciu, Wszechświat jest bardzo jednorodny – nie ma w nim czarnych dziur ani fal grawitacyjnych, tak jak to obserwujemy w naszym Wszechświecie. Aby scenariusz odbijającego się wszechświata miał charakter naukowy, musi być przynajmniej jeszcze jedno przewidywanie, dzięki któremu można sprawdzić całą hipotezę. A są przynajmniej dwa, związane ze spektrum fluktuacji promieniowania tła. Scenariusz cykliczny objaśnia te fluktuacje bez potrzeby założenia o istnieniu krótkiego okresu wielkiej inflacji. Spektrum fluktuacji, które dotąd obserwujemy, zgadza się z tym założeniem, ale istnieją dwie różnice w przewidywaniach modeli cyklicznych i modeli

inflacji, i te rozbieżności mogą rozstrzygnąć obecne i przyszłe eksperymenty. Jeden z testów polega na stwierdzeniu, czy fale grawitacyjne wpływają na promieniowanie tła; inflacja mówi, że tak, a modele cykliczne – nie. Modele cykliczne także sugerują, że promieniowanie tła nie jest całkowicie losowe – w języku matematycznym przewidują niegaussowskość. Modele cykliczne są przykładem tego, jak założenie, że czas jest zjawiskiem podstawowym – w tym sensie, że nie powstaje wraz z Wielkim Wybuchem, ale istnieje przed nim – prowadzi do kosmologii o większej mocy przewidywania. Innym przykładem są teorie przyjmujące hipotezę, że światło może mieć inną prędkość – w rzeczywistości większą – w bardzo wczesnym Wszechświecie. Te tak zwane teorie zmiennej prędkości światła wybierają pojęcie czasu wyróżnionego, które narusza zasady teorii względności. W rezultacie nie są popularne, ale mogą wyjaśniać fluktuacje promieniowania tła bez pomocy inflacji. Roger Penrose zaproponował jeszcze inny scenariusz powstawania wszechświata potomnego 181. Ogólnie mówiąc, akceptuje on scenariusz wiecznego boltzmannowskiego wszechświata z niezmienną stałą kosmologiczną, a potem pyta, co stanie się po upływie nieskończenie długiego czasu. (Tylko Penrose mógłby zadać takie pytanie). Według niego w jakimś momencie wszystkie cząstki elementarne mające masę, w tym protony, kwarki i elektrony, rozpadną się i zostaną tylko

cząstki bezmasowe i fotony. Jeśli tak się stanie, to nieskończonego upływu czasu w wieczności nie będzie można określić w żaden sposób, ponieważ fotony poruszające się z prędkością światła nie odczuwają jego upływu. Dla fotonu wieczność starego wszechświata byłaby nieodróżnialna od wszechświata wczesnego. Jedyną różnicą byłaby temperatura. Co prawda jest ona ogromna, ale to tylko pojedyncza skala. Penrose dowodzi, że pojedyncza skala nie ma znaczenia. W gazie fotonów opisanych relacyjnie istotne są jedynie porównania albo proporcje pomiędzy obiektami istniejącymi w czasie; całkowitej skali nie da się wykryć. Tak więc stary wszechświat, wypełniony gazem zimnych fotonów i innych cząstek bezmasowych, stanie się nieodróżnialny od gorącego gazu tych samych cząstek wypełniających wczesny wszechświat. Zgodnie z zasadą identyczności rzeczy nierozróżnialnych stary wszechświat jest także miejscem narodzin innego. Scenariusz Penrose’a rozwija się tylko po upływie nieskończonego czasu i nie rozwiązuje paradoksu mózgu boltzmannowskiego, ale przewiduje, że w pozostałościach Wielkiego Wybuchu powinny istnieć skamieliny przeszłego wszechświata, z których moglibyśmy wydobyć informacje o nim. Podczas gdy wiele informacji traci się w wiecznej równowadze cieplnej, jeden ich nośnik nigdy nie ulega dezorganizacji, a jest nim promieniowanie grawitacyjne. Informacja niesiona przez fale grawitacyjne przeżywa

odbicie w modelach cyklicznych i wędruje do nowego wszechświata. Najgłośniejsze sygnały niesione przez fale grawitacyjne to obrazy zderzeń pomiędzy wielkimi czarnymi dziurami, które kiedyś czaiły się w centrach dawno już nieistniejących galaktyk. Fale te, biegnąc na zewnątrz, tworzą na niebie wielkie okręgi. Rozchodzą się wiecznie i przeżywają transformację do nowego wszechświata. W związku z tym Penrose przewiduje, że ogromne okręgi, których struktura została zamrożona we wczesnym wszechświecie, powinny być widoczne w kosmicznym promieniowaniu tła. Byłyby to cienie zdarzeń, które zaszły w poprzednim wszechświecie. Penrose ponadto uważa, że powinno być wiele takich koncentrycznych okręgów. Pochodzą one od gromad galaktyk, w których wraz z upływem czasu koliduje ze sobą więcej niż jedna galaktyczna czarna dziura. To przewidywanie robi bardzo duże wrażenie, proponuje bowiem całkiem odmienne niż inne scenariusze prawidłowości w promieniowaniu tła. Jeśli odkryto by coś tak nieprawdopodobnego, to z pewnością byłby to dowód prawdziwości tego scenariusza. Istnieją kontrowersje co do tego, czy koncentryczne okręgi Penrose’a mogą wystąpić w promieniowaniu tła182. Tak się jednak składa, że scenariusze, według których nasz Wszechświat wyewoluował z innego istniejącego przed Wielkim Wybuchem, stwarzają możliwości przewidywań, które mogą być

zweryfikowane dzięki obserwacjom. Zupełnie inna sytuacja jest ze scenariuszami, w których Wszechświat należy do zbioru innych jednocześnie istniejących wszechświatów – te mianowicie nie umożliwiają przewidywania, a raczej nie pozwalają przewidywać realnych faktów. W rozdziale 10 dowodziłem, że racjonalne wyjaśnienie praw i warunków początkowych naszego obecnego Wszechświata wymaga dokonania ich wyboru więcej niż raz, gdyż inaczej nie wiemy, dlaczego doszło do właśnie tego wyboru, a nie innego – natomiast gdyby te same warunki i prawa powtarzały się wiele razy, to mogły być ku temu przyczyny. Rozważałem dwie sytuacje powstawania wielkich wybuchów – jednoczesne i sekwencyjne – i dowodziłem, że tylko w tym drugim wypadku możemy oczekiwać powstania kosmologii, która odpowie na pytanie: dlaczego te prawa, pozostając teorią naukową w tym sensie, że potrafi dostarczyć falsyfikowalnych przewidywań. W tym rozdziale dokonałem porównania dwóch wariantów i przekonaliśmy się, że tylko w scenariuszu sekwencyjnego następstwa wszechświatów możliwe są realne przewidywania dla wykonalnych eksperymentów. Kosmologia staje się bardziej naukowa, a jej idee bardziej podatne na testy, gdy czas w jej ramach jest realny i podstawowy, a historia Wszechświata jest niezbędna dla zrozumienia jego stanu obecnego. Wszyscy obarczeni ciężarem metafizycznego

przekonania, że zadaniem nauki jest odkrywanie bezczasowych prawd wyrażanych w postaci bezczasowych obiektów matematycznych, są przekonani, iż eliminacja czasu i upodobnienie Wszechświata do obiektu matematycznego jest drogą wiodącą ku naukowej kosmologii. Tymczasem okazuje się, że jest na odwrót. Charles Sanders Peirce zrozumiał to dawniej niż wiek temu, mówiąc, że wyjaśnienia praw natury (…) można dokonać tylko w jeden możliwy sposób, mianowicie przyjmując, że są one rezultatem ewolucji. 175 To zdumiewające, ale przemawia za tym pewien prosty argument. Szczegóły można znaleźć w najnowszej książce Briana Greene’a Ukryta rzeczywistość: w poszukiwaniu wszechświatów równoległych, przeł. Tomasz Krzysztoń, Prószyński i S-ka, Warszawa 2012, albo w dodatkach on line. 176 Wyobraźmy sobie dwuwymiarową płaską powierzchnię. Wybierzmy punkt, a potem kierunek od tego punktu. To definiuje półprostą na powierzchni. 177 Śledźmy, dokąd biegnie ta linia. Biegnie ona w nieskończoność, ale w oczach matematyków pomimo to dokądś się kieruje. Ów cel nazwano punktem w nieskończoności. Wybierzmy jeszcze inny kierunek od tego samego punktu. Otrzymujemy następną półprostą. Śledźmy, dokąd ona biegnie – otóż do jeszcze jednego punktu w nieskończoności. Punkty w nieskończoności tworzą okrąg. Definiują go kierunki biegnące od punktu na płaszczyźnie. Podążając w tych kierunkach tak daleko, jak one biegną, docieramy do granicy wyznaczonej przez punkty w nieskończoności. Ten sam efekt

otrzymuje się w płaskiej trójwymiarowej przestrzeni, poza tym, że punkty w nieskończoności tworzą sferę. Otrzymamy go także w wypadku, gdy przestrzeń jest nieskończona, ale ujemnie zakrzywiona, jak siodło. Gdy rozwiązuje się równania ogólnej teorii względności, trzeba określić informację o tym, co dzieje się na granicach. Musimy opisać, co wchodzi przez granicę i co poza nią wychodzi. Wymóg podania informacji o tym, co dzieje się na nieskończonej granicy, nie jest opcjonalny; tego wymaga matematyka. (Dla znawców: równań Einsteina dla przestrzennie nieskończonego wszechświata nie da się otrzymać z zasady wariacyjnej, o ile w funkcjonale działania nie ma członów granicznych i warunków granicznych sprecyzowanych w przestrzennej nieskończoności). Nie można opisać, co jest we Wszechświecie, bez określenia, co wchodzi i wychodzi przez jego granice, nawet jeśli ta granica leży nieskończenie daleko. W praktyce ogólnej teorii względności często posługujemy się przestrzeniami z granicami nieskończonymi jako wygodnymi modelami układów zamkniętych. Rozważmy galaktykę. W rzeczywistości jest ona małą częścią wszechświata, ale z pewnych względów chcemy uważać ją za układ zamknięty; na przykład zamierzamy badać oddziaływanie czarnej dziury w centrum galaktyki z gwiazdami w jej dysku. Zakreślamy więc granice wokół galaktyki i rozwiązujemy równania ogólnej teorii względności dla wszystkiego, co znajduje się wewnątrz nich. Są jednak pewne kłopoty matematyczne z określeniem informacji na skończonych granicach. Zatem tylko ze względu na matematyczną wygodę idealizujemy sytua​cję i odsuwamy granicę w nieskończoność. To wielce upraszcza opis, ponieważ możemy narzucić warunek, że cała materia w tym modelu jest zawarta w jednej galaktyce. Nic nie może wyjść poza nią i nic nie może się dostać z zewnątrz granicy oprócz fal grawitacyjnych i światła, które warto wykorzystać do obserwacji galaktyki. Jest to pragmatyczny sposób zastosowania przestrzeni nieskończonych i nie ma co do niego zastrzeżeń. Fakt, że musimy określać informację przychodzącą z zewnątrz nieskończonej granicy, przypomina nam, iż mamy do czynienia z idealizacją, w której

wycinamy część wszechświata i opisujemy ją, jakby była wszystkim, co jest. Chociaż jednak nonsensem jest przyjmować, że całość wszechświata ma zewnętrzne granice, co wymaga określenia informacji wchodzącej od zewnątrz nieskończonego wszechświata, musimy tak postąpić, jeśli stosujemy ogólną teorię względności jako teorię kosmologiczną i przyjmujemy, że wszechświat jest przestrzennie nieskończony. 178 Więcej informacji o kosmologii cyklicznej można znaleźć w książce Paula J. Steinhardta i Neila Turoka, Nieskończony Wszechświat. Poza teorię Wielkiego Wybuchu, przeł. Tomasz Krzysztoń, Prószyński i S-ka, Warszawa 2009. 179 Martin Bojowald, Isotropic Loop Quantum Cosmology, arXiv:grqc/0202077v1 (2002); tegoż, Inflation from Quantum Geometry, arXiv:gr-qc/0206054vi (2002); tegoż, The Semiclassical Limit of Loop Quantum Cosmology, ​arXiv:gr-qc/0105113v1 (2001); tegoż, Dynamical Initial Conditions in Quantum ​Cosmology, arXiv:gr-qc/0104072v1 (2001); Shinji Tsujikawa, Parampreet Singh, Roy Maartens, Loop Quantum Gravity Effects on Inflation and the CMB, arXiv:astroph/0311015v3 (2004). 180 Jean-Luc Lehners, Diversity in the Phoenix Universe, arXiv:1107.4551v1 [hep-ph] (2011). 181 Roger Penrose, Cykle czasu. Nowy niezwykły obraz wszechświata, przeł. Ewa L. Łokas i Bogumił Bieniok, Prószyński i Ska, Warszawa 2011. 182 Twierdzenia, że odkryto okręgi, podają: V.G. Gurzadyan, R. Penrose, CCC-Predicted Low-Variance Circles in CMB Sky and LCDM, arXiv:1104.5675v1 [astro-ph.CO] (2011); V.G. Gurzadyan, R. Penrose, CCC-Predicted Low-Variance Circles in CMB Sky and LCDM,

arXiv:1104.5675v1 [astro-ph.CO] (2011); V.G. Gurzadyan, R. Penrose, More on the Low-Variance Circles in CMB Sky, arXiv:1012.1486v1 [astro-ph.CO] (2010); V.G. Gurzadyan, R. Penrose, Concentric Circles in WMAP Data May Provide Evidence of Violent Pre-Big-Bang Activity, arXiv:1011.3706v1 [astro-ph.CO] (2010). Kilku autorów stwierdza, że jest to spowodowane zakłóceniami: I.K. Wehus, H.K. Eriksen, A Search for Concentric Circles in the 7-year WMAP Temperature Sky Maps, arXiv:1012.1268v1 [astro-ph.CO] (2010); Adam Moss, Douglas Scott, James P. Zibin, No Evidence for Anomalously Low-variance Circles on the Sky, arXiv:1012.1305v3 [astro-ph.CO] (2011); Amir Hajian, Are There Echoes from the Pre–Big Bang Universe? A Search for Low-Variance Circles in the CMB Sky, arXiv:1012.1656v1 (2010).

Rozdział 19

Przyszłość czasu W części II wprowadziliśmy czas na jego prawowite miejsce pojęcia podstawowego w koncepcji świata. Zaprezentowane w części I argumenty dowodzące jego nierealności wydają się silne, ale wszystkie opierają się na rozszerzeniu paradygmatu newtonowskiego do teorii Wszechświata jako całości. Jak się przekonaliśmy, te cechy, które uczyniły z paradygmatu skuteczną metodę opisu zjawisk fizycznych w małych częściach Wszechświata, podważyły celowość jego stosowania do Wszechświata jako całości. Aby mógł się dokonać postęp w kosmologii (jak i w fizyce), potrzebujemy nowej koncepcji prawa natury, właściwego dla skali kosmicznej, które nie prowadzi do błędnych wniosków, nie wprowadza dylematów i paradoksów i do tego odpowiada na pytania, na które stare teorie nie były w stanie odpowiedzi udzielić. Poza tym musi to być teoria naukowa – to znaczy tworzyć falsyfikowalne przewidywania dla nowych, ale wykonalnych

eksperymentów. W rozdziale 10 zacząłem poszukiwania takiego nowego programu ramowego, przedstawiając podstawowe zasady, według których powinno ono być prowadzone. Najważniejszą z tych zasad jest reguła przyczyny koniecznej Leibniza; zmusza ona do poszukiwania przyczyny każdego wyboru, który prowadzi do tego, że Wszechświat stał się raczej taki, a nie inny. Implikuje ona następne zasady: identyczności rzeczy nierozróżnialnych, hermetyczności wyjaśnień i nieistnienia działań nieodwzajemnionych. Te zasady formułują głębokie racjonalne podejście do wszystkich rzeczy istniejących w naturze. Dowodziłem, że jedyną drogą prowadzącą do realizacji tych zasad i stworzenia teorii kosmologicznej jest przyjęcie hipotezy, iż prawa natury ewoluują z biegiem czasu. Wymaga to założenia, że czas jest realny i globalny. Obiecujący kierunek rozwoju tworzy dynamika kształtu, która, jak opisałem w rozdziale 14, opiera się na pojęciu wyróżnionego czasu globalnego ogólnej teorii względności. Podstawą dla nowej teorii kosmologicznej jest pojęcie czasu realnego, zgodnie z którym ewoluują prawa natury i zasady. Osiągnięcia opisane w części II, w rozdziałach od 11 do 18, nie są jeszcze faktami i nie są równoznaczne z utworzeniem spójnej teorii. Stanowią raczej wizję tego, jak moglibyśmy na nowo zaplanować badanie Wszechświata w kosmologii. Każde z tych

osiągnięć jest spekulatywne, ale na podstawie kilku z nich można przewidywać nowe zjawiska, sprawdzalne w eksperymencie możliwym do przeprowadzenia. Choć nie ma pewności, czy zostaną potwierdzone, to przynajmniej wykazują, że hipoteza realności czasu prowadzi do wartościowszej naukowo kosmologii. Pojęcie czasu realnego i globalnego jest także pomocne w rozwiązywaniu innych nierozstrzygniętych problemów fizyki. Na przykład aby opisać i wyjaśnić, co dzieje się w pojedynczych zdarzeniach, musimy wyjść poza statystyczne przewidywania mechaniki kwantowej. W rozdziałach 12 i 13 opisałem dwa nowe podejścia do głębszej teorii zjawisk kwantowych, w których czas musi być zjawiskiem podstawowym. Te podejścia odróżniają się na tyle od mechaniki kwantowej, że mogą być od niej wyodrębnione doświadczalnie. Innym polem działania realnego czasu jest opis zachowania obiektów w świecie makroskopowym, w którym wyłania się termodynamika wraz z takimi koncepcjami jak temperatura, ciśnienie, gęstość i entropia. Na tym niekwantowym poziomie czas wydaje się bardzo silnie ukierunkowany i możemy wyróżnić kilka jego strzałek, które odróżniają przeszłość od przyszłości. W teorii, w której czas jest nieistotny albo emergentny, taki fakt asymetrii Wszechświata względem czasu jest zagadkowy. Zmusza nas do związania najbardziej widocznych i oczywistych cech

świata z wyborem niezwykle nieprawdopodobnych warunków początkowych. Można tego uniknąć, przyjmując, że czas jest realny, a teoria fundamentalna tak samo jest asymetryczna względem czasu jak sam Wszechświat. Jedna sprawa to stwierdzenie, że czas jest realny, ale inna – upieranie się, że w całym Wszechświecie ma sens pojęcie „teraz” – to znaczy jednoczesność z naszym doznaniem upływu czasu. Idea czasu globalnego oznacza, że nasze doznanie upływu czasu podziela cały Wszechświat, ale oczywiście zachodzi tu sprzeczność z pojęciem względności jednoczesności szczególnej i ogólnej teorii względności. Trzeba zmierzyć się z tą sprzecznością, ponieważ względność jednoczesności razem z ideą, że rzeczywistość jest pojęciem wspólnym dla całego Wszechświata, prowadzi, jak widzieliśmy w rozdziale 6, do obrazu wszechświata-bloku, w którym najbardziej podstawowy aspekt naszych przeżyć – upływ czasu – okazuje się nierealny. Można sobie wyobrazić, w jakim sensie realność czasu nie będzie sprzeczna ze względnością jednoczesności – ale wymagałoby to pojęcia albo solipsystycznej rzeczywistości, albo zależnej od obserwatora, w której różnica między realną teraźniejszością a mającą nadejść realną przyszłością nie jest realną własnością wspólną dla wszystkich obserwatorów. Hipoteza czasu globalnego, jak podkreślałem, ogromnie pomaga w wyjściu poza teorię

kwantów i pojmowaniu przestrzeni jako zjawiska emergentnego. Ważne jest także to, że nie musi ona być sprzeczna z eksperymentalnym potwierdzeniem szczególnej teorii względności, co, jak widzieliśmy, sprawdziło się w wypadku dynamiki kształtu. Na koniec hipotezę o istniejącym w naturze czasie globalnym należałoby rozstrzyg​nąć eksperymentalnie, dlatego też opowiadam się za hipotezami, które mogą prowadzić do nowych, sprawdzalnych przewidywań. Idea ewolucji praw zawiera obietnicę uczynienia fizyki zjawisk podstawowych nauką mającą jeszcze większą moc przewidywania. Niesie to ze sobą jeden ostateczny dylemat. Można zapytać o to, jakiemu prawu podlegać ma ewolucja praw. Prawo takie, działające raczej na prawa niż same cząstki elementarne, możemy nazwać metaprawem. Trudno będzie zaobserwować jego działanie, bo może się ono ujawniać tylko podczas bardzo burzliwych epizodów, takich jak Wielki Wybuch. Jednak jeśli chcemy całkowicie wyjaśnić funkcjonowanie Wszechświata, i to w sposób spełniający regułę przyczyny koniecznej, to czy nie powinno istnieć takie metaprawo? Przypuśćmy, że istnieje. Czy zatem w sposób naturalny nie powstaje pytanie, dlaczego właśnie ono rządzi ewolucją praw we Wszechświecie, a nie raczej jakieś inne? A jeśli metaprawo działa na przeszłe prawa, aby tworzyć przyszłe, to część wyjaśnienia, czym są prawa obecne, będzie zależeć od tego, czym były

przeszłe, a zatem nie unikniemy odpowiedzi na pytanie: dlaczego właśnie takie warunki początkowe? Hipoteza o metaprawie prowadzi do nieskończonej regresji (na pytanie: dlaczego to metaprawo?, odpowiedzią będzie: metametaprawo, i tak dalej). To jedno oblicze tego dylematu. Drugim jest to, że metaprawa może nie być. Pojawi się wówczas element losowości w ewolucji praw, co w rezultacie sprawi, że znowu nie wszystko będzie można wyjaśnić, a lekceważenie reguły przyczyny koniecznej zostanie wpisane w same fundamenty nauki. Roberto Mangabeira Unger i ja nazywamy to dylematem metaprawa. Na pierwszy rzut oka wydaje się to ślepą uliczką, ale żyjąc z tym dylematem wiele lat, dochodzę do wniosku, że stanowi on ogromną naukową okazję prowadzącą do odkrycia nowego rodzaju teorii, która go wyjaśni. Jestem przekonany, że dylemat metaprawa da się rozwiązać i sposób, w jaki tego dokonamy, stanie się przełomem, który pozwoli kosmologii i fizyce osiągnąć w tym wieku znaczny postęp. Dylematu metaprawa unika chwilowo kosmologiczny dobór naturalny (zobacz rozdział 11), zgodnie z którym na zasadzie hipotezy wprowadzone jest ograniczone, statystyczne metaprawo. Gdy postulowałem, że parametry Modelu Standardowego zmieniają się losowo o niewielkie wartości przy każdym odbiciu, opisywałem tym samym pewien rodzaj metaprawa, które po części unika tego dylematu. Oczywiście chciałbym wiedzieć,

jak do tego dochodzi, i móc opisać mechanizm generujący losowe zmiany parametrów. Więcej wiedzy na ten temat mogłaby dostarczyć kwantowa teoria grawitacji albo teoria strun (została stworzona na gruncie tej ostatniej), ale nawet bez niej hipoteza kosmicznego doboru naturalnego ma moc wyjaśniania i jest falsyfikowalna. Zasada precedensu to inne podejście do metaprawa. Mając częściowo charakter statystyczny, ona także omija – albo przynajmniej odkłada na bok – dylemat metaprawa. Nawet to odkładanie na bok można owocnie wykorzystać, bo tworzy hipotezy stawiające nowe pytania i nowe podejścia – hipotezy , które mogą być sprawdzane eksperymentalnie. Aby ostatecznie rozwiązać dylemat metaprawa, dynamika, z jaką prawa ewoluują, musi być wystarczająco odmienna od tej, charakteryzującej prawa, które są nam znane, tak aby już nie pojawiły się pytania: Dlaczego właśnie to metaprawo? i Dlaczego właśnie te warunki początkowe? Oto jedna z zaskakujących prób rozwiązania dylematu. Przypuśćmy, że dwie propozycje metaprawa mogłyby być równoznaczne – to znaczy skutkowałyby taką samą ewolucją praw183. Musiałaby zatem istnieć zasada uniwersalności metaprawa, podobnie jak istnieje uniwersalność obliczeń cyfrowych. W dziedzinie komputerów „uniwersalność” oznacza, że każda funkcja obliczalna na jednym komputerze może być obliczona na innym, niezależnie od tego, z jakim systemem

operacyjnym pracują te maszyny. Idea uniwersalności metaprawa jest podobna, polega na tym, że nie ma znaczenia, które z metapraw działa, ponieważ wszystkie przewidywania sprawdzalne doświadczalnie będą takie same. Jeszcze jednym podejściem do kosmologii, które wykracza poza paradygmat newtonowski, jest próba połączenia praw z konfiguracją. Nie trzeba by było poznawać prawa i stanu, tylko metakonfigurację, która unifikuje informację o obu. Ta idea jest zgodna z hipotezą, że wszystko, co rzeczywiste, jest rzeczywiste w chwili teraźniejszej. Gdy prawo działa, szczegóły tego działania są częścią chwili obecnej. Szczegóły działania konfiguracji i prawa nie mogą też być różne, zatem łączymy je w pojedynczą metakonfigurację. Tak jak Galileusz połączył domenę niebieską z ziemską, może już czas połączyć ich cień, którym jest odróżnienie bezczasowego prawa i ograniczonej czasowo konfiguracji. Ewolucja metakonfiguracji byłaby wymuszana przez regułę tak prostą, że wyjaśnia to zasada uniwersalności. Wybór konfiguracji początkowej wyznaczałby prawo i warunki początkowe. Pewne aspekty konfiguracji ewoluowałyby szybciej, a inne wolniej. Te pierwsze zaliczalibyśmy do konfiguracji, która ewoluowałaby dzięki czemuś, co moglibyśmy nazwać prawami, precyzowanymi przez część poruszającą się wolniej. Natomiast w dłuższej skali czasowej załamałoby się

rozróżnienie pomiędzy prawami i konfiguracją. Stworzyłem prosty model tej idei, który, jak dotąd, nie jest dość realistyczny184. Te dwie idee razem z zasadą precedensu i kosmologicznym doborem naturalnym dają nam cztery sposoby rozwiązania dylematu metaprawa. Są one wprawdzie tylko pierwszymi krokami, ale nie będzie przesadą, jeśli powiem, że kierunek rozwoju kosmologii XXI wieku wyznaczy właśnie taka próba. Na początku książki postawiłem kilka pytań dotyczących roli matematyki w fizyce. Zanim zakończę, chcę krótko powrócić do tego tematu, ponieważ realność czasu ma ważne implikacje dotyczące roli matematyki w fizyce. W ramach paradygmatu newtonowskiego bezczasowa przestrzeń konfiguracyjna jest obiektem matematycznym. Za pomocą obiektów matematycznych można też wyrażać prawa, tak jak i ich rozwiązania będące możliwymi historiami układu. Matematyka nie jest odpowiednikiem rzeczywistych procesów fizycznych, tylko zapisów o nich, gdy się dokonały – zapisów, które z definicji są także bezczasowe. Świat pozostaje zawsze pełen procesów ewoluujących w czasie i tylko małą jego część można przedstawić za pomocą bezczasowych obiektów matematycznych. Nie trzeba żadnego obiektu matematycznego odpowiadającego całej historii Wszechświata, ponieważ nie da się rozszerzyć paradygmatu newtonowskiego na Wszechświat traktowany jako całość. Ani nie

potrzeba bezczasowej przestrzeni konfiguracyjnej i bezczasowych praw reprezentowanych przez bezczasowe obiekty matematyczne. John Archibald Wheeler miał zwyczaj, że gdy pisał na tablicy równania, robił krok wstecz i mówił: „Teraz klasnę w dłonie, a zaistnieje jakiś wszechświat”. Oczywiście nic takiego nie następowało 185. Stephen Hawking pytał w Krótkiej historii czasu: „Co tchnie ogień w równania i tworzy im wszechświat do opisu?”. Te wypowiedzi ukazują absurdalny pogląd, że matematyka jest ważniejsza niż natura. W rzeczywistości kroczy ona za naturą. Nie ma mocy wytwórczej. Innymi słowy, matematyczne konkluzje wymusza logiczne wynikanie, podczas gdy w naturze zdarzenia są tworzone przez procesy przyczynowe zachodzące w czasie. To nie to samo; pewne aspekty procesów przyczynowych może modelować logiczne wynikanie, ale nigdy nie będzie ono identyczne z samym procesem przyczynowym. Logika nie jest zwierciadłem przyczynowości. Logika i matematyka ujmują pewne aspekty natury, ale nigdy nie zdołają objąć jej całości. Są takie aspekty realnego Wszechświata, których matematyka nigdy nie opisze. Jeden z nich to fakt, że w realnym świecie jest zawsze jakaś szczególna chwila. Gdy dobrze zrozumiemy realność czasu, to jednym z najważniejszych wniosków, które z tego wynikają, jest to, że natury nie można ująć w pojedynczym systemie

logicznym czy też matematycznym. Wszechświat po prostu jest – albo nawet lepiej, wydarza się. Jest unikatowy. Zdarza się raz, tak jak każde zdarzenie, każde niepowtarzalne zdarzenie tworzące naturę. Dlaczego jest, dlaczego raczej jest coś niż nic, być może nie jest pytaniem, na które da się znaleźć odpowiedź – poza tym może istnienie oznacza pozostawanie w relacji z innymi istniejącymi obiektami, a Wszechświat jest po prostu zbiorem wszystkich tych relacji. Sam zaś nie jest w żadnej relacji z czymkolwiek na zewnątrz niego. Pytanie, dlaczego istnieje raczej, niż nie istnieje, wychodzi poza ramy reguły przyczyny koniecznej. W jakiej formie zatem wyrażać odkrycia kosmologii, jeśli nie pojedynczym bezczasowym prawem matematycznym działającym na bezczasową przestrzeń warunków początkowych? To pytanie, od którego zależy przyszłość kosmologii. Możliwe odpowiedzi wyłaniają się po niewielkim namyśle. Przykłady, które podałem, takie jak kosmologiczny dobór naturalny, wskazują, że możemy tworzyć testowalne teorie naukowe wychodzące poza paradygmat newtonowski. Dobrze by było zastanowić się nad faktem, że w historii nauki jest wiele hipotez, które nie muszą być wyrażone w formie matematycznej. W pewnych wypadkach matematyka nie jest potrzebna do zrozumienia ich konsekwencji. Przykładem może być teoria doboru naturalnego, której aspekty występują w formie prostych modeli matematycznych, ale żaden

pojedynczy model nie ujmuje całej różnorodności mechanizmów, dzięki którym dobór naturalny działa w naturze. Istotnie, nowe mechanizmy ewolucji mogą pojawić się w każdym czasie, gdy tylko narodzi się nowy gatunek. Hipoteza, aby była naukowa, musi sugerować obserwacje, dzięki którym będzie mogła być zweryfikowana lub obalona. Czasami potrzeba do tego równań matematycznych, a czasami nie. Matematyka to język nauki, potężna i bardzo ważna metoda, ale jej stosowanie w nauce oparte jest na identyfikacji obliczeń matematycznych z rezultatami eksperymentów, a ponieważ eksperymenty odbywają się poza matematyką, w świecie realnym, relacja między nimi musi być wyrażona językiem naturalnym. Matematyka to ważne narzędzie, ale ostatecznym językiem rządzącym nauką jest język naturalny. Nie możemy nie doceniać wyzwań, jakie stoją przed nami. Kosmologia jest w kryzysie i można śmiało postawić na to, że badania oparte na metodologii, która dotąd tak dobrze nam służyła, będą prowadzić donikąd. Z pojawiających się paradoksów możemy wywnioskować, co zdarzy się, jeśli spróbujemy wziąć standardowy paradygmat newtonowski za podstawę kosmologii. Musimy ruszać zatem naprzód ku nieznanemu. Mamy przed sobą wybór wśród radykalnych programów. O ich poprawności możemy powiedzieć dopiero wtedy, gdy zobaczymy, który z nich

prowadzi do sprawdzalnych wyników obserwacji, jeśli zostaną one wykonane. Można także oczekiwać nowych teorii, które przekonująco wyjaśnią znane, ale zagadkowe obecnie fakty. Powinniśmy popierać różnorodne podejścia do tych trudnych zagadnień. Wybór jest jednak trudny. Dla porównania wymieniłem pary twierdzeń, z którymi zetknęliśmy się już w tej książce. Formułują one implikacje wynikające z traktowania czasu jako iluzji lub jako istoty rzeczywistości.

Czas jest iluzją. Prawda i rzeczywistość są bezczasowe.

Czas jest najbardziej realnym aspektem świata. Wszystko, co jest prawdziwe i rzeczywiste, jest takie w chwili, która jest jedną z następujących po sobie.

Przestrzeń i geometria są rzeczywiste.

Przestrzeń jest emergentna i przybliżona.

Prawa natury są bezczasowe i niewytłumaczalne.

Prawa natury ewoluują w czasie i mogą być objaśnione przez ich historię.

Przyszłość określają prawa fizyki działające na warunki początkowe Wszechświata.

Przyszłość nie jest całkowicie przewidywalna, a zatem częściowo otwarta.

Historia Wszechświata jest, we wszystkich swych aspektach, identyczna

Wiele regularności natury można przedstawić za pomocą modeli matematycznych, ale nie

z określonymi obiektami matematycznymi.

każda własność natury ma swe odbicie w matematyce.

Wszechświat jest przestrzennie nieskończony. Przewidywania probabilistyczne sprawiają kłopot, ponieważ prowadzą do dzielenia przez siebie dwóch wielkości nieskończonych.

Wszechświat jest przestrzennie skończony. Prawdopodobieństwa są zwykłymi częstościami względnymi.

Osobliwość początkowa jest początkiem czasu (gdy czas jest w ogóle zdefiniowany) i jest niewytłumaczalna.

Wielki Wybuch w rzeczywistości jest odbiciem, które powinna objaśniać historia Wszechświata przed jego wystąpieniem.

Nasz obserwowalny Wszechświat jest jednym z nieskończonej liczby jednocześnie istniejących, ale nieobserwowalnych wszechświatów.

Nasz Wszechświat jest stadium szeregu epok wszechświata. Skamieliny albo szczątki poprzednich er można zaobserwować w danych kosmologicznych.

Równowaga jest stanem naturalnym i nieuniknionym przeznaczeniem Wszechświata.

Tylko małe podukłady Wszechświata osiągają jednorodne równowagi; układy związane grawitacyjnie ewoluują do konfiguracji zorganizowanych heterogenicznie.

Obserwowana złożoność i porządek Wszechświata jest

Wszechświat w sposób naturalny samoorganizuje się

przypadkiem losowym spowodowanym przez rzadkie fluktuacje statystyczne.

na wszystkich poziomach złożoności pod wpływem grawitacji.

Mechanika kwantowa jest teorią ostateczną i prawidłowa interpretacja jest taka, że istnieje nieskończenie wiele rzeczywistych alternatywnych historii.

Mechanika kwantowa jest przybliżeniem nieznanej jeszcze teorii kosmologicznej.

Więcej niż dwa dziesięciolecia trwa już program badawczy oparty na bezczasowym wszechświecie i obejmujący mechanikę kwantową i wieloświat jako teorie ostateczne. Nie stworzył on ani jednego falsyfikowalnego przewidywania dla wykonalnego eksperymentu. W jego ramach, co najwyżej, pojawiły się przypuszczenia o nowym zjawisku, zderzeniu wszechświatów pęcherzykowych, którego pozostałości, o ile będziemy mieć szczęście, mogłyby być zaobserwowane. Nie są one jednak falsyfikowalnym przewidywaniem, ponieważ niepowodzenie potwierdzenia przewidywania łatwo można usprawiedliwić tym, że były to tylko przypuszczenia. Nie zostały także rozwiązane podstawowe trudności, jakie ten program napotkał, i to pomimo wieloletniego wysiłku i determinacji wielu utalentowanych badaczy. Problemy te mają związek z przewidywaniami, że nasz Wszechświat jest jednym z nieskończenie wielu, ale

tylko jedynym, który może być obserwowany. Wynikają też z definicji prawdopodobieństwa, gdy istnieje nieskończenie wiele kopii każdego zdarzenia, a także z podstawowego faktu, że ani teoria, ani obserwacja nie ogranicza inwencji w wynajdywaniu scenariuszy rozgrywających się poza granicami naszych obserwacji. Nie można z pewnością stwierdzić, że nic ważnego nie powstanie w wyniku tych badań, ale prawdopodobniejsze wydaje się, że historia zaliczy je do niepowodzeń – niepowodzeń spowodowanych błędnym podejściem do podstaw nauki. Tak się dzieje, gdy do całości Wszechświata stosuje się metodę odpowiednią do badania tylko małych jego części. Jeśli scharakteryzowałem je poprawnie, to niepowodzenie ma głębsze przyczyny, i nie można go przezwyciężyć, obmyślając inny scenariusz tego samego typu. Na pytania kosmologiczne Dlaczego te metody? i Dlaczego takie warunki początkowe? odpowiedzi nie udzielą metody i prawa, dla których parametrem wejścia są same warunki początkowe Wszechświata. Lekarstwo musi być radykalne, nie może nim być stworzenie tylko innej teorii, ale konieczne jest też opracowanie nowej metody, a więc nowego rodzaju teorii. Choć zadanie nie jest zachęcające, mamy kilka wskazówek, na których możemy się oprzeć. Pierwsze i najprawdopodobniej zbyt proste próby stworzenia hipotez o ewolucji praw – hipotez o możliwej historii Wszechświata, zanim nastąpił Wielki Wybuch –

prowadzą do przewidywań falsyfikowalnych przez wykonalne obserwacje. Wśród nich są prognozy kosmicznego doboru naturalnego i kosmologii cyklicznych. Jest za wcześnie, aby stwierdzić, czy któraś z tych idei jest prawdziwa, ale zachęcające jest to, że współczesne obserwacje lub takie, które da się wykonać w najbliższej przyszłości, mogłyby je sfalsyfikować. Te proste przykłady świadczą, że możemy poddać testom scenariusze, w których nasz Wszechświat jest pewnym stadium całej serii następujących po sobie wszechświatów, a zatem są one naukowe. Sprzyja nam także mądrość największych kosmologów, szczególnie Leibniza, Macha i Einsteina. Są oni twórcami kilku zasad, które były dotąd doskonałą wskazówką dla rozwoju fizyki. Najbardziej radykalną koncepcją tego typu myślenia jest nacisk na rzeczywistość chwili teraźniejszej i zasada stwierdzająca, że wszystko rzeczywiste jest tylko w chwili teraźniejszej. Zakładając, że jest to idea owocna, nie można już rozumieć fizyki jako poszukiwania matematycznego sobowtóra Wszechświata. Takie marzenie powinno być już uważane za metafizyczną fantazję, która mogła inspirować pokolenia teoretyków, ale teraz blokuje ścieżkę dalszego postępu naukowego. Matematyka dalej będzie służyć nauce, ale już nie może być królową. Nagrodą za poświęcenie królowej jest bardziej demokratyczna wizja przyszłych teorii fizycznych.

Podobnie jak kiedyś odrzucono różnice klasowe, teraz musimy odrzucić absolutne rozróżnienie sytuacji świata i praw, które powodują jej ewolucję w czasie, i wyjść poza nie. Absolutne, bezczasowe prawa nie mogą już rządzić ewolucją ograniczonej czasowo konfiguracji świata. Jeśli wszystko, co rzeczywiste, jest rzeczywiste w chwili teraźniejszej, to rozróżnienie między prawami a stanami musi być względne, powinno ono się pojawiać i być dostrzegalne we względnie chłodnych i spokojnych erach kosmologicznych, podobnych do naszej. Natomiast w innych, bardziej gwałtownych erach rozróżnienie musi zniknąć w nowym, dynamicznym opisie świata, który jest relacyjny i odpowiada regule koniecznej przyczyny. Umożliwiając prawom ewolucję w czasie, zwiększamy szanse ich wyjaśnienia dzięki hipotezom, które mają testowalne konsekwencje. Może się wydawać, że w ten sposób prawa tracą swą moc, ale w istocie zwiększa się moc całej nauki, natomiast zmniejsza ją rozszerzanie paradygmatu newtonowskiego na kosmologię. Jeśli na najbardziej podstawowym poziomie dopuścimy do koncepcji natury jej ewolucję i czas, to zrozumiemy szybciej ten tajemniczy Wszechświat, w którym się znajdujemy. Czy ten nowy kierunek odniesie sukces? Czas pokaże. 183 Tę ideę realizuje model opisany w: Lee Smolin, Matrix Universality of Gauge and Gravitational Dynamics, arXiv:0803.2926v2

[hep-th] (2008). 184 Lee Smolin, Unification of the State with the Dynamical Law, arXiv: 1201.2632v1 [hep-th] (2012). 185 Wheeler powiedział także: „Żadne zjawisko nie jest realne dopóty, dopóki nie stanie się zjawiskiem obserwowanym”. Muszę przyznać się, że z wiekiem coraz silniej przemawiają do mnie jego enigmatyczne wypowiedzi.

EPILOG

MYŚLENIE W CZASIE Postęp ludzkiej cywilizacji, od wynalezienia pierwszych narzędzi do technologii kwantowych, jest rezultatem metodycznego stosowania wyobraźni. Wyobraźnia to coś, co pozwala nam się rozwijać, unikając w życiu zagrożenia, i umożliwia poszukiwanie nowych możliwości; to dostosowanie się do rzeczywistości czasu. Jesteśmy świetnymi łowcami, zbieraczami i doskonale potrafimy przetwarzać informacje, ale to daleko nie wszystko. Mamy zdolność wyobrażania sobie sytuacji, które nie wynikają z dostępnych nam danych. Nasza wyobraźnia pozwala na przewidywanie zagrożeń, zanim one wystąpią, co prowadzi do tego, że możemy się odpowiednio do nich przygotować. Nie jesteśmy w nocy godnym przeciwnikiem dla tygrysa i niewiele potrafilibyśmy zdziałać, gdyby już zdążył rzucić się na dziecko. Ponieważ jednak możemy wyobrazić sobie taką sytuację, rozpaliliśmy ognisko, aby trzymał się od nas z daleka.

Wiedza o tym, że można rozpalić ognisko, aby tygrys trzymał się z dala, może nie robi zbyt wielkiego wrażenia, ale pomyślmy o kimś, kto tego dokonał po raz pierwszy kilkaset tysięcy lat temu. To wykorzystanie jednego śmiertelnego zagrożenia w celu oddalenia innego musiało w tamtych czasach wyglądać na szaleństwo. Już sam pomysł kontrolowania ognia wymagał nie lada wyobraźni i odwagi. We współczesnym świecie żyjemy z ogniem trzymanym w domach, w przewodach ułożonych w ścianach, w piekarnikach, w piecach centralnego ogrzewania, nawet o tym nie myśląc – przynajmniej dopóki, jadąc samochodem, nie zastanawiamy się, czy wyłączyliśmy kuchenkę. Jednak gdyby nie ludzie, od których się wywodzimy i którzy setki tysięcy lat temu, dzięki wyobraźni, stworzyli metody okiełznania ognia, wciąż bylibyśmy łupem dla drapieżników. Takie są twarde warunki życia. Rozwijanie się w ciągłej niepewności. Rozwijamy się na granicy między możliwościami a zagrożeniami. Żyjemy ze świadomością, że nie możemy mieć kontroli nad wszystkim i że nie jesteśmy w stanie powstrzymać wszystkich złych rzeczy, które mogą się czasami zdarzyć. Inne zwierzęta ewoluowały, dostosowując się do otoczenia. Dla nich niespodzianka zawsze niesie w sobie złą nowinę, bo jest sygnałem zmiany w otoczeniu, wystawiającej je na niebezpieczeństwo,

do którego nie są przystosowane. W pewnym momencie ewolucji nasi przodkowie rozwinęli w sobie zmysł wyobraźni, który umożliwił im adaptację w nowych środowiskach. Wyobraźnia pozwoliła wykorzystać zmianę do rozszerzania naszego królestwa na planecie. Około 12 000 lat temu zaadaptowaliśmy środowiska naszego bytowania do swoich wymagań, stając się bardziej rolnikami niż zdanymi na kaprysy losu łowcami-zbieraczami. Od tego czasu tak się rozprzestrzeniliśmy, że dla środowiska naturalnego Ziemi staliśmy się ciężarem, który może nam samym wielce zaszkodzić. Jednak wyobraźnia to nasza gra, doprowadziła nas tu, gdzie jesteśmy teraz, dlatego tylko ona może dostarczyć nam nowych pomysłów, które przeprowadzą nas bezpiecznie przez nadchodzące niespodzianki. Ta sama wyobraźnia, która umożliwiała adaptację, sprawia, że potrafimy uświadomić sobie własną nieuchronną śmierć. Chcąc żyć możliwie najdłużej, odsuwamy od siebie nieuniknione, a jako ludzie przesadzamy ogromnie w tym, co robimy. Stworzyliśmy kwitnące cywilizacje, naukę, sztukę i wspaniałe technologie, które uważamy za rzecz oczywistą. Przesadzie towarzyszy marnotrawstwo, ponieważ najsolidniejszym zabezpieczeniem przed gwałtownym spadkiem jest gwałtowny wzrost. Dzięki temu gatunek, który zajmował podczas ewolucji względnie wąską niszę, podbił całość powierzchni planety. Nasi najbliżsi

krewniacy stali się gatunkiem prawie zagrożonym, żyjącym w afrykańskich lasach, gdy nas są miliardy. Specjacja, która oddzieliła nas od innych naczelnych, jest często przypisywana „kulturze”, ale czy nie jest to tylko inne słowo wyrażające nieustanne wyobrażanie sobie lepszego życia i dążenie do spełnienia marzeń? Można sobie wyobrazić istoty nieproszące o wiele, które ze swych środowisk i społeczeństw czerpią skromnie, które instynktownie żyją w równowadze ze światem. Niektórzy z nas chętnie tacy by się stali. W prostym życiu nie ma nic złego, ale istoty ludzkie ogólnie tak nie postępują. Powszechne jest wśród nas dążenie do posiadania więcej, niż mamy. Być człowiekiem to wyobrażać sobie to, co nie istnieje, to nie ograniczać się w poszukiwaniach, to poddawać próbie ograniczenia, to badać, przekraczać i obalać przerażające granice znanego nam świata. Romantyczna teza głosi, że pogwałcanie barier i naruszanie równowagi naszego środowiska stanowi patologię kapitalizmu i współczesnego społeczeństwa technologicznego. To jednak nie tak. W epoce kamiennej najechaliśmy Amerykę Północną, zalewając ogromną falą cały ten kontynent i po drodze zmiatając z powierzchni ziemi większość dużych ssaków. W walkach plemiennych zginął wtedy znacznie większy odsetek łowców-zbieraczy niż Europejczyków w dwóch wojnach światowych XX wieku. Wydaje się, że jako gatunek jesteśmy w okresie

szczytu dominacji nad ekosystemem planety i nad jej zasobami. Wszyscy zdajemy sobie sprawę z tego, że obecna sytuacja narusza równowagę ekologiczną. Musiało się to stać, bo zawsze takie są efekty gwałtownego wzrostu. Jeśli nie nauczymy się szybko działać mądrzej niż w przeszłości, to okaże się, że żyliśmy w okresie szczytu i kryzysu, jaki po nim nastąpi. Jeśli dalej będziemy myśleć bezczasowo, nie pokonamy niesłychanych wyzwań wywołanych zmianami klimatycznymi. Nie możemy polegać na standardowych rozwiązaniach politycznych, ponieważ problemy wynikają z niewydolności obecnego systemu politycznego. Tylko pod warunkiem że zaczniemy myśleć w kategoriach czasu, mamy szansę na pomyślny rozwój przez dalsze stulecia. Był kiedyś ktoś, kto miał tyle odwagi, by ujarzmić ogień w celu zapewnienia swym dzieciom bezpieczeństwa. Kto się odważy, by zdać sobie sprawę, że bezpieczeństwo naszych dzieci zależeć będzie od tego, czy nauczymy się kontrolować klimat? Przypuśćmy, że jest rok 2080 i problem zmian klimatycznych został po części rozwiązany. Nasze dzieci będą już osobami starymi – a być może, dzięki postępom medycyny, wciąż w kwiecie wieku. Jak zmieni się ich myślenie dzięki uniknięciu katastrofy? Łatwiej wyobrazić sobie, co będą myśleć, jeśli nic nie zrobimy, aby ograniczyć emisję dwutlenku węgla do atmosfery. Gdy będą miały do czynienia ze wzrostem

temperatury i poziomów oceanów, suszami i zmarnowanymi uprawami, przepełnieniem miast uchodźcami, to dobrze wiemy, co o nas pomyślą. Jednak przypuśćmy, że staliśmy się na tyle mądrzy, aby tego uniknąć. Jaka to wiedza nabyta w tym czasie może doprowadzić do tego sukcesu? I jakie dobra (rozumiane jako przeciwieństwo uniknięcia katastrofy) posiądzie społeczeństwo dzięki rozwiązaniu tego kryzysu? Literatura dotycząca zmian klimatu zazwyczaj przedstawia negatywne ich skutki. Wciąż czytamy o okropnych konsekwencjach bierności, ale nigdzie nie znajdziemy omówienia dodatkowych korzyści, które osiągniemy, gdy zniknie ten problem. Ludzie dobrze się odżywiający i zażywający ruchu znajdują korzyść w tym, że są zdrowi i nie muszą myśleć, jak uniknąć chorób i wczesnej śmierci. Czy podobnie możemy znaleźć korzyść w ekonomii, która rozwija zdrową planetę? Trudno przewidzieć skutki przezwyciężenia zmian klimatycznych, ponieważ aby odnieść sukces, musimy zrobić coś więcej, niż rozwiązać problem globalnej produkcji przemysłowej. Nawet wśród tych, którzy doceniają wagę kryzysu, trzymanie się jednego z dwóch przeciwstawnych punktów widzenia, obu fałszywych, opóźnia realny postęp. Dla tych, którzy postrzegają świat w perspektywie gospodarki, natura jest surowcem do wykorzystania – a zmiana klimatu to tylko problem produkcji rolnej w większej skali, z którym można sobie

poradzić dzięki analizie kosztów. Dla działaczy organizacji ekologicznych natura jest dobrem pierwotnym i najważniejszym, niszczonym przez wdarcie się do niej cywilizacji; ich zdaniem zmiany klimatyczne są jeszcze jednym zagadnieniem jej ochrony. Obie te grupy nie trafiają w sedno, ponieważ obie zakładają, że natura i przemysł są wzajemnie wykluczającymi się kategoriami, a gdy dochodzi do ich starcia, trzeba dokonywać między nimi wyboru. Tymczasem optymalne rozwiązanie kryzysu wymaga zasypania przepaści między tym co sztuczne a tym co naturalne. Nie trzeba dokonywać wyboru między naturą a technologią, ale reorientacji ich wzajemnego związku. Bardzo poważne dowody naukowe wskazują na to, że za destabilizację klimatu odpowiadamy my sami, ale jest także prawdą, że w przeszłości też dochodziło do bardzo poważnych jego zmian. Jeśli coś takiego się znowu zaczyna – bez względu, czy jesteśmy tego przyczyną, czy nie – będzie miało bardzo tragiczne dla nas konsekwencje. A ponieważ mamy zdolność powstrzymania albo tylko zmniejszenia zmian klimatu, musimy to zrobić – z tego samego powodu, z którego poszukujemy asteroid, jakie mogłyby uderzyć w Ziemię, i będziemy je niszczyć. Gdy już rozwiążemy ten problem, będziemy musieli na stałe utrzymywać klimat w takim zakresie, który zapewni ludzkości dalszy rozkwit. Wymaga to włączenia technologii w cykle naturalne i układy, które dotąd go regulowały.

Gdy zrozumiemy, jak układy naturalne regulujące klimat reagują na technologię, i spowodujemy, że technologia i gospodarka zaczną nań pozytywnie oddziaływać, przekroczymy przepaść dzielącą to, co naturalne od tego, co sztuczne. Ekonomia i klimat będą tylko aspektami tego samego pojedynczego układu. Aby przeżyć kryzys, musimy wyobrazić sobie i stworzyć nowy rodzaj układu, symbiozę procesów naturalnych decydujących o klimacie z naszą cywilizacją technologiczną. Przyzwyczailiśmy się wykorzystywać świat natury naszymi technologiami, a siebie postrzegać jako niezależnych od niego. Bez względu na to, czy fantazjujemy o podboju natury czy też o naturze przeżywającej nas, pomysł, że jesteśmy od niej niezależni, osiągnął kres swej przydatności. Jeśli chcemy przetrwać jako gatunek, potrzebujemy nowego spojrzenia na to, co robimy. Musimy uczynić wszystko, co robimy i wytwarzamy równie naturalnym, jak cykl przemiany węgla i tlenu, z którego sami powstaliśmy i w którym uczestniczymy wraz z każdym naszym oddechem. Aby rozpocząć to zadanie, musimy zrozumieć podstawy dychotomii: naturalne–sztuczne. Ma to ogromny związek z czasem. Fałszywą ideą, którą musimy porzucić, jest to, że wszystko związane z czasem jest iluzją, a to, co bezczasowe, jest rzeczywiste.

Wczesny wyraz tej wyznawanej przez lata filozofii można znaleźć w chrześcijańskiej interpretacji kosmologii Arystotelesa i Ptolemeusza, w której, jak pisałem w rozdziale 1, sfera ziemska jest miejscem zamieszkanym przez życie, ale także przez śmierć i rozpad, otoczonym przez doskonałe sfery niezmiennych krystalicznych konstrukcji obracających się wiecznie wokół Ziemi, zawierających Księżyc, Słońce i planety. Gwiazdy są umocowane na sferze zewnętrznej, którą żyje Bóg i Jego aniołowie. Z tego opisu wynika, że dobro i prawdę można znaleźć ponad nami, a zło i fałsz pod nami. Aby nauczyć się żyć w zgodzie z planetą, musimy się pozbyć pozostałości tych starych tęsknot. Ta sama hierarchia obowiązuje w oddzielaniu tego, co naturalne, od tego, co sztuczne, chociaż różni ludzie różnie to rozumieją. Niektórzy bardziej cenią to co sztuczne niż świat natury istot żywych, ponieważ – jako produkt rozumu, a nie bezmyślnej, bałaganiarskiej ewolucji – bliższe jest ono absolutnej perfekcji i w konsekwencji bezczasowości. Inni szanują to co naturalne, cechuje je bowiem czystość, której brak sztucznym konstrukcjom. Jak pozbyć się koncepcyjnej struktury podziału i hierarchicznego świata odgraniczającego materię natury od sztucznej? Ucieczką z tej koncepcyjnej pułapki jest eliminacja pomysłu, że coś jest albo może być bezczasowe. Powinniśmy odnosić się do wszystkiego

w naturze, do nas samych i naszej technologii, jak do czegoś ograniczonego w czasie i stanowiącego część większego, wiecznie ewoluującego układu. Świat bez czasu jest światem z ograniczonym zbiorem możliwości, których nie da się przekroczyć. Jeśli natomiast czas jest realny i wszystko mu podlega, to nie ma ograniczonego zbioru możliwości i nie ma żadnej przeszkody uniemożliwiającej tworzenie zupełnie nowych idei i rozwiązań. A więc aby wyjść ponad rozróżnienie tego, co naturalne, i tego, co sztuczne, i ustanowienie jednego układu dla obu, musimy odpowiednio usytuować się w czasie. Potrzeba nam nowej filozofii, takiej, która antycypuje połączenie naturalnego ze sztucznym dzięki mediacji między naukami przyrodniczymi a społecznymi, w której ludzkie działanie ma swe prawowite miejsce w naturze. Nie jest to relatywizm, w którym prawdą może być wszystko, co chcemy. Aby przeżyć zmiany klimatyczne, musimy dobrze wiedzieć, co jest prawdą. Musimy także odrzucić zarówno modernistyczne pojmowanie prawdy i piękna określanych przez formalne kryteria, jak i skierowany przeciw nim postmodernistyczny bunt, co rzeczywistość i etykę uważa za zwykłe konstrukty społeczne. Potrzebny jest nam relacjonizm, zgodnie z którym przyszłość jest ograniczona przez teraźniejszość, ale jest przez nią określona, tak że są możliwe nowatorstwo i inwencja. Zastąpi to fałszywą nadzieję transcendencji

do bezczasowości, pełnej nadziei na wieczny i absolutnie doskonały rozwój ludzkości, w ramach kosmosu z otwartą przyszłością. Częścią programu nowej filozofii jest uratowanie kosmologii od nienaukowych prób przez uznanie centralnej roli czasu w skali kosmologicznej. W tej książce skupiliśmy uwagę na zadaniach naukowych. Jest mało prawdopodobne, by cywilizacja, w której uczeni i filozofowie nauczają, że czas jest iluzją, a przyszłość już ustalona, mogła skupić moc inwencji twórczej na utworzeniu więzi między organizacjami politycznymi, technologią i procesami naturalnymi – więzi istotnej dla podtrzymania dalszego naszego rozwoju poza to stulecie. Metafizyczny pogląd, że rzeczywistość jest bezczasowa, największą szkodę prawdopodobnie wyrządził przez swój wpływ na gospodarkę186. Podstawowym błędem myślenia wielu ekonomistów jest wizja rynku jako układ z pojedynczym stanem równowagi. To stan, w którym ceny tak zostały dopasowane, że dostawy poszczególnych produktów wyczerpują popyt na nie, zgodnie z prawem popytu i podaży. Uchodzi on za optymalny dla wszystkich uczestników rynku. Jest nawet twierdzenie matematyczne głoszące, że w równowadze nikt nie może być szczęśliwszy kosztem szczęścia innych187. Jeśli każdy rynek ma taki jeden i tylko jeden punkt

równowagi, wówczas mądrą i etyczną rzeczą jest pozostawienie go samemu sobie, aby osiadł w tym punkcie. Do osiągnięcia tego celu powinny wystarczyć siły rynkowe (to znaczy sposoby reagowania producentów i konsumentów na zmiany cen). Najnowsza wersja tego pomysłu to hipoteza rynku efektywnego, która utrzymuje, że ceny odzwierciedlają całą informację o nim. Na rynku złożonym z wielu graczy, wnoszących do niego swą wiedzę i poglądy w postaci ofert cenowych i cen wywoławczych niemożliwe jest, aby jakiekolwiek aktywa długo pozostawały źle wycenione. Zadziwiające, ale ten sposób myślenia wsparty jest eleganckimi modelami matematycznymi, które formalnie dowodzą, że zawsze istnieje punkt równowagi, to znaczy zawsze jest taki wybór cen, aby zaopatrzenie idealnie wypełniło warunek równowagi. Ten prosty obraz, w którym rynek zawsze działa tak, aby przywrócić warunki równowagi, opiera się na założeniu, że istnieje tylko jeden punkt równowagi. To się jednak nie zdarza. Ekonomiści wiedzą od lat siedemdziesiątych XX wieku, że ich modele matematyczne rynku mają wiele punktów równowagi, w których zaopatrzenie równoważy popyt. Jak wiele ich jest? Trudno to oszacować, ale na pewno ich liczba rośnie co najmniej proporcjonalnie do liczby firm i konsumentów, o ile nie szybciej. We współczesnej skomplikowanej ekonomii, z wieloma produktami wytwarzanymi w wielu firmach i kupowanymi przez

wielu konsumentów, istnieje wiele sposobów ustalania cen, tak aby dostawy i popyt pozostawały w równowadze188. Ponieważ istnieje wiele punktów równowagi, w których bilansują się siły rynkowe, nie mogą one być w pełni stabilne. Teraz pytanie jest następujące: jak społeczeństwo wybiera punkt równowagi, w którym chce się znaleźć. Wyboru nie można wytłumaczyć tylko siłami rynkowymi, ponieważ zaopatrzenie i popyt są równoważone w każdym z wielu możliwych punktów. Kontrole, prawa, kultura, etyka i polityka grają zatem ważną rolę, decydując o ewolucji ekonomii rynkowej. Jak to możliwe, że wpływowi ekonomiści przez dekady wychodzili z założenia o istnieniu jedynego punktu równowagi, podczas gdy w literaturze fachowej rezultaty ich prominentnych kolegów wskazywały, że takie podejście jest błędne? Moim zdaniem powodem jest wpływ bezczasowości na to, co ograniczone czasowo. Gdy bowiem mamy tylko jeden stabilny stan równowagi, dynamika, dzięki której rynek ewoluuje w czasie, nie jest interesująca. Cokolwiek nastąpi, rynek znowu znajdzie się w równowadze, a jeśli pojawią się na nim zaburzenia, będzie on oscylował wokół położenia równowagi i w końcu osiądzie w nim z powrotem. Nie trzeba już wiedzieć nic więcej. Jeśli istnieje jedyne i stabilne położenie równowagi, to nie ma wiele możliwości dla ludzkich działań (pomijając to, że firmy maksymalizują zysk, i że każdy

konsument dąży do maksymalizacji swego zadowolenia) i najlepsze, co można zrobić, to pozostawić rynek samemu sobie, aby osiągnął równowagę. Gdyby zaś pojawiło się wiele punktów równowagi, a żaden z nich nie był zupełnie stabilny, to czynnik ludzki musi ingerować w rynek i sterować jego dynamiką, tak aby został wybrany jeden z wielu możliwych punktów. W myśleniu ekonomicznych guru, których idea zniesienia kontroli rynku tryumfuje, rola działalności ludzkiej była zaniedbywana przez wzgląd na mityczny, bezczasowy stan natury. Koncepcja ta, choć poniosła kompletną porażkę, umożliwiła błędną politykę, która doprowadziła do ostatniego kryzysu i recesji. Tę pomyłkę można wyrazić inaczej za pomocą pojęcia zależności i niezależności od ścieżki. Układ jest zależny od ścieżki, jeśli znaczenie ma to, jak ewoluował z jednej konfiguracji do drugiej – to znaczy obecne okoliczności zależą nie tylko od tego, gdzie jesteśmy, ale także od tego, jak tutaj dotarliśmy. Jest zaś niezależny od ścieżki, jeśli wszystko zależy od obecnej konfiguracji, bez względu na to, jak się w niej znalazł. W układzie niezależnym od ścieżki czas i dynamika odgrywają małą rolę, ponieważ w każdym momencie jest on albo w swym wyjątkowym stanie, albo fluktuuje wokół niego. W układzie zależnym od ścieżki czas odgrywa rolę istotną. W podejściu neoklasycznym gospodarka jest uważana za niezależną od ścieżki. Wydajny rynek jest

niezależny od ścieżki, tak jak ten z jednym stabilnym punktem równowagi. W układzie niezależnym od ścieżki pieniądz nie może powstać jedynie dzięki handlowi, bez wytwarzania czegoś, co ma wartość. A tego rodzaju działalność nazywamy arbitrażem i podstawowa teoria finansów utrzymuje, że arbitraż na rynku efektywnym jest niemożliwy, ponieważ wszystko już ma swoją cenę wyznaczoną w taki sposób, aby nie było niespójności. Nie można wymienić dolarów na jeny, potem tych wymienić na euro, a euro wymienić z powrotem na dolary i osiągnąć w ten sposób zysk. Niemniej fundusze hedgingowe i banki inwestycyjne osiągają fortuny, spekulując walutami na rynkach walutowych. Taki sukces nie powinien pojawić się na rynku efektywnym, ale zdaje się, że nie ma to znaczenia dla teoretyków ekonomii. Wiele lat temu ekonomista Brian Arthur, swego czasu najmłodszy kierownik katedry na Uniwersytecie Stanforda, zaczął dowodzić, że gospodarka jest zależna od ścieżki189. Oparł się na tym, że reguła ekonomiczna zwana prawem malejących przychodów krańcowych nie zawsze jest prawdziwa. Prawo to mówi, że im więcej czegoś się produkuje, tym mniejszy jest zysk przypadający na sprzedaną jednostkę produktu. Nie zawsze się ono spełnia, na przykład w produkcji oprogramowania, gdzie koszt stworzenia i dystrybucji dodatkowej kopii jest niesłychanie niski, tak że najważniejsze koszty ponosi się na początku. Teoria

Arthura była traktowana jak herezja – i rzeczywiście, bez założenia o malejących przychodach niektóre dowody matematyczne modeli ekonomii neoklasycznej rozsypują się jak domek z kart. W połowie lat dziewięćdziesiątych magistrantka ekonomii na Har​vardzie, Pia Malaney, pracująca z matematykiem Erikiem Weinsteinem, wynalazła matematyczną reprezentację dla gospodarki zależnej od ścieżki. W geometrii i fizyce istnieje dobrze poznana technika badania układów zależnych od ścieżki nazywana polami cechowania. Pola te dają matematyczne podstawy rozumienia mechanizmu wszystkich oddziaływań w naturze. Malaney i Weinstein zastosowali je do ekonomii i wykazali, że jest ona zależna od ścieżki. Rzeczywiście, istnieje łatwo obliczalna wielkość zwana krzywizną, która mierzy zależność od ścieżki, a badacze odkryli, że nie jest równa zeru w typowych modelach gospodarki rynkowej, w jakich mogą zmieniać się ceny i preferencje konsumentów. W konsekwencji, jak w wypadku Ziemi i geometrii czasoprzestrzeni, matematyczne modele gospodarki rynkowej są zakrzywione. W swej pracy doktorskiej Malaney zastosowała ten model do wzrostów wskaźnika cen towarów i usług konsumpcyjnych i wykazała, że został źle obliczony przez ekonomistów, którzy w swych konstrukcjach teoretycznych nie brali pod uwagę zależności od ścieżki190. Praca Malaney i Weinsteina została zignorowana

w ekonomicznym środowisku akademickim, ale zależność rynków od ścieżki doceniła pewna część fizyków, którzy od razu zastosowali do nich teorie cechowania191. Nie sposób zliczyć, ile funduszy hedgingowych zarabia pieniądze, odkrywając możliwości arbitrażu przez pomiar krzywizny – to znaczy zależności od ścieżki, której się nie spodziewano w ekonomii neoklasycznej – i to niewątpliwie wciąż trwa. Rynki zależne od ścieżki to takie, na których czas naprawdę się liczy. Jak ekonomia neoklasyczna radzi sobie z faktem, że w rzeczywistości rynki ewoluują w czasie, w odpowiedzi na zmieniające się technologie i preferencje, i wciąż otwierające się nowe możliwości zarabiania pieniędzy, które nie powinny istnieć w jej modelach? Pomija czas. W modelu neoklasycznym my jako konsumenci jesteśmy ujmowani za pomocą funkcji użyteczności. To funkcja matematyczna przypisująca liczby każdej możliwej kombinacji dóbr i usług sprzedających się na rynku. Stanowi ona olbrzymi zbiór, ale przecież to matematyka, kontynuujmy więc. Pomysł polega na tym, że im większą użyteczność ma dla nas zbiór dóbr i usług, tym więcej będziemy chcieli ich kupować. Modele zakładają, że dokonujemy zakupu takiego zbioru dóbr i usług, który maksymalizuje nasze zadowolenie mierzone krzywą użyteczności, pod warunkiem że nas na nie stać. A co z czasem? Problem w tym, że badane wykazy

zawierają wszystkie towary i usługi, jakie moglibyśmy kupić w ciągu całego życia. Dlatego nałożone ograniczenie dotyczy dochodu, jaki możemy osiągnąć w ciągu życia. To zupełny absurd. Skąd ludzie mogą wiedzieć, czego będą chcieli lub potrzebowali za kilkadziesiąt lat albo jaki dochód osiągną w czasie swego życia? Modele radzą sobie z takimi ewentualnościami – faktem, że w ciągu swego życia każdy staje wobec niezliczonej liczby nieprzewidzianych okoliczności – wrzucając je do wspólnego worka z towarami i usługami. Oznacza to, że model zakłada określoną cenę dla każdego możliwego zbioru towarów i usług w każdym czasie i w każdej sytuacji, która mogłaby powstać – nawet w przyszłości, za kilkadziesiąt lat. Istnieje cena, powiedzmy, nie tylko dla forda mustanga, ale dla forda mustanga w 2020 roku bez względu na jakiekolwiek okoliczności. Modele zakładają nie tylko, że wszystkie towary i usługi, jakie moglibyśmy zakupić, mają dokładnie określoną cenę w warunkach równowagi, lecz także że każda przyszła cena każdego zbioru towarów i usług, niezależnie od tego, co się zdarzy, też jest dokładnie ustalona. Ponadto przewidują, że jest tylu inwestorów z taką różnorodnością poglądów, iż obstawiają oni wszystkie pozycje i możliwości – podczas gdy badania rynków realnych wykazują, że większość inwestorów skupia się na małej liczbie pozycji192. Fakt, że modele ekonomii neoklasycznej dochodzą

do takich absurdów, do abstrakcyjnych czasów i możliwości, pokazuje, jak bardzo istotnym zagadnieniem jest czas. Teorie, w których czas nie odgrywa żadnej roli, są tak ogromnie atrakcyjne, bo być może dają teoretykom poczucie osiągania bezczasowej krainy czystej prawdy, wobec której czas i przypadek istniejący w świecie realnym bledną. Żyjemy w świecie, w którym nie można antycypować pojawienia się większości wypadków. Ani wydarzeń politycznych, odkryć, mód, pogody, ani klimatu nie da się przewidzieć z wyprzedzeniem. W świecie realnym nie ma możliwości pracy z abstrakcyjną przestrzenią możliwości, które mogą ewoluować. Aby zajmować się realną ekonomią, bez elementów mitycznych, potrzebujemy ram teoretycznych, w których z zasady czas jest realny, a przyszłości nie można określić. Tylko w takim kontekście teoretycznym ma sens budowanie dla siebie przyszłości. Ponadto aby połączyć ekonomię z ekologią, musimy ujmować obie dziedziny za pomocą wspólnych terminów – wyobrazić je sobie jako układ otwarty ewoluujący w czasie, z zależnością od ścieżki i wieloma punktami równowagi, sterowany sprzężeniem zwrotnym. Pasuje to do obrazu ekonomii, jaki pokrótce został tu ukazany, pasuje też do teoretycznych ram ekologii, z klimatem jako istotą i wyrazem sieci reakcji chemicznych sterujących i regulowanych przez podstawowe cykle biosfery193.

Jedną z trudności, napotykanych podczas podjęcia próby konstruktywnej rozmowy o przyszłości, jest niespójność, jaką charakteryzuje się współczesna kultura. Ludzie zaangażowani w jedną dziedzinę nauki nie mają pojęcia, o czym mówią reprezentanci innych dziedzin. Wymiana poglądów następuje w hermetycznie zamkniętych środowiskach. Większość fizyków nie bardzo orientuje się w przełomowych odkryciach biologii, nie mówiąc już o najnowszych trendach w naukach społecznych, i nie ma pojęcia, jakie pytania zadają sobie nawzajem najbardziej wpływowi artyści. Jeśli nasza cywilizacja ma nadal prosperować, bardzo pomogłoby nam oparcie decyzji na spójnym poglądzie na świat, w którym na początek niech zapanuje konsensus między naukami przyrodniczymi a społecznymi. Realność czasu może stać się fundamentem dla tej nowej umowy, w której przyszłość jest otwarta na nowości możliwe w każdej skali, od podstawowych praw fizyki do ekonomii wraz z ekologią. W przeszłości wielkie koncepcje nauk fizycznych odbijały się echem w naukach społecznych. Newtonowska idea czasu absolutnego i przestrzeni absolutnej miała bardzo duży wpływ na teorie polityczne współczesnego mu Johna Locke’a. Przyjęcie, że położenia cząstek nie są określane wobec siebie nawzajem, ale wobec przestrzeni absolutnej, miało swoje odzwierciedlenie w ujęciu praw powszechnych

umocowanym na niezmiennym tle zasady sprawiedliwości. Ogólna teoria względności przeniosła fizykę do relacyjnej teorii przestrzeni i czasu, w której wszystkie własności są definiowane za pomocą związków. Czy znalazło to odpowiednie odzwierciedlenie w rozwoju nauk społecznych? Wierzę, że tak, a potwierdzenie można znaleźć w piśmiennictwie Ungera i wielu innych teoretyków socjologii. W kontekście socjologicznym badają oni implikacje filozofii relacyjnej, zgodnie z którą wszystkie własności przypisane osobnikom w systemie społecznym powstają na skutek ich wzajemnych związków. Tak jak w kosmologii leibnizowskiej, nie ma tam zewnętrznych bezczasowych kategorii ani praw. Przyszłość jest otwarta, ponieważ zawsze pojawiają się nowatorskie sposoby organizacji w społeczeństwie nieustannie stającym wobec niespotykanych trudności i okazji. Ta nowa teoria socjologiczna próbuje przekształcić demokrację w globalną formę organizacji politycznej zdolnej do kierowania ewolucją kiełkujących społeczeństw wieloetnicznych i wielokulturowych. Odmieniona demokracja musi być także zdolna do podjęcia decyzji niezbędnych dla przeżycia globalnego kryzysu spowodowanego przez zmiany klimatyczne. Oto jak ja rozumiem tę demokrację z relacyjnej perspektywy nowej filozofii. I co zadziwiające, te same

idee dają pojęcie o tym, jak działa nauka. To ważne zagadnienie, ponieważ wyzwanie, jakim są zmiany klimatu, wymaga wzajemnego oddziaływania polityki i nauki. Zarówno demokratyczne rządy, jak i działania społeczności naukowej rozwinęły metody radzenia sobie z podstawowymi zachowaniami ludzkimi. Jesteśmy bystrzy, ale niedoskonali na swój charakterystyczny sposób. Na przestrzeni jednego życia możemy dokonać analizy zarówno pozycji zajmowanej w naturze, jak i kumulowania wiedzy nabywanej w ciągu całych pokoleń. Rozwinęliśmy także zdolność przekraczania granic możliwości w pracy i myśleniu. To oznacza, że często popełniamy błędy i ulegamy złudzeniom. Aby zwalczyć skłonność do błędów, rozwinęły się społeczeństwa, w których dla dobra przyszłych pokoleń jest miejsce i dla tego, co konserwatywne, i tego, co wyraża bunt. Przyszłość jest autentycznie niepoznawalna, ale jednej rzeczy możemy być pewni – tego, że nasi potomkowie będą wiedzieć znacznie więcej niż my. Pracując zespołowo, możemy zdziałać znacznie więcej niż w pojedynkę, a mimo to postęp wymaga, by jednostki podejmowały wielkie ryzyko inwencji i sprawdzania nowych idei. Środowiska naukowe, tak jak i większe demokratyczne społeczeństwa, z których się wywodzą, są na drodze postępu, ponieważ rządzą nimi dwie podstawowe zasady194.

Gdy racjonalny argument wynikający z powszechnie znanego dowodu wystarczy do podjęcia decyzji w jakiejś sprawie, to taką decyzję należy podjąć. Gdy racjonalny argument powstały na podstawie powszechnie znanego dowodu nie wystarczy do podjęcia decyzji w jakiejś sprawie, społeczeństwo musi sprzyjać zróżnicowaniu poglądów i hipotez, na podstawie których, postępując w dobrej wierze, można przedstawić powszechnie przekonujący dowód. Nazywam je zasadami otwartej przyszłości. Będą one podstawą nowego oświecenia – etapu, który powstaje. Szanujemy siłę rozumowania, gdy jest rozstrzygające, gdy zaś nie jest, szanujemy tych, którzy działając w dobrej wierze, nie zgadzają się z nami. Ludzie działający w dobrej wierze to ci członkowie społeczeństwa, którzy wyznają powyższe zasady. W ramach takich społeczeństw może rozszerzać się wiedza, a my podejmujemy rozsądne decyzje wobec przyszłości, która nie całkiem jest poznawalna. Nawet dokładne trzymanie się zasad otwartej przyszłości prawdopodobnie nie spowoduje, że nauka odpowie na pytania, na których najbardziej nam zależy.

Dlaczego istnieje raczej coś niż nic? Nie mogę sobie wyobrazić, co mogłoby być odpowiedzią na to pytanie, a tym bardziej odpowiedzią popartą dowodami naukowymi. Nawet religia zawodzi w tym wypadku, bo jeśli odpowiedzią jest „Bóg”, to już na samym początku istniało coś – to znaczy Bóg. Albo jeśli czas nie ma początku, to czy wszystkie przyczyny sięgają aż nieskończonej przeszłości? Czy jest ostateczna przyczyna wszystkich rzeczy? To realne pytania, ale jeśli są na nie odpowiedzi, to z pewnością pozostaną na zawsze poza dziedziną nauki. Istnieją także pytania, na które nauka teraz nie może udzielić odpowiedzi, ale są one tak ważne, że w przyszłości nauka wykształci odpowiedni język, koncepcje i techniki eksperymentalne, aby się nimi zająć. Dowodziłem, że wszystko, co realne i prawdziwe, jest takie w chwili, która jest jedną z następujących po sobie chwil. Co jednak znaczy bycie realnym? W czym leży istota tych chwil i procesów, które je łączą? Możemy się zgodzić, że Wszechświat nie jest identyczny ani izomorficzny z obiektem matematycznym i, jak dowodziłem, nie istnieje jego kopia, nie ma więc nic, do czego byłby „podobny”. Czym więc jest Wszechświat? Chociaż każda metafora zawiedzie, a każdy model matematyczny będzie niepełny, to mimo wszystko chcemy wiedzieć, z czego się on składa. Nie jaki jest, ale czym jest? Czym jest substancja, z której świat jest zbudowany? Materię

uważamy za prostą i bezwładną, ale nie mamy żadnego pojęcia, czym ona naprawdę jest. Wiemy tylko, jak oddziałuje. W czym tkwi sedno istnienia skały? Nie wiemy. Tajemnica się pogłębia z każdym odkryciem na temat atomów, jąder, kwarków i tak dalej. Bardzo chciałbym poznać odpowiedź na to pytanie. Czasami rozmyślam nad tym, czym jest skała, gdy kładę się spać i pocieszam myślą, że gdzieś jednak musi istnieć odpowiedź na pytanie, czym jest Wszechświat. Niemniej jednak nie mam zupełnie pojęcia, jak go poszukiwać: czy drogą naukową czy jakąś inną. Tak łatwo coś wymyślić, a książki pełne są propozycji metafizycznych. My zaś chcemy realnej wiedzy, co oznacza, że musi istnieć sposób potwierdzenia proponowanej odpowiedzi. Prowadzi to z powrotem do nauki. Gdyby poza nauką istniała inna droga wiodąca do wiarygodnej wiedzy o świecie, prawdopodobnie nie wybrałbym jej, ponieważ zobowiązałem się do przestrzegania etyki naukowej. Nie jesteśmy w stanie określić przyszłości nauki (na to zwracam uwagę w tej książce), ale relacjonistyczny punkt widzenia powoduje, że nie wierzę, aby nauka mogła odpowiedzieć nam, czym naprawdę jest świat. Relacjonizm mówi, że wielkości, które fizyka może mierzyć i opisywać, dotyczą związków i oddziaływań. Gdy pytamy o istotę materii albo świata, pytamy, czym samoistnie są – czym są pod nieobecność związków i oddziaływań195.

Relacjonizm stoi na stanowisku, że nic nie jest realne na świecie poza tymi własnościami, które są definiowane przez związki i oddziaływania. Czasami ta idea wydaje mi się fascynująca, a czasami absurdalna. Doskonale pozbywa się pytania o to, czym rzeczy w istocie są. Czy jednak ma sens relacja – oddziaływanie – pomiędzy dwoma bytami, jeśli samoistnie są one niczym? Być może istnienie polega właśnie na relacjach. A jeśli tak, to czy coś umożliwi nam wgląd w to, jak mogły lub musiały powstać? Są to pytania zbyt głębokie dla mnie. Ktoś z innym wykształceniem i temperamentem mógłby być zdolny do rozważań nad tymi zagadnieniami, ale nie ja. Jedno, czego nie zrobię, aby zlekceważyć pytanie o to, czym naprawdę jest świat, to z pewnością nie stwierdzę, że jest ono absurdalne. Niektórzy orędownicy nauki upierają się, że pytania, na które nauka nie znajduje odpowiedzi, są bezsensowne, ale mnie to nie przekonuje – bo to wyraz ciasnoty umysłowej. Moje doświadczenie w badaniach naukowych prowadzi mnie do wniosku, że przyszłość jest otwarta, a nowatorstwo realne. Ja naukę postrzegam raczej w kategoriach etycznych niż jako metodę, dlatego muszę zaakceptować możliwość istnienia metodologii naukowych, których nikt jeszcze nie stworzył. To prowadzi nas do naprawdę trudnego problemu: problemu świadomości.

Otrzymuję wiele e-maili dotyczących świadomości. Na większość z nich odpowiadam, że skoro jest to realnie tajemnicze zjawisko, to na razie leży poza zasięgiem tego, czym nauka może się zajmować, opierając się na współczesnej wiedzy. Jako fizyk nic na ten temat powiedzieć nie mogę. Jest tylko jedna osoba, której pozwalam dyskutować ten temat ze mną – bardzo bliski przyjaciel, James George. Jim jest dyplomatą w stanie spoczynku, kiedyś był wysokim komisarzem Kanady w Indiach i Sri Lance oraz ambasadorem w Nepalu, Iranie i państwach nad Zatoką Perską oraz w innych krajach. Jak mi powiedziano, jest on legendarnym przedstawicielem dyplomacji kanadyjskiej z ery premierów Pearsona i Trudeau, gdy Kanada była orędownikiem zachowania pokoju na świecie. Teraz, w wieku dziewięćdziesięciu lat, pisze książki o duchowych podstawach zagadnień środowiska naturalnego i pomaga w prowadzeniu fundacji poświęconej sprawom ekologicznym196. Cieszy się powszechnym podziwem ze strony przyjaciół i znajomych za udzielanie mądrych rad – i jest on jednym z niewielu znanych mi ludzi, którzy potrafią tak mądrze żyć, że nie wyobrażam sobie, abym kiedykolwiek tak umiał. Kiedy więc Jim mówi: „To, co opowiadasz o znaczeniu czasu w fizyce, jest fascynujące, ale pomijasz najistotniejszą rzecz, do której prowadzą twe wywody, to znaczy rolę świadomości

we Wszechświecie” – ja słucham. Słucham, ale nie mam wiele do powiedzenia. Przynajmniej ogólnie wiem, o czym mówi. Wyjaśnię, co rozumiem przez problem świadomości. Nie chodzi mi o zagadnienie, czy będziemy mogli zaprogramować komputer tak, aby potrafił zastanawiać się nad własnym stanem, ani jak z łańcucha reakcji chemicznych powstaje w wyniku ewolucji jednostka autonomiczna, pojęcie wprowadzone przez Stuarta Kauffmana do opisu układów, które mogą podejmować decyzje korzystne dla siebie. To trudne zagadnienia, ale wydają się rozwiązywalne, czyli są naukowe. Przez problem świadomości rozumiem to, że jeśli opiszę kogoś za pomocą wszystkich dostępnych nam pojęć w fizyce i biologii, to coś jednak umknie temu opisowi. Nasz mózg to ogromna i bardzo złożona sieć połączeń mniej więcej stu miliardów komórek, z których każda jest złożonym układem kontrolującym szereg reakcji chemicznych. Mógłbym opisywać to coraz bardziej szczegółowo, ale nigdy nawet ogólnie nie potrafiłbym wyjaśnić, jak dochodzi do tego, że każdy z nas posiada doznania wewnętrzne w postaci strumienia świadomości. Gdybym nie wiedział, na własnym przykładzie, że jestem świadomy, moja wiedza o procesach zachodzących w układzie nerwowym nigdy nie pozwoliłaby mi sądzić, że wy też jesteście. Natomiast najbardziej tajemnicze w tym jest nie

zawartość świadomości, ale sam fakt, że jesteśmy świadomi. Leibniz chciał zmniejszyć się tak, aby móc chodzić wewnątrz czyjegoś mózgu jak po jakiejś manufakturze (dzisiaj powiedzielibyśmy „fabryce”). W wypadku fabryki można ją w pełni opisać, podając to, co widzi osoba przechadzająca się wewnątrz niej. W mózgu już tak się nie da. Tego, że coś umyka nam w fizycznym opisie funkcjonowania tego organu, możemy się domyślić z pewnych zagadnień, których opis fizyczny dotąd nie rozwiązał. Ty i ja patrzymy na kobietę w czerwonej sukience siedzącą przy stoliku obok. Czy obaj mamy to samo doznanie (oczywiście mam na myśli doznanie koloru czerwonego)? Czy może być tak, że twoje odczucie czerwieni jest takie samo jak moje odczucie niebieskiego? Jak się o tym przekonać? Przypuśćmy, że twój wzrok został poszerzony o ultrafiolet. Jak będą wyglądały teraz nowe kolory? Jakie będzie ich naturalne odczucie? To, czego brakuje, gdy opisujemy kolor jako długość fali światła albo błysk impulsu w określonych neuronach mózgu, stanowi istotę odczucia postrzegania czerwieni. Filozofowie nadali jej nazwę qualia. Pojawia się zatem pytanie, skąd pojawiają się qualia koloru czerwonego, gdy dochodzi do absorpcji fotonu określonej długości fali. Filozof David Chalmers właśnie to nazwał trudnym zagadnieniem świadomości. Możemy o to samo zapytać inaczej: przypuśćmy, że

odwzorowaliśmy sieć połączeń neuronalnych twego mózgu na krzemowy układ scalony i zbudowaliśmy na nim komputer. Czy komputer uzyska świadomość? Czy będzie miał qualia? A oto następne pytanie koncentrujące uwagę na problemie: przypuśćmy, że ten zabieg nie jest dla ciebie szkodliwy. Czy teraz będą dwie świadome istoty z takim samym bagażem wspomnień, których przyszłość od tej chwili zaczyna być inna? Wydaje się, że nauka pozostawia problem świadomości albo qualiów bez odpowiedzi, ponieważ jest on aspektem świata nieujętym w opisie oddziaływań fizycznych między cząstkami elementarnymi. Znajduje się on w domenie pytań o to, czym w istocie świat jest, a nie jak można go wyrazić za pomocą modelu czy opisać. Niektórzy filozofowie przekonują, że qualia są pewnymi procesami zachodzącymi pomiędzy neuronami. Mnie to wyjaśnienie wydaje się błędne. Mogą one być całkiem dobrze skorelowane z jakimiś procesami w obrębie neuronów, ale nimi samymi nie są. Procesy neuronowe podlegają opisowi fizyki i chemii, ale żaden najbardziej szczegółowy opis naukowy nie rozwiąże zagadnienia, czym są qualia, ani nie wyjaśni, dlaczego je odczuwamy. Nie mam wątpliwości, że dużo musimy się jeszcze nauczyć o ich związku z mózgiem, aby choć trochę zbliżyć się do samego sformułowania problemu świadomości jako zagadnienia naukowego. Możemy

na świadomych jednostkach przeprowadzać eksperymenty, które dostarczą nam wiedzy o tym, jakie cechy i aspekty procesów neuronowych są związane z tym zjawiskiem. To z pewnością są zagadnienia naukowe, które mogą być rozwiązywane w ramach metodologii naukowej. Kwestie qualiów czynią ze świadomości prawdziwą tajemnicę, taką, która dotąd nie była badana metodami naukowymi. Nie wiem, czy tak wiecznie będzie trwać. Być może uzyskanie większej wiedzy na temat biologii mózgu doprowadzi do rewolucyjnych przekształceń języka, jakiego używamy do opisu żyjących i myślących zwierząt. Po takiej rewolucji pojawią się niewyobrażalne teraz koncepcje i język opisu, który pozwoli na naukowe sformułowanie tajemnicy świadomości i qualiów. Problem świadomości jest pewnym aspektem pytania o to, czym świat naprawdę jest. Nie wiemy, czym naprawdę jest skała albo atom, albo elektron. Możemy zaledwie obserwować, jak oddziałują z innymi rzeczami, i wtedy opisać ich własności relacyjne. Przypuszczalnie wszystko ma aspekty wewnętrzne i zewnętrzne. Własności zewnętrzne są tymi, które nauka potrafi ująć i opisać – poprzez oddziaływania i w formie związków. Wewnętrzny aspekt jest samoistny; jest rzeczywistością, której nie można wyrazić za pomocą języka oddziaływań i relacji. Świadomość, czymkolwiek jest, jest aspektem samoistnym mózgów. Jeszcze innym aspektem świadomości jest fakt, że

trwa ona w czasie. Istotnie, jeśli zapewniam, że zawsze na świecie jest jakiś czas, to ekstrapoluję go z mojego doznania świata zachodzącego w czasie. Czym zaś jest moje doświadczanie? Określam je naukowo jako chwile nagrywania informacji. Formułując to tak, nie muszę wspominać o świadomości i qualiach. Może to być odpowiedź wymijająca, ponieważ aspektami tych doświadczeń są świadomość i qualia. A zatem moje przeświadczenie, że to, co rzeczywiste, jest rzeczywiste w chwili teraźniejszej, ma związek z przeświadczeniem, że qualia są realne. Nauka jest jedną z największych przygód ludzkości. Nabywanie wiedzy stanowi oś każdej opowieści o historii ludzkości, a dla tych, którym udało się w tym brać udział, jest istotą ich życia. Przyszłość nauki jest nieprzewidywalna – w przeciwnym razie nie byłoby żadnych badań – jedyną rzeczą pewną jest to, że w przyszłości będziemy wiedzieć więcej. Ponieważ w każdej skali, od kwantowego stanu atomu do stanu kosmosu, i na każdym poziomie złożoności, od fotonu lecącego z wczesnego Wszechświata ku nam, jednostkom ludzkim i społeczeństwom, kluczem zawsze jest czas, a przyszłość pozostaje otwarta. 186 Więcej o poglądach tu przedstawionych można dowiedzieć się z: Lee Smolin, Time and Symmetry in Models of Economic Markets, arXiv:0902.4274v1 [q-fin.GN] (2009).

187 Wstęp do ekonomii neoklasycznej: Ross M. Starr, General Equilibrium Theory, 2 wyd., Cambridge University Press, New York 2011. 188 Pokazuje to twierdzenie Sonnenscheina–Mantela–Debreu, udowodnione w 1972 roku przez trzech bardzo wpływowych ekonomistów. Jednym z nich jest Hugo Sonnenschein, który nie tylko jest członkiem Chicago School of Economics, ale był rektorem tego uniwersytetu: Market Excess Demand Functions, „Econometrica” 1972, nr 40:3, s. 549–563; G. Debreu, Excess Demand Functions, „Journal of Mathematical Economics”, nr 1, s. 15–21, doi:10.1016/0304‒ 4068(74)90032‒9; R. Mantel, On the Characterization of Aggregate Excess Demand, „Journal of Economic Theory”, nr 7: 348–353, doi:10.1016/0022‒0531(74)90100‒8. 189 W. Brian Arthur, Competing Technologies, Increasing Returns, and Lock-In by Historical Events, „The Economic Journal” 1989, nr 99:394, s. 116–131. 190 Pia Malaney, The Index Number Problem: A Differential Geometric Approach, praca doktorska obroniona na Uniwersytecie Harvarda, 1996. 191 Idee Malaney i Weinsteina skłoniły Samuela Vazqueza, ówczesnego stypendystę po doktoracie w Instytucie Perimeter, do zmierzenia ścieżek zależności na realnych danych rynkowych. Jego posunięcie uchodziło za herezję i byłoby niemożliwe do wykonania w ramach teorii ekonomii neoklasycznej, ale realne dane wskazały, że sukcesy długo- i krótkoterminowej strategii pewnych funduszy dowodzą istnienia krzywizny i stąd zależności od ścieżki na rynku (Samuel E. Vazquez, Simone Farinelli, Gauge Invariance, Geometry and Arbitrage, arXiv: 0908.3043v1 [q-fin.PR] (2009).

192 Vince Darley, Alexander V. Outkin, A NASDAQ Market Simulation: Insights on a Major Market from the Science of Complex Adaptive Systems, World Scientific, 2007). 193 Początku tej prostej koncepcji upatruję w fakcie, że teoretyk biologii Stuart Kauffman i filozof prawa Roberto Mangabeira Unger mówią wspólnie o potrzebie ujęcia swoich dziedzin raczej za pomocą wyłaniających się kolejno możliwości – zbioru następujących po sobie kroków – niż abstrakcyjnych bezczasowych przestrzeni wszystkich możliwych konfiguracji. 194 Implikacje tych dwóch zasad są omawiane w rozdziale 17 mojej książki Kłopoty z fizyką. Powstanie i rozkwit teorii strun, upadek nauki i co dalej, przeł. Jerzy Kowalski-Glikman, Prószyński i S-ka, Warszawa 2008. 195 Zauważmy, że związki są właśnie tym, co wyraża matematyka. Liczby nie mają samoistnej istoty, nie mają jej też punkty w przestrzeni; są one zdefiniowane całkowicie przez swoje miejsce w układzie liczbowym albo zbiorze punktów – których wszystkie własności wynikają z ich związków z innymi liczbami i punktami. Te związki są konsekwencją aksjomatów, z których zbudowany jest model matematyczny. Jeśli w materii jest coś więcej niż związki i oddziaływania, to leży to poza matematyką. 196 James George jest autorem książek: Asking for the Earth, Station Hill Press, Barrytown, NY 2002 i The Little Green Book on Awakening, Station Hill Press, Barrytown, NY 2009. Jest także współzałożycielem Threshold Foundation i prezesem fundacji Sadat Peace Foundation, przewodził międzynarodowym misjom w Kuwejcie oceniającym zniszczenia środowiska w następstwie wojny w Zatoce Perskiej.

BIBLIOGRAFIA Oto wybór bardzo popularnych książek na temat czasu w fizyce i kosmologii (i związanych z tym zagadnień), z których wiele przedstawia omawiane w tej książce problemy z alternatywnego, a nawet przeciwnego punktu widzenia. Guido Bacciagaluppi i Antony Valentini, Quantum Theory at the Crossroads: Reconsidering the 1927 Solvay Conference, Cambridge University Press, New York 2009. Per Bak, How Nature Works: The Science of SelfOrganized Criticality, Copernicus, New York 1996. Julian B. Barbour, The End of Time: The Next Revolution in Physics, Oxford University Press, New York 2000. Julian B. Barbour, The Discovery of Dynamics: A Study from a Machian Point of View of the Discovery and the Structure of Dynamical Theories, Oxford University Press, New York 2001. J.S. Bell, Speakable and Unspeakable in Quantum Mechanics, 2 wyd., Cambridge University Press, New York 2004. James Robert Brown, Platonism, Naturalism, and Mathematical Knowledge, Routledge, Oxford 2011.

Bernard Carr (red.), Universe or Multiverse?, Cambridge University Press, New York 2007. Sean Carroll, Stąd do wieczności i z powrotem. Poszukiwanie ostatecznej teorii czasu, przeł. Tomasz Krzysztoń, Prószyński i S-ka, Warszawa 2011. P.C.W. Davies, The Physics of Time Asymmetry, University of California Press, San Francisco 1974. David Deutsch, Struktura rzeczywistości, przeł. Jerzy Kowalski-Glikman, Prószyński i S-ka, Warszawa 2006. Dan Falk, In Search of Time: The History, Physics and Philosophy of Time, St. Martin’s, New York 2010. Adam Frank, About Time: Cosmology and Culture at the Twilight of the Big Bang, Free Press, New York 2011. Rodolfo Gambini i Jorge Pullin, A First Course in Loop Quantum Gravity, Oxford University Press, New York 2011. Marcelo Gleiser, A Tear at the Edge of Creation: A Radical New Vision for Life in an Imperfect Universe, Free Press, New York 2010. Brian Greene, Ukryta rzeczywistość, przeł. Tomasz Krzysztoń, Prószyński i S-ka, Warszawa 2012. Stephen W. Hawking i Leonard Mlodinow, Wielki projekt, przeł. Jarosław Włodarczyk, Wydawnictwo Albatros Andrzej Kuryłowicz, Warszawa 2011. Stuart A. Kauffman, At Home in the Universe: The Search for the Laws of Self-Organiza-tion and Complexity, Oxford University Press, New York 1995. Stuart A. Kauffman, The Origins of Order: SelfOrganization and Selection in Evolution, Oxford

University Press, New York 1993. Helge Kragh, Higher Speculations: Grand Theories and Failed Revolutions in Physics and Cosmology, Oxford University Press, New York 2011. Janna Levin, How the Universe Got Its Spots: Diary of a Finite Time in a Finite Space, Princeton University Press, Princeton 2002. João Magueijo, Faster than the Speed of Light: The Story of a Scientific Speculation, Perseus, Cambridge, MA 2003. Roberto Mangabeira Unger, The Self Awakened: Pragmatism Unbound, Harvard University Press, Cambridge, MA 2007. Harold Morowitz, Energy Flow in Biology, Academic Press, New York 1968. Richard Panek, Ciemna strona Wszechświata: w poszukiwaniu brakujących składników rzeczywistości, przeł. Bogumił Bieniok, Ewa L. Łokas, Prószyński i Ska, Warszawa 2011. Roger Penrose, Cykle czasu. Nowy niezwykły obraz wszechświata, przeł. Ewa L. Łokas i Bogumił Bieniok, Prószyński i S-ka, Warszawa 2011. Roger Penrose, Droga do rzeczywistości. Wyczerpujący przewodnik po prawach rządzących Wszechświatem, przeł. Jerzy Przystawa, Prószyński i S-ka, Warszawa 2006. Roger Penrose, Nowy umysł cesarza. O komputerach, umyśle i prawach fizyki, przeł. Piotr Amsterdamski, Wydawnictwo Naukowe PWN, Warszawa 1996.

Huw Price, Strzałka czasu i punkt Archimedesa: kontrowersyjne spojrzenie na czas i współczesną fizykę, przeł. Piotr Lewiński, Amber, Warszawa 1998. Lisa Randall, Ukryte wymiary Wszechświata, przeł. Ewa L. Łokas i Bogumił Bieniok, Prószyński i S-ka, Warszawa 2011. Carlo Rovelli, The First Scientist: Anaximander and His Legacy, Westholme Publishing, Yardley, PA 2011. Simon Saunders i inni (red.), Many Worlds? Everett, Quantum Theory, and Reality, Oxford University Press, New York 2010. Lee Smolin, Kłopoty z fizyką. Powstanie i rozkwit teorii strun, upadek nauki i co dalej, przeł. Jerzy KowalskiGlikman, Prószyński i S-ka, Warszawa 2008. Lee Smolin, Trzy drogi do kwantowej grawitacji, przeł. Jerzy Kowalski-Glikman, CiS, Warszawa 2001. Lee Smolin, Życie wszechświata, przeł. Danuta Czyżewska, Amber, Warszawa 1999. Paul J. Steinhardt i Neil Turok, Nieskończony Wszechświat. Poza teorię Wielkiego Wybuchu, przeł. Tomasz Krzysztoń, Prószyński i S-ka, Warszawa 2009. Leonard Susskind, Kosmiczny krajobraz. Dalej niż teoria strun, przeł. Urszula i Mariusz Seweryńscy, Prószyński i S-ka, Warszawa 2011. Alex Vilenkin, Many Worlds in One: The Search for Other Universes, Hill & Wang, New York 2006.

PODZIĘKOWANIA Pisanie tej książki było dla mnie wielką przygodą, odzwierciedlającą moje długoletnie zaangażowanie w tematykę natury czasu. Jak każdy podróżnik mam wielkie zobowiązania wobec wielu ludzi, którzy towarzyszyli mi, zachęcali, udzielali wskazówek i czasami przewodzili w tej podróży. Przygoda rozpoczęła się w 1980 roku, gdy latem studiowałem w Oksfordzie jako gość Rogera Penrose’a. Roger powiedział, że jeśli naprawdę chcę myśleć o istocie czasu, powinienem porozmawiać z Julianem Barbourem, który mieszkał i pracował w wiosce nieopodal Oksfordu. Dokonano stosownych ustaleń i wraz z filozofką nauki Amelią Rechel-Cohn złożyłem mu wizytę. W trakcie tych dyskusji Julian został mym mentorem w dziedzinie filozofii, wyjaśnił mi piśmienniczy dorobek Leibniza i idee relacyjnej przestrzeni i czasu. Byłem jednym z pierwszych – i nie ostatnim – młodych fizyków, którzy pod wpływem Juliana doznali olśnienia i skierowali swe myśli we właściwym kierunku.

W 1986 roku doszło do niespodziewanego obrotu spraw w tej podróży, gdy Andrew Strominger opowiedział mi o swym odkryciu wielkiej liczby teorii strun i zmartwieniu tym, że ich obfitość grozi porażką każdej próby otrzymania Modelu Standardowego z zasad podstawowych. Rozważając to, wyobraziłem sobie krajobraz teorii strun podobny do krajobrazu dostosowania w biologii, w którym mechanizm analogiczny do doboru naturalnego rządziłby ewolucją praw. Zachęcony przez moją drogą przyjaciółkę, lekarkę i dramatopisarkę Laurę Kuckes, tuż przed jej przedwczesną śmiercią, przedstawiłem pomysł kosmologicznego doboru naturalnego, który opublikowałem w 1992 roku i opisałem w pierwszej książce Życie wszechświata. Gdy kończyłem pisanie tej książki, inna przyjaciółka, Drucilla Cornell, poleciła mi przeczytanie prac brazylijskiego filozofa Roberta Mangabeiry Ungera, który w książce o filozofii społecznej także postulował ewolucję praw w kosmologii. Skontaktowała nas i po fascynującej rozmowie w jego gabinecie na Harvardzie Roberto zaproponował mi współpracę nad akademickim podręcznikiem o implikacjach realności czasu i ewolucji praw. Ten projekt, trwający już od pięciu lat, był głównym bodźcem i środkiem wyrazu idei zawartych w niniejszej książce. Dzięki jasnemu i skłaniającemu do refleksji myśleniu Roberta doceniłem w końcu radykalność propozycji, że czas jest

realny. Sedno epilogu – że otwarty charakter przyszłości powinien skłaniać istoty ludzkie do wyboru nowatorskich rozwiązań problemów w każdej skali – inspirowało głównie jego pisarstwo. Ci z czytelników, którzy są zainteresowani bardziej ścisłym ujęciem zaprezentowanych tutaj argumentów, powinni zapoznać się z mającą się wkrótce ukazać książką pod wstępnym tytułem The Singular Universe and the Reality of Time. Także w 1986 roku zacząłem pracę nad kwantowaniem nowego sformułowania ogólnej teorii względności odkrytego w poprzednim roku przez Abhaya Ashtekara. Doprowadziło mnie to razem z Carlem Rovellim do odkrycia pętlowej grawitacji kwantowej. Nasza praca z Abhayem i Carlem była motywowana i formułowana w ciągu nieustannych dyskusji o naturze czasu z Louisem Crane’em, Tedem Jacobsonem, Chrisem Ishamem, Laurentem Freidelem, João Magueijo, Fotini Markopoulou, Giovannim Amelino-Camelią, Jerzym Kowalskim-Glikmanem i Renate Loll oraz wieloma innymi osobami. W istocie później niż kilkoro moich przyjaciół doszedłem do tego, że należy porzucić ideę względności jednoczesności w skali kosmologicznej. Antony Valentini zrozumiał wiele lat temu, że taki jest koszt przyjęcia teorii o zmiennych ukrytych, a João Magueijo już skłaniał się do refleksji nad rezygnacją z względności jednoczesności, gdy spotkaliśmy się w Londynie w 1999 roku. Fotini Markopoulou była

pierwszą osobą, która podkreślała ważność zagadnienia odwrotnego i silnie wspierała podejście do grawitacji kwantowej, w którym czas jest pojęciem podstawowym, a przestrzeń – emergentnym. Główne idee rozdziału 15, w tym zaburzona lokalność i geometriogeneza, pochodzą od niej. Choć jestem fizykiem, miałem jednak szczęście być częstym gościem w środowisku filozofów nauki, gdzie nawiązałem wiele przyjaźni z ludźmi, którzy w ciągu lat cierpliwie słuchali moich rozważań o naturze czasu i krytycznie je czytali. Wśród nich byli: Simon Saunders, Steve Weinstein, Harvey Brown, Patricia Marino, Jim Brown, Jenan Ismael, Cheryl Misak, Ian Hacking, Joseph Berkovitz i Jeremy Butterfield, oraz mój nauczyciel filozofii fizyki Abner Shimony. Julian Barbour, Jim Brown, Drucilla Cornell, Jenan Ismael, Roberto Mangabeira Unger i Simon Saunders byli tak mili, że przeczytali cały maszynopis i podzielili się ze mną swymi opiniami. Jestem wdzięczny Seanowi Carrollowi, Mattowi Johnsonowi, Paulowi Steinhardtowi, Neilowi Turokowi i Alexowi Vilenkinowi za rozmowy i komentarze do rozdziałów z brudnopisu, które uporządkowały moje poglądy na zagadnienia kosmologiczne. Opisane tutaj moje prace z podstaw teorii kwantów zawdzięczają wiele oddziaływaniu istniejącej w Instytucie Perimeter grupy zajmującej się tymi zagadnieniami, szczególnie Chrisowi Fuchsowi, Lucienowi Hardy’emu, Adrianowi

Kentowi, Markusowi Müllerowi, Robowi Spekkensowi i Antony’emu Valentiniemu. Ważnego wsparcia udzielali mi zawsze Saint Clair Cermin, Jaron Lanier i Donna Moylan, między innymi dzieląc się ze mną wnikliwymi uwagami o wstępnej wersji. Wyrażoną w epilogu troskę o zmiany klimatyczne zainspirowało seminarium poświęcone zachowaniom progowym badanym w naukach politycznych, zorganizowane wspólnie przez Instytut Perimeter i Thomasa Homera-Dixona ze Szkoły Spraw Międzynarodowych imienia Balsillie’a. Jestem wdzięczny Tadowi i innym uczestnikom, szczególnie Manjanie Milkoreit i Tatianie Barlyaevej, za dyskusje i współpracę nad tym zagadnieniem. Za edukację ekonomiczną, odzwierciedloną także w epilogu, dziękuję tym, którzy pracowali ze mną podczas organizacji konferencji „Economic Crisis and its Implications for the Science of Economics” w Instytucie Perimeter w maju 2009 roku; i innym, których spotkałem podczas konferencji i w jej następstwie, szczególnie Brianowi Arthurowi, Mike’owi Brownowi, Emanuelowi Dermanowi, Doyne Farmer, Richardowi Freemanowi, Pii Malaney, Nassimowi Talebowi i Ericowi Weinsteinowi. Wyrażam wielkie podziękowania Stu Kauffmanowi i Perowi Bakowi za ich przyjaźń, współpracę i ujęcie problemu samoorganizacji.

Jestem dozgonnie wdzięczny Howardowi Burtonowi i Mike’owi Lazaridisowi za jedyny w swoim rodzaju gest w postaci założenia Instytutu Fizyki Teoretycznej Perimeter, a także Neilowi Turokowi za nieustające wsparcie naszych usiłowań dokonania przełomów i odkryć. Każdy naukowiec i uczony powinien mieć tak jak ja szczęście, by pracować w tak stymulującym, różnorodnym i wspomagającym ambicje otoczeniu intelektualnym jak Instytut Perimeter. Moje prace z dziedziny fizyki były hojnie wspierane przez NSF, NSERC, Fundację Jesse Philipsa oraz Fundację Templetona, którym jestem wdzięczny za możliwość zarówno wykonywania swojej pracy, jak i odegranie roli mentora młodych obiecujących naukowców. Ta książka jest znacznie lepsza, niż mogłaby być, dzięki komentarzom tych, którzy przeczytali ją na wczesnym etapie i podzielili się ze mną swoimi opiniami o jednym rozdziale lub całym manuskrypcie. Oprócz wymienionych powyżej należą do nich: Jan Ambjørn, Brian Arthur, Krista Blake, Howard Burton, Marina Cortes, Emanuel Derman, Michael Duschenes, Laurent Freidel, James George, Dina Graser, Thomas Homer-Dixon, Sabine Hossenfelder, Tim Koslowski, Renate Loll, Fotini Markopoulou, Catherine Paleczny, Nathalie Quagliotto, Henry Reich, Carlo Rovelli, Pauline Smolin, Michael Smolin, Rita Tourkova, Antony Valentini, Natasha Waxman i Ric Young.

Jestem jednym z tych pisarzy, którzy uwielbiają, gdy się ich redaguje – ponieważ mają bolesną świadomość, że na tym korzystają. Z powodu zmiennych kolei publikacji żadna z moich książek nie miała bardziej oddanego zespołu redaktorów. Książka zawdzięcza swą koncepcję wysiłkom Amandy Cook, teraz pracującej w Crown Publishing, której dziękuję za wiarę w ten projekt i czas poświęcony na jego ulepszenie. Courtney Young z Houghton Mifflin Harcourt i Sara Lippincott, zgłaszające wiele komentarzy i sugestii, były najlepszymi redaktorami, o jakich autor mógłby marzyć. Książka wielce skorzystała dzięki mądrym uwagom Louise Dennys z Knopf Canada. Jestem także wdzięczny Thomasowi Pennowi za zachętę w kluczowych momentach. Dziękuję Henry’emu Reichowi, który wykonał wiele rysunków. Jak w wypadku moich wszystkich książek mam dług wdzięczności wobec Johna Brockmana, Katinki Matson i Maxa Brockmana; bez ich wiary ta też nigdy by nie powstała. Podziękowania wyrażam Rodili Gregorio za ciągłe lekcje cierpliwości, wdzięku i odpowiedzialność – i Kai, od której nauczyłem się tego wszystkiego o czasie, co nie zostało omówione w książce. Dziękuję Pauline, Mike’owi i Lornie za ich miłość i wiarę we mnie. Wreszcie żadne słowa nie oddadzą mojej wdzięczności dla Diny, która z nieskończoną miłością i cierpliwością wspierała mnie, gdy odczuwałem presję ukończenia

książki o czasie na czas.

Spis treści PRZEDMOWA WSTĘP CZĘŚĆ I. CIĘŻAR: USUNIĘCIE CZASU Rozdział 1. Spadanie Rozdział 2. Zniknięcie czasu Rozdział 3. Gra w łapanie piłki Rozdział 4. Fizyka zjawisk w pudełku Rozdział 5. Wykluczenie oryginalności i niespodzianek Rozdział 6. Względność i bezczasowość Rozdział 7. Kosmologia kwantowa i koniec czasu CZĘŚĆ II. ŚWIATŁO: CZAS ODRODZONY Interludium. Niezadowolenie Einsteina Rozdział 8. Kosmologiczny błąd rozumowania Rozdział 9. Kosmologiczne wyzwanie Rozdział 10. Zasady nowej kosmologii Rozdział 11. Ewolucja praw fizyki Rozdział 12. Mechanika kwantowa i wyzwolenie atomu Rozdział 13. Konflikt kwantowania z teorią względności

Rozdział 14. Czas odradza się z teorii względności Rozdział 15. Wyłanianie się przestrzeni Rozdział 16. Życie i śmierć Wszechświata Rozdział 17. Czas odrodził się z ciepła i światła Rozdział 18. Nieskończona przestrzeń czy nieskończony czas? Rozdział 19. Przyszłość czasu EPILOG. MYŚLENIE W CZASIE BIBLIOGRAFIA PODZIĘKOWANIA