146 12 9MB
Polish Pages 420 Year 2018
James Gleick Chaos. Narodziny nowej nauki Tytuł oryginału Chaos. Making a New Science ISBN 978-83-8116-422-1 Copyright © James Gleick, 1987 All rights reserved Copyright © for the Polish edition by Zysk i S-ka Wydawnictwo s.j., Poznań 2018 Projekt graficzny okładki Krzysztof Kibart www.designpartners.pl Wydanie 1 Zysk i S-ka Wydawnictwo ul. Wielka 10, 61-774 Poznań tel. 61 853 27 51, 61 853 27 67 faks 61 852 63 26 dział handlowy, tel./faks 61 855 06 90 [email protected] www.zysk.com.pl Konwersję do wersji elektronicznej wykonano w Zysk i S-ka Wydawnictwo.
Spis treści Okładka Strona tytułowa Strona redakcyjna Dedykacja Prolog Efekt motyla Rewolucja Życie na huśtawce Geometria przyrody Dziwne atraktory Uniwersalność Eksperymentator Oblicza chaosu Chaolodzy z Santa Cruz Wewnętrzne rytmy Poza granicami chaosu Podziękowania Informacje na temat źródeł i wskazówki bibliograficzne Fotografie
Dla Cynthii
Do człowieka należała muzyka, Do natury cisza… John Updike (przeł. Marek Obarski)
Prolog Policja w małym miasteczku Los Alamos 1, w stanie Nowy Meksyk, niepokoiła się przez krótki okres w roku 1974 o mężczyznę przechadzającego się noc w noc po cichych uliczkach z papierosem, którego rozżarzony koniec płynął w ciemności. Mógł godzinami wędrować bez celu w świetle gwiazd, które przebijało się przez cienką warstwę powietrza nad równiną. Nie tylko policja była zdziwiona. W laboratorium niektórzy fizycy dowiedzieli się, że ich kolega eksperymentuje z dwudziestosześciogodzinną dobą, co oznaczało, że jego rozkład dnia bywa przesunięty w fazie w stosunku do ich rozkładu. Było to zachowanie bardzo osobliwe nawet na oddziale teoretycznym. W ciągu trzech dziesięcioleci od czasu, gdy J. Robert Oppenheimer wybrał ten nieziemski nowomeksykański krajobraz na realizację projektu budowy bomby atomowej, Państwowe Laboratorium w Los Alamos rozprzestrzeniło się na obszarze odludnej równiny, sprowadzając w to miejsce akceleratory cząstek, lasery gazowe i instalacje chemiczne, tysiące naukowców, pracowników administracji i zaplecza technicznego, jak również największą liczbę superkomputerów. Niektórzy starsi naukowcy pamiętali drewniane baraki wyrastające pospiesznie ze skał w roku 1940, ale dla większości pracowników Los Alamos, młodych mężczyzn i kobiet ubranych w studenckim stylu w sztruksy i koszule flanelowe, twórcy pierwszej bomby atomowej byli tylko zjawami z innego świata. Miejscem najczystszej myśli był oddział teoretyczny, znany jako oddział T, podobnie jak oddział C — obliczeń czy X — broni. W oddziale T pracowało ponad stu fizyków i matematyków, dobrze opłacanych, wolnych od zajęć dydaktycznych i konieczności publikowania. Ci naukowcy wielokrotnie spotykali się
zarówno z geniuszami, jak i ekscentrykami. Trudno było ich zadziwić. Ale Mitchell Feigenbaum był niezwykłym przypadkiem. Opublikował tylko jeden artykuł i nie pracował nad niczym, co mogłoby przynieść coś szczególnego. Jego włosy przypominały postrzępioną grzywę, spływającą ku tyłowi z szerokiego czoła w stylu popiersi niemieckich kompozytorów. W jego oczach przebłyskiwały niecierpliwość i żarliwość. Kiedy mówił — zawsze gwałtownie — opuszczał rodzajniki i zaimki w nieprecyzyjny środkowoeuropejski sposób, mimo że urodził się na Brooklynie. Kiedy pracował, robił to obsesyjnie. Kiedy nie mógł pracować, spacerował i myślał w ciągu całej doby, ale najchętniej w nocy. Dwudziestoczterogodzinna doba wydawała mu się zbyt krótka. Niemniej zakończył swój eksperyment z osobistym quasi-rytmem, kiedy doszedł do wniosku, że nie może dłużej znieść wstawania o zachodzie słońca, co zdarzało się co kilka dni. W wieku dwudziestu dziewięciu lat był już uczonym pośród uczonych, ad hoc konsultantem, do którego — jeśli mogli go odnaleźć — przychodzili inni naukowcy, próbując namówić go, aby zajął się szczególnie trudnymi problemami. Jednego wieczora przyszedł do pracy akurat w chwili, gdy dyrektor laboratorium, Harold Agnew, z niej wychodził. Agnew był wielką postacią, jednym z uczniów Oppenheimera. To on leciał nad Hiroszimą samolotem, który towarzyszył „Enola Gay”, wyposażonym w instrumenty badawcze, fotografując zrzucenie pierwszego produktu laboratorium. „Rozumiem, że jest pan bystry 2 — rzekł Agnew do Feigenbauma. — Jeśli jednak jest pan tak bystry, to dlaczego nie rozwiąże pan problemu fuzji laserowej?” Nawet przyjaciele Feigenbauma zastanawiali się, czy chce on w ogóle napisać jakąś własną pracę. Tak jak chętnie i bez trudu odpowiadał na ich zaskakujące pytania, tak absolutnie nie wydawał się zainteresowany poświęcaniem własnego czasu na rozwiązanie jakiegoś wartościowego
problemu. Rozmyślał nad turbulencjami w cieczach i gazach. Rozmyślał o czasie — czy ślizga się gładko naprzód, czy też skacze dyskretnie jak sekwencja klatek kosmicznego filmu. Rozmyślał o zdolności oka do widzenia spójnych kolorów i form we wszechświecie, o którym fizycy wiedzą, że jest zmieniającym się kalejdoskopem kwantowym. Myślał o chmurach, obserwując je z okna samolotu (aż w 1975 roku cofnięto mu oficjalnie przywilej naukowych podróży, ponieważ go nadużył) albo podczas pieszych wycieczek wokół laboratorium. W górskich miasteczkach Zachodu chmury nie przypominają czarnych jak sadza, niewyraźnych, nisko lecących mgieł, które wypełniają powietrze na Wschodzie. W Los Alamos, po zawietrznej stronie wielkiej kaldery wulkanicznej, chmury rozlewają się na niebie, tworząc przypadkowe twory, rosną jak kłosy albo kłębią się w regularnie pomarszczonych strukturach przypominających substancję mózgową. W burzliwe popołudnia, kiedy niebo iskrzy i drży od elektryczności, chmury rzucają się w oczy już z odległości 30 mil, filtrując i odbijając światło, aż całe niebo zaczyna wyglądać jak widowisko wystawione jako subtelna wymówka skierowana do fizyków. Obłoki należą do tej części natury, którą omija główny nurt fizyki, części, która jest zarazem zamazana i szczegółowa, posiadająca strukturę i nieprzewidywalna. Feigenbaum rozmyślał o takich sprawach spokojnie i nieproduktywnie. Dla fizyka praca nad fuzją laserową to porządny problem; rozwiązanie zagadki spinu, koloru i zapachu cząstek elementarnych to dobry problem; określenie momentu powstania wszechświata — to też dobry problem. Natomiast zrozumienie chmur to problem dla meteorologów. Podobnie jak inni fizycy, Feigenbaum wyrażał się o tych problemach w sposób nadmiernie lakoniczny i niedbały. „Taka rzecz jest oczywista” — mógłby powiedzieć, mając na myśli fakt, że wynik mógłby być zrozumiały dla każdego
wykształconego fizyka po odpowiednim przemyśleniu i obliczeniach. Jeśli jakaś praca nie jest oczywista, to zasługuje na szacunek i Nagrodę Nobla. Dla najtrudniejszych problemów, czyli tych, których nie można rozwikłać bez długiego zaglądania we wnętrzności wszechświata, fizycy rezerwują słowo „głębokie”. Chociaż w 1974 roku tylko nieliczni jego koledzy o tym wiedzieli, Feigenbaum pracował nad problemem, który był głęboki: pracował nad chaosem. Tam, gdzie zaczyna się chaos, kończy się klasyczna nauka. Od chwili, gdy świat zaczął intrygować fizyków swoimi prawami przyrody, całkowicie zaniedbano eksplorację chaosu w atmosferze, we wzburzonym morzu, we fluktuacjach dziko żyjących populacji, w oscylacjach serca i mózgu. Nieregularna strona przyrody, strona nieciągła i kapryśna była dla nauki intrygującą zagadką albo gorzej — potwornością. Ale w latach siedemdziesiątych kilku naukowców w Stanach Zjednoczonych i Europie zaczęło odnajdywać drogę poprzez nieporządek. Byli to matematycy, fizycy, biologowie, chemicy, wszyscy szukający związków między różnymi rodzajami nieregularności. Fizjologowie znaleźli zaskakujący porządek w chaosie, który rozwija się w ludzkim sercu tuż przed nagłą, niewyjaśnioną śmiercią. Ekologowie badali rozwój i schyłek populacji ćmy brudnicy nieparki. Ekonomiści odgrzebali dane na temat starych cen akcji i poddali je nowej analizie. To, co wyniknęło z tych badań, prowadziło bezpośrednio do świata przyrody — kształtu chmur, toru błyskawicy, rozgałęziania się naczyń krwionośnych, grupowania się gwiazd w galaktykach. Kiedy Mitchell Feigenbaum zaczął myśleć o chaosie w Los Alamos, był nieznanym nikomu naukowcem. Pewien matematyk z Berkeley w stanie Kalifornia tworzył w tym czasie małą grupę, która miała się zająć rozwinięciem nowych badań „układów dynamicznych”. Pewien biolog
populacji na Uniwersytecie Princeton miał wkrótce opublikować żarliwy apel mówiący o tym, że wszyscy naukowcy powinni przyjrzeć się zaskakująco skomplikowanemu zachowaniu czającemu się w pewnych prostych modelach. Matematyk pracujący dla IBM szukał nowego słowa opisującego rodzinę kształtów — postrzępionych, powikłanych, rozszczepionych, poskręcanych, połamanych — które uważał za zasadę organizującą w przyrodzie. Francuski uczony zajmujący się fizyką matematyczną wystąpił z polemicznym poglądem, że turbulencje w cieczach mogą mieć coś wspólnego z dziwaczną, nieskończenie pogmatwaną abstrakcją, którą nazwał dziwnym atraktorem. Dziesięć lat później chaos stał się skrótem nazwy szybko narastającego ruchu, który całkowicie przekształcił gmach nauki. Często organizowane są konferencje na temat chaosu, powstają czasopisma poświęcone badaniom chaosu. Dyrektorzy programów rządowych 3, dysponujący pieniędzmi na finansowanie badań naukowych dla celów militarnych, Centralna Agencja Wywiadowcza i Departament Energii inwestują coraz większe sumy w badania chaosu, utworzyli więc specjalną administrację do obsługi finansów. Na każdym większym uniwersytecie i w każdej większej placówce badawczej jacyś teoretycy łączą się najpierw na gruncie chaosu, a dopiero w drugiej kolejności ze względu na swe specjalności. W Los Alamos utworzono Centrum Badań Układów Nieliniowych, które koordynuje pracę nad chaosem i pokrewnymi problemami; podobne instytucje pojawiły się w miasteczkach uniwersyteckich w całych Stanach Zjednoczonych. Badania nad chaosem stworzyły specjalne techniki używania komputerów i specjalne rodzaje grafiki, rysunków zdolnych uchwycić fantastyczne i subtelne struktury, które leżą u podstaw złożoności. Nowa nauka spłodziła swój własny język, specjalistyczny język z takimi terminami, jak: fraktale i bifurkacje, intermitencje okresowości, dyfeomorfizmy złożonego ręcznika
(ang. folded-towel diffeomorphisms), gładkie odwzorowania makaronowe (ang. smooth noodle maps). Są to nowe elementy ruchu 4, tak jak w tradycyjnej fizyce kwarki i gluony są nowymi składnikami materii. Dla niektórych fizyków chaos jest raczej nauką o procesach niż o stanie 5, o stawaniu się niż o byciu. Teraz nauka zdaje się dostrzegać chaos wszędzie. Podnosząca się smuga dymu z papierosa wpada w szalone zawirowania. Flaga łopoce na wietrze. Krople kapią z kranu najpierw w sposób regularny, później przypadkowy. Chaos pojawia się w zachowaniu pogody, samolotu podczas lotu, grup samochodów na autostradach 6, ropy płynącej w podziemnych rurociągach. Niezależnie od środowiska zachowanie to spełnia te same nowo odkryte prawa. Taka sytuacja 7 spowodowała zmianę sposobu podejmowania decyzji przez zarządy spółek, spoglądania na Układ Słoneczny przez astronomów, a także zmieniła sposób mówienia teoretyków polityki o przesileniach prowadzących do konfliktów zbrojnych. Chaos przełamuje linię, która dzieliła różne dyscypliny naukowe. Ponieważ jest to nauka o globalnej naturze układów, zetknęła ona ze sobą myślicieli z różnych obszarów wiedzy, do tej pory bardzo odległych. „Piętnaście lat temu nauka stała w obliczu kryzysu wzrastającej specjalizacji — zauważył przedstawiciel marynarki, odpowiedzialny za finansowanie badań naukowych, przed audytorium złożonym z matematyków, biologów, fizyków i lekarzy medycyny. — Ta tendencja gwałtownie odwróciła się za przyczyną chaosu” 8. Chaos stawia problemy, których nie podejmowano przy tradycyjnym sposobie pracy w nauce. Przedstawia mocne twierdzenia dotyczące uniwersalnego zachowania się złożoności. Pierwsi teoretycy chaosu, animatorzy tej dziedziny, przejawiali podobną wrażliwość. Umieli rozpoznać strukturę, zwłaszcza strukturę, która pojawia się jednocześnie w różnych skalach. Mieli zamiłowanie do przypadkowości i złożoności, do
postrzępionych krawędzi i gwałtownych skoków. Wierzący w chaos — którzy czasami sami siebie nazywają wierzącymi, konwertytami albo misjonarzami — spekulują o determinizmie i wolnej woli, o ewolucji, o naturze świadomej inteligencji. Czują, że odwracają trend w nauce od redukcjonizmu, analizy systemów polegającej na rozkładaniu na części składowe: kwarki, chromosomy czy neurony. Wierzą, że szukają całości. Najbardziej namiętni obrońcy nowej nauki idą jeszcze dalej, twierdząc, że wiek dwudziesty będzie nazywany wiekiem względności, mechaniki kwantowej i chaosu 9. Chaos, twierdzą, stał się w naukach fizycznych trzecią wielką rewolucją tego stulecia 10. Podobnie jak dwie pierwsze, chaos odcina się od dogmatów fizyki Newtona. Jak to przedstawił pewien fizyk 11: „Względność eliminuje newtonowskie złudzenie absolutnej przestrzeni i czasu; teoria kwantów eliminuje newtonowski sen o kontrolowalnym procesie pomiaru; a chaos eliminuje fantazje Laplace’a o deterministycznej przewidywalności”. Spośród tych trzech, rewolucja zapoczątkowana przez teorię chaosu stosuje się do wszechświata, który widzimy i którego dotykamy, do obiektów w ludzkiej skali. Codzienne doświadczenie i rzeczywisty obraz świata stały się pełnoprawnymi tematami dociekań naukowych. Przez długi czas uważano, nie zawsze mówiąc o tym otwarcie, że fizyka teoretyczna błądzi daleko od ludzkich intuicji dotyczących świata. Nikt nie wie, czy ten pogląd jest owocną herezją czy tylko zwykłą herezją przeciwko dogmatom nauki. Ale wielu obserwatorów, którzy widzieli już fizykę na drodze do narożnika, patrzy teraz z nadzieją na teorię chaosu jako na drogę wyjścia. W obrębie samej fizyki badania nad chaosem niejako płynęły pod prąd. Głównym nurtem zainteresowań przez znakomitą część dwudziestego wieku była fizyka cząstek elementarnych badająca elementy budowy materii przy coraz większych energiach, w coraz mniejszej skali i w coraz krótszych
odcinkach czasu. Z fizyki cząstek wyłoniły się teorie fundamentalnych oddziaływań przyrody i powstania wszechświata. Jednak wielu młodych fizyków było coraz bardziej niezadowolonych z kierunku rozwoju tej najznamienitszej nauki. Postęp zaczął być coraz wolniejszy, nazywanie nowych cząstek daremne, koncepcje teoretyczne wyczerpane. Wraz z nadejściem ery chaosu młodsi naukowcy zaczęli wierzyć, że widzą początek zmiany kursu w całej fizyce. Czuli, że dziedzina ta była przez długi czas zdominowana przez błyszczące abstrakcje fizyki wysokoenergetycznych cząstek i mechaniki kwantowej. Kosmolog Stephen Hawking, następca Newtona na Uniwersytecie w Cambridge, mówiąc w imieniu większości fizyków, ocenił swoją naukę w 1980 roku w wykładzie pt. „Czy zbliża się koniec fizyki teoretycznej?”. „Już znamy prawa fizyki, które rządzą wszystkim, czego doświadczamy w codziennym życiu... To zasługa tego, że daleko zaszliśmy w fizyce teoretycznej: teraz potrzebuje ona ogromnych maszyn i potężnych pieniędzy, aby wykonać eksperyment, którego wyniku jeszcze nikt nie zdołał przewidzieć” 12. Jednak Hawking uznał, że zrozumienie praw natury na poziomie cząstek elementarnych pozostawia nierozwiązany problem, jak zastosować te prawa do jakichkolwiek układów, wyjąwszy najprostsze. Jedną sprawą jest przewidywalność w komorze mgłowej, gdzie dwie cząsteczki zderzają się na końcu drogi wokół akceleratora. Zupełnie inna rzecz to przewidywalność w najprostszej balii zawierającej mętną ciecz, w pogodzie na Ziemi czy w ludzkim mózgu. Fizyka Hawkinga skutecznie zgarniająca Nagrody Nobla i wielkie pieniądze na eksperymenty często bywa nazywana rewolucją. Czasami taka wydaje się teoria wielkiej unifikacji, czyli „teoria wszystkiego”. Fizyka śledziła rozwój energii i materii w całej historii wszechświata z wyłączeniem
tylko pierwszych chwil. Ale czy powojenna fizyka cząstek elementarnych była rewolucją? Czy było to wyjście poza granice nakreślone przez Einsteina, Bohra i innych ojców teorii względności i mechaniki kwantowej? Z pewnością osiągnięcia fizyki, od bomby atomowej do tranzystora, zmieniły obraz dwudziestego wieku. A jednak pole widzenia fizyki cząstek wydaje się zawężone. Przeminęły już dwa pokolenia od chwili, gdy ta gałąź wiedzy stworzyła nowe teoretyczne idee, które zmieniły sposób, w jaki niespecjaliści pojmują świat. Fizyka uprawiana przez Hawkinga mogła zakończyć swoją misję, pozostawiając bez odpowiedzi pewne najbardziej fundamentalne kwestie dotyczące natury. Jak zaczęło się życie na Ziemi? Co to jest turbulencja? A nade wszystko — jak to możliwe, że powstaje porządek we wszechświecie rządzonym przez entropię, dążącą nieugięcie w kierunku coraz większego nieporządku? Tymczasem obiekty codziennego doświadczenia jak ciecze i systemy mechaniczne wydają się tak podstawowe i zwyczajne, że fizycy ulegają naturalnej tendencji do zakładania, że są doskonale zrozumiałe. A tak nie jest. Kiedy rozpoczęła się rewolucja dotycząca chaosu, najlepsi fizycy zauważyli, że bez żenady wracają do zjawisk ludzkiej codzienności. Teraz badają chmury zamiast galaktyk. Już nie wykonują swoich lukratywnych badań komputerowych za pomocą wielkich maszyn liczących, ale korzystają z komputerów osobistych. Czasopisma fachowe publikują artykuły na temat dziwnej dynamiki kulki skaczącej po stole obok artykułów na temat fizyki kwantowej. Najprostsze systemy wydają się stwarzać niezwykle trudne problemy dotyczące przewidywalności. Jednak porządek pojawia się w tych systemach spontanicznie — chaos i porządek pospołu. Tylko nowa nauka może rozpocząć przekraczanie wielkiej przepaści, jaka dzieli wiedzę o pojedynczych obiektach, takich jak jedna cząsteczka wody, jedna komórka
tkanki sercowej, jeden neuron, od wiedzy o systemach złożonych z milionów takich obiektów. Zaobserwuj kiedyś dwa pęcherzyki piany płynące obok siebie u stóp wodospadu. Co możesz powiedzieć o tym, jak blisko siebie były na jego szczycie? Nic. Dopóki masz do czynienia ze standardową fizyką. Na gruncie fizyki teoretycznej równie dobrze molekuły te mógł wymieszać osobiście sam Bóg. Kiedy fizycy uzyskiwali skomplikowane wyniki, szukali tradycyjnie skomplikowanych przyczyn. Kiedy uzyskiwali przypadkową relację między tym, co weszło do układu, a tym, co z niego wyszło, zakładali, że muszą wbudować przypadkowość do realistycznej teorii przez sztuczne dodanie szumu lub błędów. Współczesne badania chaosu zaczynają się w latach sześćdziesiątych od pełzającego odkrycia, że zupełnie proste równania matematyczne mogą modelować układy w każdym calu tak gwałtowne jak wodospady. Drobne różnice na wejściu mogą szybko przekształcić się w potężne różnice na wyjściu. Zjawisko to otrzymało nazwę: wrażliwość na warunki początkowe. W pogodzie, na przykład, manifestuje się to w zjawisku żartobliwie nazwanym efektem motyla: motyl zaburzający powietrze dzisiaj w Pekinie może być przyczyną huraganu w następnym miesiącu w Nowym Jorku. Kiedy badacze chaosu zaczęli myśleć o genealogii swej nowej nauki, znaleźli wiele intelektualnych śladów z przeszłości. Ale jedno było jasne. Dla młodych fizyków i matematyków prowadzących tę rewolucję punktem wyjścia był efekt motyla.
1
M.J. Feigenbaum, P.A. Carruthers, D. Campbell, J.D. Farmer, W.M. Visscher, D. Kerr, B. Hasslacher, E. Jen. 2 M.J. Feigenbaum, P.A. Carruthers. 3 R. Buchal, M.F. Shlesinger, H. Wisniewski. 4 J.A. Yorke.
5
F.K. Browand, The Structure of the Turbulent Mixing Layer, „Physica” 1986 18D, s. 135. 6 Naukowcy japońscy podeszli do problemu ruchu na drodze niezwykle poważnie, patrz: Toshimitsu Musha, Hideyo Higuchi, The 1/f Fluctuation of a Traffic Current on an Expressway, „Japanese Journal of Applied Physics” 1976, s. 1271-1275. 7 B. Mandelbrot, J. Ramsey, J. Wisdom, P. Marcus; Alvin M. Saperstein, Chaos — A Model for the Outbreak of War, „Nature” 1984, 309, s. 303-305. 8 M.F. Shlesinger. 9 M.F. Shlesinger. 10 J. Ford. 11 Joseph Ford, What is Chaos, That We Should Be Mindful of It? Georgia Institute of Technology, s. 12. 12 John Boslough, Stephen Hawking’s Universe, Cambridge University Press, 1980; patrz również Robert Shaw, The Dripping Faucet as a Model Chaotic System, Aerial, Santa Cruz, 1984, s. 1.
Efekt motyla Fizycy uważają często, że wystarczy tylko powiedzieć, iż takie to i takie są warunki. Sprawdźmy, co z tego wynika. Richard P. Feynman
Światło słoneczne pada na Ziemię z nieba, na którym nigdy nie było chmur. Wiatry przemiatają Ziemię tak gładką jak szkło. Noc nie nadchodzi, a po jesieni nie następuje zima. Wcale nie pada. Pogoda symulowana przez nowy komputer Edwarda Lorenza 1 zmienia się powoli, ale niezawodnie: ciągła susza w środku sezonu, jak gdyby świat zamienił się w małą wyspę na Pacyfiku albo w południową Kalifornię z jej łagodnym klimatem. Przez okno Lorenz mógł obserwować faktyczną pogodę: poranną mgłę pełzającą w miasteczku uniwersyteckim Massachusetts Institute of Technology (MIT) albo niskie chmury nasuwające się znad Atlantyku nad dachy domów. Mgła i chmury nigdy nie powstawały w ramach modelu testowanego przez komputer skonstruowany przez Royal McBee. Maszyna, zajmująca znaczną część pokoju Lorenza, stanowiła gąszcz drutów i próżniowych lamp elektronowych, wytwarzała dziwny i denerwujący szum i psuła się mniej więcej co tydzień. Nie miała ani odpowiedniej szybkości, ani pamięci, aby wykonać realistyczną symulację ziemskiej atmosfery i oceanów. Jednak w 1960 roku Lorenz stworzył „komputerową grę pogodową”, która zdołała zahipnotyzować jego kolegów. Co minutę maszyna znaczyła koniec dnia wydrukiem szeregu liczb. Ktoś, kto umiał odczytać wydruki, mógł zobaczyć dominujące wiatry zachodnie skręcające na północ, potem na południe, potem znów na północ. Cyfrowe cyklony wirowały
wokół wyidealizowanego globu. Kiedy wieść rozeszła się po zakładzie, inni meteorologowie gromadzili się wraz ze studentami, przyjmując zakłady, jak też zachowa się pogoda Lorenza. Jakoś nic nigdy nie zdarzało się dwa razy. Lorenz lubił pogodę — bez wątpienia był to warunek wstępny, aby zostać meteorologiem-badaczem. Delektował się jej zmiennością. Z przyjemnością obserwował układ, jaki następował i przemijał, rodziny wirów i cyklonów, które wprawdzie zawsze podlegały prawom matematyki, jednak nigdy się nie powtarzały. Kiedy patrzył na chmury, wydawało mu się, że rozpoznaje w nich jakąś strukturę. Wcześniej obawiał się, że studiowanie nauki o pogodzie przypomina dłubanie śrubokrętem przy pudełku z diabełkiem wyskakującym na sprężynie. Potem zastanawiał się, czy nauka o pogodzie jest w ogóle w stanie zgłębiać jej tajemnice. Czuło się, że pogody nie sposób zrozumieć za pomocą średnich. Najwyższa dzienna temperatura w Cambridge, w stanie Massachusetts, wynosi w czerwcu średnio 75°F. W Riyadh w Arabii Saudyjskiej w ciągu roku jest średnio dziesięć dni deszczowych. To są statystyki. Istota jednak polegała na tym, jak pogoda zachowuje się w czasie, i to właśnie Lorenz wysymulował na swoim Royal McBee. Był bogiem we wszechświecie tej maszyny, mogąc stwarzać prawa przyrody wedle swojego życzenia. Po pewnej liczbie nieboskich prób i błędów wybrał dwanaście. Były to reguły numeryczne 2 — równania, które wyrażały relacje między temperaturą a ciśnieniem i między ciśnieniem a prędkością wiatru. Lorenz zrozumiał, że wdrożył do praktyki prawa Newtona, właściwe narzędzia dla boskiego zegarmistrza, który może stworzyć świat i puścić w ruch na nieskończenie długi czas. Dzięki determinizmowi praw fizyki dalsze interwencje byłyby niepotrzebne. Ci, którzy zbudowali takie modele, z góry zakładali, że od dzisiaj aż po wieczność prawa ruchu dostarczają pomostu matematycznej pewności. To
była filozofia leżąca u podłoża modelowania pogody na komputerze. Osiemnastowieczni filozofowie wyobrażali sobie Stwórcę jako życzliwego nieinterwencjonistę, zadowolonego z pozostawania poza sceną, a Lorenz rzeczywiście spełniał te kryteria. Był on dziwnym meteorologiem. Miał pooraną bruzdami twarz jankeskiego farmera o zdumionych jasnych oczach, które sprawiały, że wydawało się, iż śmieje się, niezależnie od tego, czy rzeczywiście robił to czy nie. Rzadko mówił o sobie czy też o swojej pracy, ale lubił słuchać. Często znikał w królestwie obliczeń albo marzeń, gdzie był niedostępny dla swoich kolegów. Jego najbliżsi przyjaciele czuli, że Lorenz spędza mnóstwo czasu w odległej przestrzeni kosmicznej. Już jako chłopiec był zwariowany na punkcie pogody i sporządzał pomiary maksymalnej i minimalnej temperatury w pobliżu domu swoich rodziców w West Hartford w stanie Connecticut. Ale więcej czasu spędzał, bawiąc się książkami z zagadkami matematycznymi. Czasami wymyślał takie zagadki wraz ze swoim ojcem. Pewnego razu znaleźli szczególnie trudny problem i wszystko wskazywało na to, że jest on nie do rozwiązania. „Trzeba to zaakceptować — powiedział mu ojciec. — Zawsze możesz spróbować rozwiązać problem, dowodząc, że rozwiązanie nie istnieje”. Lorenzowi spodobało się to zdanie, bo zawsze zachwycał się czystością matematyki 3, a kiedy w 1938 roku ukończył Dartmouth College, pomyślał, że matematyka jest jego powołaniem. Jego losy skomplikowała jednak druga wojna światowa i został meteorologiem w Korpusie Lotniczym (Army Air Corps). Po wojnie Lorenz zdecydował się pozostać w meteorologii i zająć się badaniami jej teorii i rozwijaniem matematyki. Zdobył rozgłos dzięki publikacji na temat takich ortodoksyjnych problemów jak ogólna cyrkulacja atmosfery. A tymczasem ciągle myślał o prognozowaniu pogody. Dla większości poważnych meteorologów prognozowanie to nie nauka. To żmudne zajęcie wykonywane przez techników, które wymaga nieco intuicji,
by z instrumentów i chmur odczytywać pogodę na następny dzień. To zgadywanka. W takich ośrodkach naukowych jak MIT meteorologia wolała problemy, które miały rozwiązania. Lorenz lepiej niż inni rozumiał niepewność prognoz pogody, ponieważ sam kiedyś wykonywał to zajęcie, aby pomóc pilotom wojskowym, ale zainteresowanie tą kwestią pozostało — matematyczne zainteresowanie. Nie tylko meteorologowie gardzili prognozami; w latach sześćdziesiątych tak naprawdę wszyscy poważni naukowcy nie dowierzali komputerom. Te „podkręcone” liczydła nie wydawały się odpowiednimi narzędziami nauk teoretycznych. Podobnie numeryczne prognozowanie pogody było pseudoproblemem. Jednak sam problem już dojrzał do rozwiązania. Prognozowanie pogody czekało dwa wieki na maszynę, która mogłaby powtarzać tysiące obliczeń. Tylko komputer mógł zrealizować Newtonowską obietnicę, że świat rozwija się na gruncie deterministycznym i że rządzą nim takie same prawa, które pozwalają przewidywać eliptyczne tory planet albo pływy. Teoretycznie komputer mógłby pozwolić meteorologom wykonać to, co astronomowie zdołali zrobić w swojej dziedzinie za pomocą ołówka i suwaka: obliczyć przyszłość wszechświata z warunków początkowych i praw fizyki, które rządzą jego ewolucją. Równania opisujące ruch powietrza i wody były równie dobrze znane jak te, które opisują ruch planet. Astronomowie nie osiągnęli perfekcji i nigdy nie osiągną, nie w Układzie Słonecznym szarpanym przez pole grawitacyjne dziewięciu planet, dziesiątków księżyców i tysięcy asteroidów, ale obliczenia ruchu planet były tak dokładne, że ludzie zapomnieli, iż to tylko przewidywania. Kiedy astronom mówi, że kometa Halleya wróci po tym samym torze za 76 lat, wydaje się to faktem, a nie proroctwem. Deterministyczne prognozowanie numeryczne wylicza dokładne trasy lotów statków kosmicznych i pocisków. Dlaczego nie można tego spróbować w odniesieniu do wiatru i chmur?
Pogoda jest dużo bardziej skomplikowana, ale rządzi się tymi samymi prawami. Może dostatecznie potężny komputer mógłby być tą najwyższą inteligencją wyimaginowaną przez Laplace’a, osiemnastowiecznego filozofa i matematyka, który zaraził się entuzjazmem Newtona jak nikt inny. „Taka inteligencja — pisał Laplace — objęłaby w tej samej formule ruchy największych ciał wszechświata i najlżejszych atomów; dla niej nic nie byłoby niepewne, zarówno przyszłość, jak i przeszłość byłyby dla niej teraźniejszością” 4. W czasach powstawania teorii względności Einsteina i zasady nieoznaczoności optymizm Laplace’a wydawał się nie na miejscu, ale większość przedstawicieli współczesnej nauki podzielała jego marzenia. W istocie misja wielu dwudziestowiecznych naukowców — biologów, neurologów, ekonomistów — polega na rozbijaniu wszechświata na najprostsze atomy, które spełniają naukowe reguły. We wszystkich tych naukach jest stosowany rodzaj newtonowskiego determinizmu. Ojcowie współczesnej komputeryzacji zawsze pamiętali o Laplasie, a historia komputeryzacji i historia prognoz wzajemnie się przeplatały od czasu, gdy John von Neumann zaprojektował swoją pierwszą maszynę w Instytucie Badań Zaawansowanych w Princeton w stanie New Jersey w 1950 roku. Von Neumann uważał, że modelowanie pogody mogłoby być idealnym zadaniem dla komputera. Oczywiście zawsze istniał pewien kompromis, tak mały, że naukowcy zwykle zapominali, że czai się w zakamarkach filozofii jak niezapłacony rachunek. Pomiary nigdy nie mogą być idealne. Naukowcy maszerujący pod sztandarami Newtona faktycznie niosą inny transparent, na którym wypisano coś w rodzaju: Jeśli ma się przybliżoną wiedzę o warunkach początkowych i zna się prawa przyrody, można w przybliżeniu obliczyć zachowanie się systemu. To założenie leży w samym filozoficznym sercu nauki. Jak zwykł mawiać pewien teoretyk 5 do swoich studentów: „Podstawowa idea
zachodniej nauki polega na tym, że nie trzeba brać pod uwagę spadającego liścia na jakiejś planecie w innej galaktyce, kiedy próbuje się wyjaśnić ruch kuli na stole bilardowym na Ziemi. Bardzo małe oddziaływania mogą być zaniedbane. Istnieje zbieżność w sposobie działania rzeczy i arbitralnie małe oddziaływania nie mają arbitralnie wielkiego wpływu”. W klasycznej nauce wiara w przybliżenie i zbieżność była dobrze uzasadniona. Drobny błąd w ustaleniu pozycji komety Halleya w 1910 roku spowodował tylko, że jej przybycie w 1986 roku zostało przewidziane z niewielkim błędem, i błąd pozostawałby taki mały przez miliony lat. Komputery opierają się na tym samym założeniu podczas prowadzenia statków kosmicznych: prawie dokładne dane wejściowe dają prawie dokładne przewidywania. W ekonomii progności również opierają się na tym założeniu, chociaż ich sukcesy są mniej widoczne. To samo dotyczy pionierów globalnych prognoz pogodowych. Lorenz, posługując się swoim prymitywnym komputerem, wypreparował pogodę do nagiego szkieletu. Jednak linia po linii wiatry i temperatury w wydrukach Lorenza wydawały się zachowywać w rozpoznawalny ziemski sposób. Pasowały one do jego wypieszczonych intuicji o pogodzie, do jego odczucia, że pogoda powtarza się, wykazując w czasie znajome układy, w których ciśnienie to rośnie, to maleje, a wiatry wieją raz z północy, a raz z południa. Odkrył, że kiedy linia biegnie od wyżu do niżu bez garbu, pojawi się potem podwójny garb. Powiedział wtedy: „Jest to rodzaj reguły, którą mogą się posłużyć progności” 6. Ale powtórzenia nigdy nie były dokładne. To był układ z zakłóceniami. Uporządkowany nieporządek. Aby lepiej zaobserwować układy pogody, Lorenz stworzył prymitywny rodzaj grafiki. Zamiast drukować zwykłe linie cyfr, jego maszyna drukowała pewną liczbę spacji, po których pojawiała się litera a. Lorenz mógł wybrać jedną zmienną, np. kierunek strumienia powietrza. Litery a stopniowo
maszerowały po rolce papieru, kołysząc się w przód i w tył po linii falistej, tworząc długi szereg wzgórz i dolin, które ukazywały, jak zachodni wiatr nad kontynentem odchylał się na północ i południe. Porządek tego zjawiska, rozpoznawalne, wciąż następujące po sobie cykle, ale nigdy dwukrotnie w ten sam sposób, były fascynujące. Układ wydawał się powoli odkrywać swoje tajemnice przed okiem meteorologa. Pewnego dnia w zimie 1961 roku, chcąc sprawdzić pewną dłuższą sekwencję programu, Lorenz uprościł sobie pracę. Zamiast wystartować z programem od początku, zrobił to od środka. Aby zaś wprowadzić właściwe dane początkowe, posłużył się liczbami z jednego z poprzednich wydruków. Potem spacerował po korytarzu, chcąc uniknąć nieprzyjemnego szumu i wypić filiżankę kawy. Kiedy wrócił pół godziny później, ujrzał coś zupełnie nieoczekiwanego, coś, co stało się podwaliną nowej nauki. Nowy przebieg programu powinien być dokładnym duplikatem poprzedniego. Lorenz osobiście wprowadził dane do maszyny. Program nie został zmieniony. Jednak teraz, gdy oglądał nowy wydruk, widział swoją pogodę tak odbiegającą od układu wyliczonego podczas ostatniego przebiegu, że w okresie zaledwie kilku miesięcy całe podobieństwo zniknęło. Oglądał to jeden, to drugi zbiór danych. Równie dobrze mógł wyciągnąć przypadkowo oba układy pogody z kapelusza. Najpierw pomyślał, że znowu popsuła się jakaś lampa w komputerze. Nagle zrozumiał 7. Nie było przekłamania. Problem leżał w liczbach, które wpisał. W pamięci komputera było zapisanych sześć liczb: .506127. Na wydruku — aby zaoszczędzić miejsca — pojawiły się tylko trzy: .506. Lorenz wprowadził krótszą, zaokrągloną liczbę, zakładając, że różnica — jedna tysięczna — jest nieistotna. Było to rozsądne założenie. Jeśli satelita pogodowy może odczytywać temperaturę powierzchni oceanów z dokładnością do tysięcznych części, jego
operatorzy uważają się za bardzo szczęśliwych. Royal McBee Lorenza wykonywał klasyczny program. Stosował czysto deterministyczny układ równań. Z określonego punktu początkowego pogoda powinna ewoluować dokładnie w ten sam sposób za każdym razem. Z nieco innym punktem początkowym pogoda powinna rozwijać się w nieco inny sposób. Mały błąd numeryczny był jak mały podmuch wiatru — z pewnością małe podmuchy wiatru gasną lub znoszą się wzajemnie, zanim mogą zmienić ważne, makroskopowe cechy pogody. Jednak w szczególnym układzie równań Lorenza małe błędy doprowadziły do katastrofalnych skutków 8. Lorenz postanowił dokładniej przyjrzeć się temu, w jaki sposób rozbiegają się dwa prawie identyczne wykresy. Powielił jedną falistą linię z wydruku na folii i położył na drugą, aby sprawdzić, czym się różnią. Początkowo dwa garby na obu liniach dokładnie pasowały do siebie. Potem jedna linia zaczęła pozostawać w tyle na grubość jednego włosa. Zanim przebiegi osiągnęły następny grzbiet, były już wyraźnie niezgodne w fazie. Przy trzecim z czterech grzbietów całe podobieństwo znikło.
EDWARD N. LORENZ, ADOLPH E. BROTMAN
Tak rozbiegają się dwa układy pogodowe. Prawie z tego samego punktu
początkowego komputer Edwarda Lorenza wyprodukował układy pogody, które oddalały się od siebie coraz bardziej, aż zniknęły ich wszystkie podobieństwa. (Z wydruków Lorenza z 1961 roku).
To musiały być niedokładności niezdarnego komputera. Lorenz mógł założyć, że coś było nie w porządku z jego maszyną albo z jego modelem — prawdopodobnie powinien był tak założyć. Nie było przecież bynajmniej tak, że zmieszał sód i chlor i powstało złoto. Ale jego matematyczna intuicja, którą jego koledzy zaczęli rozumieć znacznie później, wymierzyła mu prawdziwego kopniaka: w jego filozofii tkwiła jakaś niespójność. Praktyczna waga tego odkrycia oszołomiła go. Chociaż równania Lorenza były tylko parodią ziemskiej pogody, wierzył, że obejmują istotę rzeczywistej atmosfery. W tym dniu zrozumiał, że prognozy długoterminowe w meteorologii są skazane na niepowodzenie 9. „Z pewnością nie potrafiliśmy tego robić i teraz mamy usprawiedliwienie — powiedział. — Myślę, że jedną z przyczyn, dla których ludzie uważali, iż będzie możliwe prognozowanie pogody, było założenie, że istnieją realne fizyczne zjawiska, za pomocą których można opracować świetną prognozę: na przykład przewidzieć zaćmienia Słońca i Księżyca — chociaż dynamika Słońca, Księżyca i Ziemi jest raczej skomplikowana — lub pływy oceaniczne. Nigdy nie zwykłem myśleć o prognozowaniu pływów jako o przewidywaniu — myślałem raczej jako o ustaleniu faktu — ale oczywiście jest to rodzaj prognozy. Pływy są w rzeczywistości tak skomplikowane jak atmosfera. Oba zjawiska mają okresowe składowe — można przewidzieć, że w lecie przyszłego roku będzie cieplej niż w zimie. Ale w przypadku pogody zajmujemy stanowisko, że to już wiedzieliśmy. Jeśli chodzi o pływy, interesujemy się tym, co w nich przewidywalne; to, co nieprzewidywalne, jest małe, o ile nie ma sztormu. Przeciętna osoba widząc, że potrafimy całkiem dobrze przewidywać pływy
na kilka miesięcy naprzód, pyta, dlaczego nie potrafimy zrobić tego samego w przypadku atmosfery, chodzi tu przecież o inny płyn, a prawa są tak samo skomplikowane. Ale ja uświadomiłem sobie, że dowolny układ fizyczny, który zachowuje się nieokresowo, jest nieprzewidywalny” 10. Lata pięćdziesiąte i sześćdziesiąte były latami nierealistycznego optymizmu, jeśli chodzi o prognozowanie pogody 11. Gazety i czasopisma oczekiwały na sukcesy nauki o pogodzie, nie tylko na przewidywanie pogody, ale również na modyfikowanie jej i sterowanie nią. Tymczasem dojrzewały równocześnie dwie technologie: maszyny cyfrowe i satelity kosmiczne. Przygotowano międzynarodowy program (Global Atmosphere Research Program), aby móc je wykorzystać. Myślą przewodnią tego programu było uwolnienie ludzkości od niepokojów związanych z perturbacjami pogodowymi: ludzie powinni panować nad pogodą, a nie być jej ofiarami. Kopuły geodezyjne miały przykryć pola uprawne. Samoloty miały obsiewać chmury. Naukowcy mieli ustalić, jak wywoływać deszcz i jak go powstrzymywać. Intelektualnym ojcem tego popularnego poglądu był von Neumann, który zbudował swój pierwszy komputer z intencją, między innymi, kontrolowania pogody. Otoczył się meteorologami i prowadził zapierające dech w piersiach pogadanki dla fizyków na temat swoich planów. Miał on specyficzne matematyczne uzasadnienie dla swojego optymizmu, ponieważ to on odkrył, że skomplikowane systemy dynamiczne mogą mieć punkty niestabilności — punkty krytyczne, w których słaby bodziec może mieć potężne konsekwencje — jak kulka balansująca na szczycie góry. Von Neumann wyobrażał sobie, że za pomocą komputera naukowcy będą mogli rozwiązywać równania ruchu płynów na najbliższe kilka dni 12. Następnie centralny komitet meteorologów wysyłałby samoloty, aby zrzucały zasłonę dymną albo obsiewały chmury w celu przestawienia pogody w żądany tryb. Ale von Neumann przeoczył
możliwość chaosu z niestabilnością w każdym punkcie. W latach osiemdziesiątych uruchomiono potężną i drogą machinę biurokratyczną do wykonania misji von Neumanna albo przynajmniej jej części 13. Amerykańscy spece od prognoz pogodowych pracowali na przedmieściach Maryland w pobliżu autostrady do Waszyngtonu, w betonowych bunkrach z ekranami radarowymi i antenami radiowymi na dachu. Ich superkomputery testowały model, który przypominał model Lorenza tylko w podstawowych kwestiach. Gdy Royal McBee mógł wykonać sześćdziesiąt operacji mnożenia na sekundę, prędkość Control Data Cyber 205 była mierzona w megaflopach, milionach operacji zmiennoprzecinkowych na sekundę. Gdy Lorenz zadowalał się dwunastoma równaniami, nowoczesne globalne modele rozwiązywały układy 500 000 równań. Model uwzględniał sposób, w jaki para wodna przenosiła ciepło powietrza, kiedy kondensowała się i parowała. Cyfrowe wiatry były kształtowane przez łańcuchy cyfrowych gór. Dane napływały godzinami z każdego kraju, z samolotów, satelitów i statków. National Meteorological Center (Państwowe Centrum Meteorologiczne) sporządzało drugie pod względem jakości na świecie prognozy pogody. Najlepsze pochodziły z Reading w Anglii, małego miasteczka uniwersyteckiego znajdującego się godzinę drogi od Londynu. European Centre for Medium Range Weather Forecasts (Europejskie Centrum Średnioterminowych Prognoz Pogody) zajmowało skromny budynek ocieniony drzewami, wybudowany w bezosobowym, szklano-ceglanym stylu Organizacji Narodów Zjednoczonych. Była to budowla z najlepszego okresu idei wszecheuropejskiego wspólnego rynku, kiedy większość narodów zachodniej Europy zdecydowała się połączyć swoje talenty i zasoby w celu przewidywania pogody. Europejczycy przypisywali swój sukces młodej, wciąż zmieniającej się kadrze — bez urzędników państwowych — i swojemu
superkomputerowi Cray, który zawsze wydawał się lepszy od amerykańskiego. Prognozowanie pogody było początkiem, ale nie końcem problemu wykorzystania komputerów do modelowania złożonych układów. Te same techniki zastosowano w wielu gałęziach nauk fizycznych i społecznych w nadziei przewidywania wszystkiego — od przepływu płynów, co interesowało projektantów śmigieł, aż do potężnych przepływów pieniędzy, co interesowało ekonomistów. Rzeczywiście w latach siedemdziesiątych i osiemdziesiątych ekonomiczne prognozowanie za pomocą komputerów wykazywało podobieństwo do globalnego prognozowania pogody. Modele kipiały skomplikowanymi, nieco arbitralnymi układami równań przekształcającymi warunki początkowe — ciśnienie atmosferyczne albo podaż pieniądza — w przyszłe trendy. Programiści mieli nadzieję, że wyniki nie będą zbyt mocno zniekształcone przez nieuniknione założenia upraszczające. Jeśli model wykazywał coś zbyt dziwacznego — jak zatopienie Sahary albo potrojenie stopy zysku — programiści rewidowali równania, aby wyniki zgadzały się z oczekiwaniami. W praktyce modele okazały się całkowicie ślepe na to, co miała przynieść przyszłość, ale wiele osób, które powinny wiedzieć lepiej, zachowywało się tak, jak gdyby wierzyło w te wyniki. Prognozy wzrostu ekonomicznego albo bezrobocia były wysuwane z pseudodokładnością do dwóch lub trzech miejsc dziesiętnych 14. Instytucje finansowe i rządowe płaciły za takie przewidywania i postępowały według nich, być może nie z konieczności, ale z braku czegoś lepszego. Prawdopodobnie wiedziały, że takie zmienne jak „optymizm konsumenta” nie były tak dokładnie mierzone jak „wilgotność” i że dotąd nie napisano dokładnych równań opisujących ruchy na arenie politycznej i rynku mody. Ale nieliczni tylko zdawali sobie sprawę, jak kruchy jest proces modelowania przepływów na komputerze, nawet kiedy
dane są rozsądnie prawdopodobne, a prawa czysto fizyczne, jak w prognozowaniu pogody. Modelowanie komputerowe odniosło realny sukces, zamieniając sztukę prognozowania w naukę przyrodniczą. Oszacowania European Centre sugerowały, że świat zaoszczędza miliardy dolarów każdego roku z przewidywań, które — statystycznie rzecz biorąc — były lepsze niż nic. Ale dłuższe niż dwu-, trzydniowe najlepsze na świecie prognozy były spekulacjami, dłuższe zaś niż sześcio-, siedmiodniowe — po prostu bezwartościowe. Przyczyną był efekt motyla 15. Dla małych składników pogody — a dla globalnego meteorologa „mały” może oznaczać oberwanie chmury czy burzę śnieżną — każde przewidywanie gwałtownie traci na wartości. Niepewność i błędy mnożą się w każdym ogniwie łańcucha procesów turbulentnych, poczynając od tumanu kurzu i nawałnicy aż do kontynentalnych wirów, które może dostrzec tylko satelita. Współczesne modele pogody są oparte na siatce punktów z oczkami oddalonymi od siebie o około 6 mil, a mimo to pewne dane wyjściowe trzeba zgadywać, ponieważ stacje naziemne i satelity nie mogą uchwycić wszystkiego. Ale załóżmy 16, że Ziemia mogłaby być pokryta siecią rozpościerającą się również w górę, aż do krańców atmosfery, z oczkami odległymi od siebie o pół metra. Załóżmy, że każdy czujnik dostarczałby idealnie dokładnych pomiarów temperatury, ciśnienia, wilgotności i innych danych, których potrzebują meteorologowie. Dokładnie o północy komputer o nieskończonej mocy obliczeniowej połknąłby te wszystkie dane i obliczył, co się stanie w każdym punkcie sieci o 12.01, następnie o 12.02, 12.03... Komputer mimo to nie byłby w stanie przewidzieć, czy miesiąc później w Princeton, w stanie New Jersey, będzie świeciło słońce czy padał deszcz. O północy odległości między czujnikami ulegną fluktuacjom, drobnym
odchyleniom od średniej, o których komputer nie będzie wiedział. Przed 12.01 te fluktuacje wytworzą już niewielkie błędy w odległości pół metra. Wkrótce błędy pojawią się w odległości 5 metrów, aż wreszcie pokryją cały glob. Nawet dla doświadczonych meteorologów wszystko to przeczy zdrowemu rozsądkowi. Jednym ze starych przyjaciół Lorenza był Robert White, docent meteorologii w MIT, który później został dyrektorem National Oceanic and Atmospheric Administration. Lorenz opowiedział mu o efekcie motyla i o długoterminowych prognozach meteorologicznych. White udzielił mu neumannowskiej odpowiedzi: „Przewidywanie to głupstwo. Sterowanie pogodą — to jest to” 17. Miał na myśli, że małe modyfikacje, takie w ludzkiej skali, mogłyby spowodować żądane zmiany w wielkim zakresie. Lorenz widział to inaczej. Tak, można zmienić pogodę. Można spowodować, że będzie ona kształtować się w nieco inny sposób, niż kształtowałaby się bez ingerencji. Ale jeśli tak uczynimy, nigdy nie będziemy wiedzieli, jak pogoda kształtowałaby się bez tej ingerencji. Byłoby to jak dodatkowe mieszanie dobrze już potasowanej talii kart: wiesz, że zmieni twój los, ale nie wiesz, czy na lepsze, czy na gorsze. Odkrycie Lorenza było przypadkiem, jeszcze jednym w szeregu ciągnącym się od Archimedesa i jego wanny. Lorenz nie był człowiekiem, który krzyczał: Eureka! Przypadkowe odkrycie doprowadziło go do miejsca, w którym tkwił przez cały czas. Był jednak gotów badać konsekwencje swojego odkrycia, pokazując, co ono oznacza dla zrozumienia przepływów wszystkich rodzajów płynów. Jeśli Lorenz zatrzymałby się na efekcie motyla, efekcie określającym niemożliwość przewidywania, byłby tylko zwiastunem złych wieści. Ale zobaczył on coś więcej niż tylko przypadkowość wrytą w swój model pogody. Zobaczył piękną strukturę geometryczną, porządek w przebraniu
przypadkowości. Lorenz był jednakże matematykiem przebranym za meteorologa i teraz zaczął prowadzić podwójne życie. Pisał prace czysto meteorologiczne. Ale również pisał prace czysto matematyczne, ze wstępami zawierającymi trochę informacji o pogodzie. W końcu wstępy znikły całkowicie. Lorenz zwracał coraz większą uwagę na matematykę układów, które nigdy nie znajdowały stanu stabilnego, układów, które ciągle się powtarzały, ale nigdy idealnie. Każdy wie, że pogoda jest takim systemem — aperiodycznym. Przyroda jest pełna innych układów tego typu: populacje zwierząt, które rozrastają się i kurczą prawie regularnie; epidemie, które pojawiają się i zanikają według prowokująco regularnego planu. Jeśli pogoda osiągnęłaby stan idealnie taki sam jak kiedyś, z takimi samymi najdrobniejszymi wietrzykami i chmurami, to prawdopodobnie powtarzałaby się w nieskończoność i problem prognozowania stałby się trywialny. Lorenz zrozumiał, że musi zachodzić związek pomiędzy niechęcią pogody do powtarzania się a niezdolnością meteorologów do jej przewidywania — związek między aperiodycznością i nieprzewidywalnością 18. Niełatwo było znaleźć proste równania oddające aperiodyczność, której szukał. Początkowo jego komputer dążył do zamykania się w powtarzalnych cyklach. Ale Lorenz próbował różnych drobnych komplikacji i ostatecznie udało mu się. Wprowadził równanie, które opisywało zmiany ilości ciepła ze wschodu na zachód. Odpowiadało to rzeczywistej różnicy między stopniem nagrzania, na przykład wschodniego wybrzeża Ameryki Północnej a Oceanu Atlantyckiego. Powtarzalność znikła. Ale efekt motyla nie był przypadkiem, był koniecznością. Załóżmy, że małe zakłócenia pozostają małe, rozumował, zamiast rozwijać się z czasem. Zatem kiedy pogoda dojdzie dowolnie blisko stanu, przez który przechodziła przedtem, będzie ona dowolnie blisko schematu, który nastąpi. Praktycznie
cykle powinny być wówczas przewidywalne i w konsekwencji mało interesujące. Aby wytworzyć bogaty repertuar układów rzeczywistej ziemskiej pogody, w całym jej pięknie i wielorakości, nie można mieć niczego bardziej stosownego niż efekt motyla. Efekt motyla wymagał nazwy technicznej i ją otrzymał — wrażliwość na warunki początkowe. Ale wrażliwość na warunki początkowe nie była całkowicie nowym pojęciem. Miała już swoje miejsce w folklorze: Z braku gwoździa stracono but, Z braku buta stracono konia, Z braku konia zginął jeździec, Z braku jeźdźca przegrano bitwę, Z braku zwycięstwa w bitwie stracono królestwo 19. George Herbert (przeł. Marek Obarski)
W nauce jak w życiu: dobrze wiadomo, że łańcuch zdarzeń może mieć punkt krytyczny, który mógłby zwielokrotniać małe zmiany. Ale chaos oznaczał, że takie punkty były wszędzie. One się rozprzestrzeniały. W układach takich jak pogoda wrażliwość na warunki początkowe jest nieuniknioną konsekwencją sposobu, w jaki małe skale przeplatają się z wielkimi. Koledzy byli zaskoczeni tym, że Lorenz potrafi symulować zarówno aperiodyczność, jak i wrażliwość na warunki początkowe w swoim zabawowym modelu pogody: dwanaście równań obliczanych wciąż i wciąż z precyzyjną mechaniczną biegłością. Jak mogły takie bogactwo, taka nieprzewidywalność — taki chaos — powstawać z prostego deterministycznego układu? Lorenz odłożył na bok badania pogody i szukał jeszcze prostszego sposobu
wytworzenia takiego złożonego zachowania. Znalazł go w układzie zaledwie trzech równań. Były to równania nieliniowe, co znaczy, że wyrażały relacje, które nie były prostymi proporcjonalnościami. Liniowe relacje mogą być przedstawione na wykresie za pomocą linii prostej. Można powiedzieć, że spełniają regułę: im więcej, tym lepiej. Równania liniowe są rozwiązywalne, co sprawia, że są odpowiednie do przedstawiania w podręcznikach. Układy liniowe mają ważną cechę modułowości: można je rozdzielić i połączyć, dodając poszczególne części. Układów nieliniowych ogólnie nie można rozwiązać i nie można dodawać. W przypadku cieczy i układów mechanicznych wyrażenia nieliniowe chętnie się opuszcza, próbując nadać im prostą i jasną interpretację. Na przykład — tarcie. Bez tarcia proste równanie liniowe wyraża ilość energii potrzebnej do przyspieszenia krążka hokejowego. Z tarciem relacja staje się bardziej skomplikowana, ponieważ ilość energii zmienia się w zależności od szybkości, z jaką porusza się krążek w danej chwili. Nieliniowość oznacza, że rozpoczęcie gry samo w sobie może zmienić jej reguły. Nie możesz przypisać stałej ważności tarciu, ponieważ zależy ona od prędkości. Ta z kolei zależy od tarcia. To wzajemne oddziaływanie powoduje, że równania nieliniowe tak trudno jest rozwiązywać, ale tworzą one również bogactwo zachowań, które nigdy nie występuje w układach liniowych. W dynamice płynów wszystko upraszcza się do jednego równania kanonicznego — równania Naviera-Stokesa. Jest to cudowna zwięzłość wiążąca prędkość płynu, ciśnienie, gęstość i lepkość, ale tak się składa, że jest równaniem nieliniowym. Tak więc natura tych relacji często jest nie do określenia. Analizowanie zachowania się układów nieliniowych, takich jak równanie Naviera-Stokesa, przypomina błądzenie po labiryncie, którego ściany przestawiają się po każdym twoim kroku. Jak to wyraził von Neumann: „Charakter równania... zmienia się równocześnie we wszystkich istotnych
aspektach: zmienia się zarówno porządek, jak i stopień. Zatem należy spodziewać się bardzo przykrych trudności matematycznych” 20. Świat byłby inny — a nauka nie potrzebowałaby chaosu — gdyby równanie NavieraStokesa nie zawierało demona nieliniowości. Trzy równania Lorenza wynikają z rozważań nad szczególnym rodzajem ruchu płynu: unoszeniem się gorącego gazu albo cieczy, zwanym konwekcją. W atmosferze konwekcja miesza powietrze podgrzewane przez nagrzaną słońcem Ziemię i lśniące fale konwekcyjne unoszą się jak zjawy nad gorącą smołą lub grzejnikiem. Lorenz z wielkim przejęciem mówił o konwekcji w filiżance gorącej kawy 21. Jak twierdził, był to jeden z niezliczonych hydrodynamicznych procesów w naszym wszechświecie, którego przyszłe zachowanie możemy chcieć poznać. Jak obliczyć szybkość, z jaką stygnie kawa w filiżance? Jeśli kawa jest tylko ciepła, jej ciepło będzie się rozpraszać bez żadnych ruchów hydrodynamicznych. Kawa pozostaje w stanie stacjonarnym. Ale jeśli jest dostatecznie gorąca, ruchy konwekcyjne przeniosą gorącą kawę z dna filiżanki w kierunku zimniejszej powierzchni. Konwekcja w kawie staje się wyraźnie widoczna, kiedy doda się niewielką ilość śmietany. Wiry mogą być całkiem skomplikowane. Ale los tego układu jest oczywisty. Ponieważ ciepło rozprasza się i tarcie zmniejsza energię poruszającego się płynu, ruch nieuchronnie zaniknie. „Moglibyśmy mieć trudości z przewidywaniem temperatury kawy na jedną minutę naprzód, ale nie powinniśmy mieć ich w ustaleniu temperatury na godzinę naprzód” 22. Równania ruchu, które rządzą ochładzaniem się kawy w filiżance, muszą odzwierciedlać los układu. Muszą być dysypatywne. Temperatura musi wziąć kurs na temperaturę pokoju, a prędkość zmniejszać się do zera. Lorenz zastosował układ równań na konwekcję i obrał je do kości, odrzucając wszystko, co mogłoby być nieistotne, czyniąc je nierealnie prostymi 23. Prawie nic nie pozostało z oryginalnego modelu, ale nadal
pozostał on nieliniowy. Dla fizyka równania te wyglądały prosto. Spojrzawszy na nie — wielu naukowców uczyniło to w następnych latach — ma się ochotę powiedzieć, że można je rozwiązać. „Tak — Lorenz powiedział cicho — ma się skłonność, żeby tak powiedzieć, kiedy się je zobaczy. Jest tam kilka nieliniowych wyrażeń, lecz myślisz, że musi być sposób, aby się z nimi uporać. Ale po prostu nie jest to możliwe”. Najprostszy rodzaj podręcznikowej konwekcji następuje w komórce cieczy, pudełku z gładkim dnem, które może być ogrzewane, i gładkim wierzchem, który może być ochładzany. Różnica temperatury między gorącym dnem i zimnym wierzchem steruje przepływem. Jeśli różnica jest mała, ciecz pozostaje nieruchoma. Ciepło przenosi się w kierunku szczytu przez przewodzenie jak przez metalową sztabkę, bez pokonywania naturalnej tendencji cieczy do pozostawania w spoczynku. Ponadto układ jest stabilny. Jakikolwiek przypadkowy ruch, który mógłby wystąpić, kiedy, powiedzmy, jakiś student zastuka w aparat, będzie wygasał, a system powróci do stanu stacjonarnego.
ADOLF E. BROTMAN
Krążący płyn. Kiedy ciecz lub gaz są podgrzewane od dołu, płyn ma tendencję do organizowania się w cylindryczne rolki (po lewej). Gorący płyn podnosi się po
jednej stronie, traci ciepło i opada po drugiej stronie — jest to proces konwekcji. Kiedy dostarczy się więcej ciepła (po prawej), pojawia się niestabilność i rolki zaczynają się wić tam i z powrotem wzdłuż cylindrów. Przy jeszcze wyższych temperaturach przepływ staje się bezładny i turbulentny.
Pomimo to, kiedy zwiększy się ogrzewanie, rozwinie się nowy rodzaj zachowania. Kiedy płyn poniżej staje się gorący, rozszerza się. Gdy się rozszerzy, staje się mniej gęsty. Gdy jest mniej gęsty, staje się lżejszy i pokonując tarcie, unosi się w kierunku powierzchni. W dokładnie skonstruowanym pudełku rozwija się cylindryczna rolka, przy czym gorący płyn podnosi się po jednej stronie, a zimny opada po drugiej. Patrząc z boku, widzimy, że ruch cieczy zatacza ciągłe koła. Poza laboratorium przyroda również często tworzy swoje komórki konwekcyjne. Kiedy, na przykład słońce ogrzewa pustynię, falujące powietrze może uformować niewyraźny układ chmur na niebie albo piasku na ziemi. Jeśli doda się jeszcze trochę ciepła, zachowanie staje się bardziej skomplikowane. Rolki zaczynają falować. Okrojone równania Lorenza były zbyt proste, aby modelować taki rodzaj złożoności. Wydobywały one tylko jedną cechę prawdziwej konwekcji: ruch kołowy gorącego płynu. Brały też pod uwagę prędkość takiego ruchu i przenoszenie ciepła. Te procesy fizyczne wzajemnie na siebie oddziaływały. Kiedy jakaś odrobina płynu podnosi się po okręgu, kontaktuje się z zimniejszym płynem i zaczyna tracić ciepło. Jeśli koło kręci się dostatecznie szybko, kropla płynu nie straci całej nadwyżki ciepła, zanim osiągnie wierzch i zacznie opadać wzdłuż drugiej strony rolki. Zatem zacznie faktycznie hamować pęd innej kropli wznoszącej się za nią.
ADOLPH E. BROTMAN
Koło wodne Lorenza. Pierwszy znany system chaotyczny odkryty przez Edwarda Lorenza koresponduje dokładnie z urządzeniem mechanicznym: kołem wodnym. To proste urządzenie wykazuje zaskakująco złożone zachowanie. Rotacja koła wodnego ma pewne właściwości, takie same jak rotujące cylindry płynu w procesie konwekcji. Koło wodne przypomina plaster cylindra. Oba systemy są napędzane w sposób ciągły — przez wodę lub przez ciepło — i oba rozpraszają energię. Płyn traci ciepło; czerpaki tracą wodę. W obu systemach długookresowe zachowanie się zależy od tego, jak szybko dostarczana jest energia. Woda wlewana jest od góry ze stałą szybkością. Jeśli strumień jest niewielki, czerpak na szczycie nigdy nie napełni się dostatecznie, aby przezwyciężyć tarcie, i koło nigdy nie zacznie się obracać. (Podobnie jest w przypadku konwekcji: gdy ciepło będzie dostarczane zbyt wolno, aby pokonać lepkość, nie zdoła wprowadzić cieczy w ruch). Jeśli strumień jest większy, ciężar szczytowego czerpaka wprowadza koło w ruch (po lewej). Koło wodne może rotować ze stałą prędkością (w środku). Ale jeśli strumień jest jeszcze obfitszy (po prawej), wirowanie może stać się chaotyczne z powodu nieliniowego efektu wbudowanego w system. To, jak napełnią się czerpaki, kiedy przechodzą pod strumieniem wody, zależy od prędkości obrotowej koła. Jeśli koło obraca się szybko, czerpaki mają niewiele czasu na napełnienie. (Podobnie w przypadku konwekcji szybko podgrzewany płyn ma niewiele czasu na absorpcję ciepła). Również jeśli koło porusza się szybko, czerpaki mogą zacząć przesuwać się w górę, zanim zdążą się opróżnić. W wyniku tego ciężkie czerpaki poruszające się w górę mogą spowodować zmniejszenie prędkości i odwrotnie. W rzeczywistości Lorenz odkrył, że w długim czasie prędkość obrotu może
zmieniać kierunek wielokrotnie, przy czym nigdy nie osiągnie stałego poziomu, a zachowanie jej nie będzie się powtarzać w przewidywalny sposób.
Chociaż system Lorenza nie modelował w pełni konwekcji, okazało się, że ma on dokładne analogie wśród układów rzeczywistych. Na przykład jego równania dokładnie opisują starodawne dynamo elektryczne, będące przodkiem współczesnych generatorów, gdzie prąd płynie przez dysk, który rotuje w polu magnetycznym. W pewnych warunkach dynamo może samoczynnie zmieniać kierunek obrotów. Gdy równania Lorenza stały się już znane, kilku naukowców zasugerowało, że zachowanie się takiego dynama mogłoby dostarczyć wyjaśnienia innego dziwnego zjawiska polegającego na odwracaniu się ziemskiego pola magnetycznego. Wiadomo, że kierunek ziemskiego pola magnetycznego zmieniał się wielokrotnie w ciągu historii Ziemi, w okresach, które wydają się chaotyczne i niewytłumaczalne 24. Napotkawszy taką nieregularność, teoretycy na ogół szukają wyjaśnień poza układem, proponując przypadki zderzeń z meteorytami. Jednak możliwe, że geodynamo zawiera swój własny chaos.
JAMES P. CRUTCHFIELD, ADOLPH E. BROTMAN
Atraktor Lorenza. Ten magiczny obrazek, przypominający maskę sowy albo skrzydła motyla, stał się godłem badaczy chaosu. Odsłania on piękną strukturę ukrytą wewnątrz nieuporządkowanego strumienia danych. Tradycyjnie zmiany wartości jakiejś jednej zmiennej mogą być przedstawione w formie tzw. szeregu czasowego (u góry). Aby pokazać relacje między trzema zmiennymi, potrzebna
jest inna technika. W każdej chwili trzem zmiennym przyporządkowany jest określony punkt w trójwymiarowej przestrzeni; kiedy układ zmienia się, ruch punktu reprezentuje wielkości zmieniające się w sposób ciągły. Ponieważ układ nigdy się nie powtarza dokładnie, trajektoria nigdy się nie przecina. Zamiast tego pętli się w nieskończoność. Ruch na atraktorze jest abstrakcją, ale uzmysławia ruch rzeczywistego układu. Na przykład przejście od jednego skrzydła atraktora do drugiego odpowiada zmianie kierunku prędkości koła wodnego albo unoszonego płynu.
Innym układem dokładnie opisanym przez równania Lorenza jest pewien rodzaj koła wodnego, mechanicznego analogu konwekcji 25. Na górze woda ścieka w sposób ciągły do kontenerów zawieszonych na brzegu koła. Z każdego kontenera wycieka w sposób ciągły przez mały otwór. Jeśli strumień wody jest słaby, górny kontener nigdy nie napełni się dostatecznie, aby jego ciężar pokonał tarcie, ale jeśli strumień jest większy, ciężar zaczyna obracać kołem. Rotacja może być ciągła. Wreszcie, gdy strumień jest tak szybki, że ciężkie kontenery opadają na dół i zaczynają nieopróżnione wznosić się do góry, koło może zwolnić, zatrzymać się i zmienić kierunek rotacji. Intuicja fizyka — jego „przedchaotyczna” intuicja — podpowiadała mu, że taki prosty mechaniczny system po dłuższym okresie, jeśli strumień wody nigdy nie będzie się zmieniał, przejdzie w stan stacjonarny. Albo koło zacznie obracać się ze stałą prędkością, albo będzie oscylować równomiernie, obracając się raz w lewo, raz w prawo w równych odstępach czasu. Lorenz odkrył coś zupełnie innego. Trzy równania z trzema zmiennymi całkowicie opisują ruch tego układu 26. Komputer Lorenza wydrukował zmieniające się wartości trzech zmiennych: 0-10-0; 4-12-0; 9-20-0; 16-36-2; 30-66-7; 54-115-24; 93-192-74. Trzy liczby narastały i zmniejszały się, gdy mijały kolejne chwile urojonego czasu: pięć taktów, sto taktów, tysiąc taktów.
Aby dane przedstawić graficznie, Lorenz zastosował zbiór trzech liczb jako współrzędne położenia punktu w trójwymiarowej przestrzeni. Zatem sekwencja liczb wytwarzała sekwencję punktów podążających wzdłuż ciągłego toru, który stanowił zapis zachowania się układu. Taki tor mógł prowadzić do jednego miejsca i zatrzymać się, co oznaczało, że system przeszedł w stan stacjonarny, w którym zmienne opisujące temperaturę i prędkość nie będą się już zmieniać. Albo tor mógł tworzyć pętlę biegnącą wciąż w koło, wskazując, że zachowanie systemu jest okresowe. Układ Lorenza nie zachowywał się jednak ani tak, ani tak. Zamiast tego wykres pokazywał rodzaj nieskończonej złożoności. Zawsze pozostawał w pewnych granicach, nigdy nie wybiegając poza obszar wykresu, ale też nigdy się nie powtarzał. Układ kreślił dziwny, charakterystyczny kształt, rodzaj podwójnej spirali w trzech wymiarach, przypominający dwa skrzydła motyla. Kształt ten sygnalizował czysty chaos, ponieważ żaden punkt albo układ punktów nigdy nie wracał. Jednak sygnalizował on również nowy rodzaj porządku. Wiele lat później fizycy będą z sentymentem patrzeć na pracę Lorenza dotyczącą tych trzech równań — „ta cudowna praca”. Ale z drugiej strony mówiło się o niej, jak gdyby była starożytnym zwojem przechowującym sekrety wieczności. W tysiącach artykułów, które uzupełniły techniczną literaturę o chaosie, tylko kilka prac było równie często cytowanych jak Deterministic Nonperiodic Flow. Przez lata żaden pojedynczy obiekt nie inspirował większej liczby ilustracji niż tajemnicza krzywa, podwójna spirala, znana jako atraktor Lorenza. Wykresy Lorenza pokazały po raz pierwszy znaczenie powiedzenia: „To jest skomplikowane”. Całe bogactwo chaosu było w nich zawarte. W tym czasie jednak niewiele osób mogło to dostrzec. Lorenz napisał do Willema Malkusa, profesora matematyki stosowanej w MIT, naukowca
dżentelmena posiadającego wielką umiejętność oceny pracy kolegów. Malkus roześmiał się i powiedział: „Ed, wiemy — wiemy bardzo dobrze — że konwekcja płynów tak się nie zachowuje” 27. Złożoność z pewnością zostanie stłumiona, a system przejdzie w stacjonarny, regularny ruch. „Oczywiście, nie zrozumieliśmy zupełnie istoty rzeczy — powiedział Malkus dwadzieścia pięć lat później, wiele lat po tym, jak zbudował prawdziwe koło wodne Lorenza w swoim laboratorium w piwnicy, aby pokazać je niewiernym. — Ed nie myślał w kategoriach naszej fizyki. Myślał w kategoriach pewnego rodzaju uogólnionego i abstrakcyjnego modelu wykazującego zachowanie, które, jak czuł intuicyjnie było cechą pewnych aspektów świata zewnętrznego. Nie potrafił jednak dobrze tego nam wyjaśnić. Dopiero później zrozumieliśmy, że musiał wyznawać takie poglądy”. Niewielu laików uświadamiało sobie, jak bardzo zostało poszufladkowane środowisko nauki. Przypomina ono pancernik z pouszczelnianymi ścianami działowymi. Biologowie mają dostatecznie dużo do czytania i nie śledzą literatury matematycznej — podobnie uczeni zajmujący się biologią molekularną nie przeglądają literatury z zakresu biologii populacji. Fizycy mają lepsze sposoby spędzania czasu niż przedzieranie się przez czasopisma meteorologiczne. Niektórzy matematycy będą podnieceni, dowiedziawszy się o odkryciu Lorenza; w ciągu dekady fizycy, astronomowie i biologowie szukali czegoś podobnego i czasem odkrywali dla siebie to na nowo. Ale Lorenz był meteorologiem i nikt nie myślał o tym, aby szukać chaosu na stronie 130 dwudziestego tomu „Journal of the Atmospheric Sciences” 28.
1
E.N. Lorenz, W. Malkus, E.A. Spiegel, J.D. Farmer. Istotnym osiągnięciem Lorenza jest tryptyk, w którym najważniejszą częścią jest praca Deterministic Nonperiodic Flow, „Journal of the Atmospheric Sciences” 1963, 20, s. 130-141; oprócz niej opublikował dwie inne: The Mechanics of Vacillation, „Journal of the Atmospheric Sciences” 1963, 20, s.
448-464, i The Problem of Deducing the Climate from the Governing Equations, „Tellus” 1964, 16, s. 1-11. Tworzą one zbiór prac, które dwadzieścia lat później wciąż wywierały ogromny wpływ na matematyków i fizyków. Część osobistych wspomnień Lorenza dotyczących jego pierwszego komputerowego modelu atmosfery ukazała się w On the Prevalence of Aperiodicity in Simple Systems, w: Global Analysis, red. Mgrmela, J. Morsden, Springer Verlag, New York 1979, s. 53-75. 2 Przystępne współczesne omówienie problemu użycia równań do modelowania atmosfery można znaleźć w pracy E.N. Lorenza Large-Scale Motions of the Atmosphere: Circulation (w:) Advances in Earth Science, red. P.M. Hurley, The M.I.T. Press, Cambridge Mass. 1966, s. 95-109. Pierwsza znacząca analiza tego problemu została przedstawiona przez L.F. Richardsona w pracy Weather Prediction by Numerical Process, Cambridge University Press, Cambridge 1922. 3 E.N. Lorenz. Informacje na temat konfliktu między jego zainteresowaniami matematyką i meteorologią można znaleźć w pracy Irregularity: A Fundamental Property of the Atmosphere (wykład crafoordowski wygłoszony w Royal Swedish Academy of Sciences w Sztokholmie, 28 września 1983 roku („Tellus” 1984, 36A, s. 98-110). 4 Pierre Simon de Laplace, A Philosophical Essay on Probabilities, Dover, New York 1951. 5 A.T. Winfree. 6 E.N. Lorenz. 7 E.N. Lorenz, On the Prevalance, s. 55. 8 Spośród wszystkich fizyków i matematyków rozważających układy dynamiczne tym, który najlepiej zrozumiał chaos, był Jules Henri Poincaré. Poincaré zauważył w Science and Method: „Bardzo drobna, umykająca naszej uwadze przyczyna powoduje znaczny efekt, którego nie możemy nie zauważyć; mówimy wtedy, że efekt ten spowodowany jest przez przypadek. Gdybyśmy znali dokładnie prawa natury oraz sytuację wszechświata w chwili początkowej, moglibyśmy dokładnie przewidywać stan tego wszechświata w następnych chwilach. Jednak nawet wtedy, gdy prawa natury przestaną być dla nas sekretem, stan początkowy będziemy mogli poznać jedynie w przybliżeniu. Jeżeli pozwoli to nam na przewidywanie następnych stanów z takim samym przybliżeniem — a jest to wszystko, czego możemy oczekiwać — powiemy, że dane zjawisko zostało przewidziane, że podlega ono pewnym prawom. Nie zawsze jednak mamy do czynienia z takim przypadkiem; może się zdarzyć, iż drobne różnice warunków początkowych wywołują wielkie różnice zjawisk końcowych — mały błąd tych pierwszych może spowodować kolosalny błąd tych ostatnich. Przewidywania stają się niemożliwe...” (cyt. za: Ian Stewart, Czy Bóg gra w kości, PWN, Warszawa 1994, s. 349, przeł. Włodzimierz Komar). Ostrzeżenie Poincarégo z przełomu wieków zostało całkowicie zapomniane; w Stanach Zjednoczonych jedynym matematykiem, który w latach dwudziestych i trzydziestych poważnie podjął myśl Poincarégo, był George D. Birkhoff. Tak się zdarzyło, że przez krótki czas uczył on Edwarda Lorenza w MIT.
9
E.N. Lorenz. Patrz również, tenże, On the Prevalence, s. 56. E.N. Lorenz. 11 J.A. Woods, S.H. Schneider; obszerny przegląd opinii ekspertów tego okresu patrz: Weather Scientists Optimistic That New Findings Are Near, „The New York Times”, 9 September 1963, s. 1. 12 F. Dyson. 13 W.D. Bonner, L. Bengtsson, J.A. Woods, C.E. Leith. 14 Peter B. Medawar, Expectation and Prediction, w: Pluto’s Republic, Oxford University Press, Oxford 1982, s. 301-304. 15 Lorenz oryginalnie mówił o efekcie mewy; najdłużej utrzymujący się termin pochodzi z jego pracy Predictability: Does the Flap of a Butterfly’s Wings in Brazil Set Off a Tornado in Texas? która została przygotowana na doroczne spotkanie Amerykańskiego Towarzystwa Postępu Nauki (American Association for the Advancement of Science) w Waszyngtonie 29 grudnia 1979 roku. 16 J.A. Yorke. 17 E.N. Lorenz, R. White. 18 E.N. Lorenz, The Mechanics of Vacillation. 19 George Herbert; cytowany w tym kontekście przez Norberta Wienera w Nonlinear Prediction and Dynamics, w: Collected Works with Commentaries, red. P. Masani, The M.I.T. Press, Cambridge Mass. 1981, 3:371. Wiener zauważył wcześniej niż Lorenz możliwość „samoustalającej się amplitudy (ang. self-amplitude) małych szczegółów map pogodowych”. Zapisał on: „Tornado jest lokalnym zjawiskiem i już drobne zaburzenia mogą określać jego dokładny tor”. 20 John von Neumann, Recent Theories of Turbulence (1949), w: Collected Works, A.H. Taub, Pergamon Press, Oxford 1963, t. 6, s. 437. 21 The Predictability of Hydrodynamic Flow, w: Transactions of the New York Academy of Science, 1963, II:25:4, s. 409-432. 22 Tamże, s. 410. 23 Ten układ siedmiu równań do modelowania konwekcji został wymyślony przez Barry’ego Saltzmana z Yale University, którego Lorenz kiedyś odwiedził. Zwykle równania Saltzmana zachowywały się okresowo, ale jedna wersja „nie chciała się ustalić” — jak powiedział Lorenz. Lorenz uświadomił sobie, że w chaotycznym obszarze zachowań cztery zmienne zbliżały się do zera — zatem mogły być zaniedbane. Barry Saltzman, Finite Amplitude Convection as an Initial Value Problem, „Journal of the Atmospheric Sciences”, 1962, 19, s. 329. 24 W. Malkus. Pogląd na ziemskie pole magnetyczne z punktu widzenia teorii chaosu jest wciąż gorąco dyskutowany, przy czym kilku naukowców szuka innego, zewnętrznego wyjaśnienia, jak wpływ wielkich meteorytów. Idea, że odwrócenie kierunku pola 10
magnetycznego pochodzi z chaosu wbudowanego w układ, została przedstawiona przez K.A. Robbinsa A Moment Equation Description of Magnetic Reversals in the Earth, „Proceedings of the National Academy of Science” 1976, 73, s. 4297-4301. 25 P. Malkus. 26 Ten klasyczny model, powszechnie zwany układem Lorenza, ma następującą postać: dx/dt = 10(y – x) dy/dt = – xz + 28x – y dz/dt = xy – (8/3)z. Od czasu pojawienia się w Deterministic Nonperiodic Flow układ ten został dokładnie przeanalizowany; najbardziej autorytatywnym technicznym omówieniem jest książka Colina Sparrowa The Lorenz Equations, Bifurcations, Chaos, and Strange Attractors, Springer Verlag, Berlin 1982. 27 W. Malkus, E.N. Lorenz. 28 Praca Deterministic Nonperiodic Flow była cytowana przez społeczność naukową mniej więcej raz do roku w połowie lat sześćdziesiątych; dwadzieścia lat później była cytowana ponad sto razy w roku.
Rewolucja Oczywiście cały wysiłek polega na tym, aby wyjść poza zwykły zakres tego, co nazywa się statystyką. Stephen Spender
Historyk nauki, Thomas S. Kuhn 1, opisał niepokojący eksperyment przeprowadzony przez dwóch psychologów w 1940 roku. Osobom badanym pokazywano pojedynczo karty do gry i proszono, aby je nazwały. Czas prezentacji pojedynczej karty był bardzo krótki. Kilka kart było oczywiście oszukanych, na przykład czerwona szóstka pik albo czarna dama karo. Przy dużej szybkości prezentacji osoby badane nie wykazywały żadnych oznak niepokoju. Nic nie mogłoby być prostsze. Zupełnie nie widziały anomalii. Jeśli pokazano im czerwoną szóstkę pik, głośno wołały „szóstka kier” albo „szóstka pik”. Ale kiedy karty były pokazywane dłużej, osoby badane zaczynały się wahać. Uświadamiały sobie problem, ale nie były pewne, o co chodzi. Na przykład badany stwierdzał, że widział coś dziwnego, czerwoną otoczkę wokół czarnego kiera. Wreszcie, gdy prędkość zmniejszyła się jeszcze bardziej, większość badanych pojmowała, o co chodzi. Potrafili dostrzec złe karty i wykonać potrzebne operacje myślowe, aby bezbłędnie je określić. Jednak nie wszyscy. Kilku odczuwało całkowitą dezorientację, która graniczyła z bólem. „Nie mogę rozpoznać tej karty, czymkolwiek jest — powiedział któryś. — Tym razem nie wyglądała ona nawet jak karta. Nie wiem, jaki to kolor ani czy to były piki czy kiery. Nawet nie jestem pewien, jak wyglądają piki. Mój Boże!” 2
Naukowcy profesjonaliści, którzy w krótkich przebłyskach dostrzegali, jak funkcjonują prawa przyrody, są również podatni na udrękę i zamieszanie, kiedy stają w obliczu niestosowności. A niestosowność, kiedy zmienia sposób widzenia naukowca, czyni możliwym wykonanie najważniejszego kroku. Tak uważał Kuhn, a historia chaosu to potwierdza. Uwagi Kuhna, po raz pierwszy opublikowane w 1962 roku, o tym, jak pracują naukowcy i jak wybuchają rewolucje naukowe, przysporzyły mu tyleż wrogości, ile życzliwości i budzą kontrowersje do dziś. Kuhn podważył tradycyjny pogląd, że postęp naukowy dokonuje się poprzez akumulację wiedzy — nowe odkrycie dodaje się do poprzedniego — i że nowe teorie wyłaniają się wtedy, gdy wymagają tego nowe fakty eksperymentalne. Pokazał, że nauka nie jest uporządkowanym procesem stawiania problemów i odpowiadania na nie. Uwypuklił kontrast między ogromem tego, co naukowcy robią, pracując nad usankcjonowanymi, dobrze zrozumianymi problemami w obrębie swoich dziedzin, a wyjątkową, nieortodoksyjną pracą, która tworzy rewolucje. Nie przez przypadek w swojej pracy ukazał naukowców jako niezupełnie perfekcyjnych racjonalistów. W schemacie Kuhna normalna nauka składa się w większości z oczyszczających operacji 3. Doświadczalnicy wykonują zmodyfikowane wersje eksperymentów, które przeprowadzono już wiele razy 4. Teoretycy tutaj dodają cegiełkę, tam nieco zmienią gzyms w ścianie teorii. Nie może być inaczej. Jeśli wszyscy naukowcy chcieliby zacząć od nowa, kwestionując fundamentalne założenia, z trudem osiągaliby poziom technicznego wyrafinowania konieczny do wykonywania użytecznej pracy. W czasach Benjamina Franklina garstka naukowców próbujących zrozumieć elektryczność mogła wybrać swoje własne pierwsze zasady — i rzeczywiście musieli to zrobić 5. Jeden naukowiec rozważał przyciąganie jako najważniejszy efekt elektryczny, widząc elektryczność jako rodzaj
„wyziewu” emanującego z substancji. Inny myślał o elektryczności jako o płynie przenoszonym przez przewodzące materiały. Ci naukowcy mogli rozmawiać ze sobą prawie jak laicy, ponieważ nie osiągnęli jeszcze stadium, w którym mogli z góry zakładać wspólny, wyspecjalizowany język dla zjawisk, które badają. W przeciwieństwie do nich dwudziestowieczny badacz dynamiki płynów nie mógłby spodziewać się postępu wiedzy w swojej dziedzinie bez uprzedniego zaadaptowania terminologii i technik matematycznych. W wyniku tego, nieświadomie, rezygnuje ze swobody kwestionowania fundamentów swojej nauki. Centralna myśl Kuhna to wizja normalnej nauki zajmującej się rozwiązywaniem tych problemów, o których studenci dowiadują się, gdy po raz pierwszy otworzą swoje podręczniki. Takie problemy określają akceptowaną biegłość, która potrzebna jest do przeprowadzenia większości adeptów przez szkołę wyższą, przez pracę magisterską i przez pisanie artykułów składających się na karierę naukową. „W normalnych warunkach badacz nie jest innowatorem, ale rozwiązywaczem zagadek, a zagadki, na których się koncentruje, są tymi, o których sądzi, że mogą być postawione i rozwiązane w ramach istniejącej tradycji naukowej” — napisał Kuhn 6. Potem wybuchają rewolucje. Nowa nauka wyrasta z tej, która obumarła. Często rewolucja ma charakter interdyscyplinarny — jej centralne odkrycia bywają dziełem ludzi, którzy błąkają się poza zwykłymi granicami swojej specjalności. Problemy, które dręczą tych teoretyków, nie są uważane za usankcjonowane kierunki badawcze. Proponowane przez nich tezy są odrzucane, a artykułów nie przyjmuje się do druku. Sami teoretycy nie są pewni, czy powinni zaakceptować rozwiązania, które dostrzegli. Muszą podjąć ryzyko złamania kariery. Wolnomyśliciele pracujący samotnie, nieumiejący wyjaśnić, dlaczego taki przyjęli kurs, obawiają się przedstawić nawet swoim kolegom to, co robią. Na takim romantycznym wizerunku
opiera się schemat Kuhna i takie zjawisko występowało również w badaniu chaosu. Naukowcy, którzy wcześnie zwrócili się ku badaniom chaosu, spotkali się z niechęcią lub nawet otwartą wrogością kolegów. Absolwentów ostrzegano, że ich kariera może być wystawiona na szwank, jeśli będą pisać prace doktorskie w niesprawdzonej dziedzinie, w której ich promotorzy nie są biegli. Pewien naukowiec 7 zajmujący się fizyką cząstek, słysząc o tej nowej matematyce, cieszył się jej pięknem dla zabawy, ale czuł, że nie może mówić o tym swoim kolegom. Starsi profesorowie czuli, że przechodzą rodzaj kryzysu życiowego, ryzykując zajmowanie się tym kierunkiem, którego wielu kolegów nie rozumie. Ale równocześnie czuli intelektualne podniecenie towarzyszące prawdziwej nowości. Czuli to nawet ci spośród outsiderów, którzy byli „dostrojeni do tej długości fali”. Na Freedmana Dysona z Institute for Advanced Study wiadomości o chaosie podziałały w latach siedemdziesiątych jak „prąd elektryczny”. Inni czuli, że po raz pierwszy w swojej karierze są świadkami prawdziwego zwrotu w nauce, transformacji sposobu myślenia. Ci, którzy zajęli się chaosem już na początku, cierpieli męczarnie, gdy musieli nadać swoim pracom odpowiednią dla publikacji formę. Były to na przykład prace interdyscyplinarne — zbyt abstrakcyjne dla fizyków i zbyt eksperymentalne dla matematyków. Dla niektórych trudność komunikowania nowych idei i dziki opór ze strony tradycyjnych kręgów dowodziły, jak rewolucyjna jest nowa nauka. Słabe idee mogą być asymilowane; idee, które wymagają od ludzi reorganizacji ich obrazu świata, spotykają się z wrogością. Joseph Ford, fizyk z Georgia Institute of Technology, zacytował Tołstoja 8: „Wiem, że większość ludzi, w tym również ci, którzy nie odczuwają lęku przed problemami o dużej złożoności, rzadko potrafi zaakceptować nawet najprostszą i najbardziej oczywistą prawdę, jeśli
zostaliby tym samym zmuszeni do przyznania się, że konkluzje, które z przyjemnością wyjaśniali swoim kolegom, których z dumą uczyli innych i które tkali, wątek po wątku, w tkaninę swojego życia, były błędne”. Wielu uczonych z głównego nurtu tylko w niewielkim stopniu miało świadomość wynurzania się nowej nauki. Niektórzy, szczególnie tradycyjnie nastawieni badacze dynamiki płynów, aktywnie ją zwalczali. Na początku twierdzili, że teoria chaosu brzmi dziwnie i nienaukowo. I że chaos opiera się na matematyce, która wydaje się niekonwencjonalna i trudna. W miarę jak specjalistów od chaosu przybywało tu i tam, niektóre instytuty patrzyły z dezaprobatą na tych uczonych odmieńców; inne poszukiwały następnych. Niektóre czasopisma ustanowiły niepisaną zasadę nieprzyjmowania prac na temat chaosu; jednak pojawiły się i takie, które czyniły to niemal wyłącznie. Nazwiska chaotyków i chaologów (takie neologizmy można było usłyszeć 9) pojawiały się nieproporcjonalnie często na dorocznych listach osób wyróżnionych ważnymi stypendiami i nagrodami. W połowie lat osiemdziesiątych proces rozprzestrzeniania się tej nauki doprowadził do tego, że specjaliści od chaosu zajęli wpływowe pozycje w hierarchii uniwersyteckiej. Zostały ufundowane ośrodki i instytuty naukowe specjalizujące się w „dynamice nieliniowej” i „układach złożonych”. Chaos stał się nie tylko teorią, ale również metodą, nie tylko kanonem wierzeń, ale również sposobem „robienia” nauki. Chaos stworzył swoją własną technikę używania komputerów, technikę, która nie wymaga niezwykle szybkich crayów i cybersów; zamiast nich badacze chaosu woleli używać skromnych terminali, które pozwalały na pracę w trybie konwersacyjnym. Dla nich matematyka stała się nauką eksperymentalną z komputerem zastępującym laboratorium pełne probówek i mikroskopów. Obrazy graficzne stały się kluczem. „Dla matematyka praca bez grafiki jest
masochizmem — powiedział jeden z badaczy chaosu. — Jak mogą oni dostrzec relacje między jednym ruchem a drugim? Jak mogą rozwijać intuicję?” 10 Niektórzy wykonywali swoje prace jawnie, zaprzeczając ich rewolucyjnemu charakterowi; inni, aby opisać zmiany, których byli świadkami, rozmyślnie używali języka Kuhna o nowym paradygmacie w nauce. Wczesne dzieła na temat chaosu swym stylem przypominają, jeśli chodzi o sposób podejścia do pierwszych zasad, prace z epoki Benjamina Franklina. Jak zauważył Kuhn, establishment naukowy zakłada z góry, że wiedza służy jako wspólny punkt wyjścia badań. Aby uniknąć nudzenia kolegów, naukowcy rutynowo zaczynają i kończą swe prace ezoterycznymi sentencjami. Natomiast artykuły na temat chaosu od końca lat siedemdziesiątych — przeciwnie — brzmią bardzo misjonarsko od preambuły aż do podsumowania. Deklarowały one nowe credo i często kończyły się usprawiedliwieniem ich podjęcia. Te wyniki wydają się nam zarówno ekscytujące, jak i prowokacyjne. Teoretyczny obraz przejścia do ruchów turbulentnych jest zaledwie czubkiem góry lodowej 11. Istota chaosu jest matematycznie dostępna. Chaos przepowiada dzisiaj przyszłość, której nic nie zaprzeczy. Ale aby zaakceptować przyszłość, należy zaniechać ciągłego spoglądania w przeszłość 12. Nowe nadzieje, nowy styl i, co najważniejsze, nowy sposób widzenia. Rewolucje zwykle mają gwałtowny przebieg 13. Jedno wyjaśnienie przyrody zastępuje inne. Stare problemy są widziane w nowym świetle, a inne są dostrzegane po raz pierwszy. Następuje coś, co przypomina cały przemysł przestawiający się na nową produkcję. Mówiąc słowami Kuhna: „Jest raczej tak, jak gdyby społeczeństwo profesjonalistów zostało nagle przetransportowane na inną planetę, gdzie znajome obiekty są widziane w innym świetle, a do nich dołączone również inne, nieznane” 14.
Królikiem doświadczalnym nowej nauki było wahadło 15: godło klasycznej mechaniki, ideał ograniczonego działania, ucieleśnienie regularności zegara. Ciężarek kołyszący się swobodnie na końcu pręta. Co mogłoby być bardziej odległe od bezładności turbulencji? Archimedes miał swoją wannę, a Newton jabłko, Galileusz zaś, zgodnie z podejrzaną raczej legendą — kościelną lampę, huśtającą się tam i z powrotem, wciąż i wciąż wysyłającą monotonnie swoje przesłanie do jego świadomości. Christian Huygens zamienił przewidywalność ruchu wahadła w przyrząd do mierzenia czasu, wysyłając zachodnią cywilizację w drogę, z której nie było powrotu. Foucault w paryskim Panteonie użył dwudziestopiętrowego wahadła do zademonstrowania rotacji Ziemi. Każdy zegar i zegarek ręczny (aż do ery zegarków z drgającym kwarcem) zawierał wahadło różnej wielkości i kształtu. (Pod tym względem drgania kwarcu nie różnią się tak bardzo). W wolnym od tarcia kosmosie ruchami okresowymi poruszają się ciała niebieskie po swych orbitach, ale na Ziemi każda regularna oscylacja pochodzi od jakiegoś kuzyna wahadła. Podstawowe obwody elektroniczne są opisane dokładnie takimi samymi równaniami jak te, które opisują huśtający się odważnik. Oscylacje elektroniczne są milion razy szybsze, ale fizyka jest taka sama. Mimo to w dwudziestym wieku mechanika klasyczna została zepchnięta do szkół i biur projektowych. Wahadła zdobiły muzea nauki i ożywiały sklepy z upominkami na lotniskach w formie rotujących space balls z plastiku. Żaden fizyk się nimi nie zajmował. Jednak wahadło dostarczyło jeszcze kilku niespodzianek. Stało się kamieniem probierczym, jak w rewolucji Galileusza. Kiedy Arystoteles przyglądał się wahadłu, widział ciężar próbujący skierować się do środka Ziemi, ale wahający się gwałtownie w tę i z powrotem, ponieważ był ograniczony przez linkę 16. Dla współczesnych brzmi to niemądrze. Komuś
myślącemu w kategoriach klasycznych koncepcji ruchu, bezwładności i grawitacji trudno ocenić samozgodność światopoglądu, który wynika z Arystotelesowskiego rozumienia wahadła. Ruch fizyczny dla Arystotelesa nie był ilością ani siłą, ale raczej rodzajem zmiany, tak jak rodzajem zmiany jest wzrost człowieka. Spadanie ciężarka jest po prostu poszukiwaniem naturalnego stanu; stanu, który osiągnąłby, gdyby był pozostawiony sam sobie. W tym kontekście pogląd Arystotelesa ma sens. Z drugiej strony, kiedy Galileusz patrzył na wahadło, widział regularność, która mogła być zmierzona. Aby to wyjaśnić, potrzeba było rewolucyjnego sposobu rozumienia obiektów w ruchu. Przewaga Galileusza nad starożytnymi Grekami nie polegała na tym, że miał on lepsze dane. Przeciwnie — jego idea ustalenia okresu wahadła była bardzo prosta: poprosił kilku kolegów, aby wraz z nim policzyli oscylacje w dwudziestoczterogodzinnym okresie. Galileusz widział regularność, ponieważ miał już teorię, która ją przewidywała. Rozumiał to, czego Arystoteles nie mógł pojąć: poruszający się obiekt dąży do zachowania ruchu, a zmiana prędkości albo kierunku wymaga zewnętrznej siły, takiej jak tarcie. W rzeczywistości przez pryzmat swojej teorii widział regularność tam, gdzie jej nie było. Utrzymywał, że wahadło o danej długości nie tylko odmierza dokładnie czas, ale ma ten sam okres niezależnie od tego, jak duży jest kąt kołysania. Wahadło o większym kącie musi przebyć dłuższą drogę, ale porusza się z większą prędkością. Innymi słowy, okres pozostaje niezależny od amplitudy. „Jeśli dwu przyjaciół będzie liczyć oscylacje wahadeł — jeden szerokiego, drugi wąskiego — stwierdzą, że mogą liczyć nie tylko dziesiątki, ale nawet setki oscylacji, przy czym różnica nie sięgnie jednego okresu, a nawet jego części” 17. Galileusz wyraził swój pogląd w kategoriach eksperymentalnych, ale teoria uczyniła go przekonującym — tak bardzo, że wciąż jest nauczany jako ewangelia na lekcjach fizyki w
większości szkół średnich. Ale jest błędny. Regularność, którą widział Galileusz, jest tylko przybliżona. Zmieniający się kąt ruchu wahadła powoduje bowiem pojawienie się niewielkiej nieliniowości w równaniach. W przypadku małych amplitud błąd jest prawie niedostrzegalny. Ale istnieje i jest mierzalny nawet w eksperymencie tak grubym jak opisany przez Galileusza. Małe nieliniowości można było zlekceważyć. Ludzie, którzy przeprowadzali eksperymenty, zrozumieli szybko, że żyją w niezbyt idealnym świecie. W czasach po Galileuszu i Newtonie poszukiwanie regularności w eksperymentach było sprawą fundamentalną. Każdy doświadczalnik szuka liczb, które pozostają takie same, albo takich, które są równe zeru. Ale to oznacza nieuwzględnianie niewielkich niepewności, które interferują z przyjemnym obrazem. Jeśli chemik stwierdzi, że dwie substancje pozostają w stałej proporcji 2,0001 jednego dnia, 2,003 następnego dnia i 1,998 w kolejnym dniu, byłby głupcem, gdyby nie szukał teorii, która wyjaśniłaby proporcję idealnie równą 2:1. Aby otrzymać tak przyjemne wyniki, Galileusz musiał również zignorować nieliniowości, które znał: tarcie i opór powietrza. Opór powietrza jest znaną dokuczliwością eksperymentalną, komplikacją, którą musiał odrzucić, aby dotrzeć do istoty nowej mechaniki. Czy piórko spada tak samo szybko jak kamień? Wszystkie eksperymenty ze spadającymi obiektami mówią — nie. Historia o spadających piłeczkach Galileusza z wieży w Pizie jest mitem, opowiadaniem o wymyślonym idealnym świecie nauki, w którym istnieją regularności oddzielone od nieporządku doświadczanego w rzeczywistości. Oddzielenie siły ciężkości działającej na daną masę od siły oporu powietrza było wspaniałym osiągnięciem intelektualnym. Pozwoliło Galileuszowi zbliżyć się do istoty bezwładności i pędu. Jednak
w rzeczywistym świecie wahadła ostatecznie robią dokładnie to, co przewiduje osobliwy paradygmat Arystotelesa. Zatrzymują się. Wielu fizyków przygotowujących grunt pod nowy zwrot w nauce uważało, że ich niewiedza na temat prostych układów, takich jak wahadło, wynika z niedostatków ich edukacji. W dwudziestym wieku procesy dysypatywne, takie jak tarcie, były znane, a studenci uczyli się je wprowadzać do równań. Podobnie jak uczyli się, że układy nieliniowe są zwykle nierozwiązywalne, co było prawdą, i że na ogół są wyjątkami, co nie było prawdą. Mechanika klasyczna opisała zachowanie się całej klasy poruszających się obiektów, wahadeł i wahadeł podwójnych, sprężyn i zgiętych prętów, rozciąganych i napinanych strun. Matematyka stosowała się do cieczy i do układów elektrycznych. Ale prawie nikt w erze klasycznej fizyki nie podejrzewał, że w układach dynamicznych, jeśli zawierają one nieliniowość, mógł się przyczaić chaos. Fizyk nie był właściwie w stanie rozumieć turbulencji czy złożoności, dopóki nie rozumiał wahadeł — i to nie tak, jak je pojmowano w pierwszej połowie dwudziestego wieku. Kiedy chaos zaczął jednoczyć badania nad różnymi systemami, dynamika wahadeł rozciągnęła się na wysoko rozwinięte technologie od laserów po nadprzewodnikowe złącza Josephsona. Pewne reakcje chemiczne wykazują zachowanie wahadłopodobne, jak na przykład bijące serce. „Niespodziewane możliwości — napisał pewien fizyk 18 — rozciągnęły się na fizjologię i psychiatrię, prognozowanie ekonomiczne, a może nawet na ewolucję społeczeństw”. Rozważmy zachowanie się huśtawki na boisku. Huśtawka przyspiesza, gdy spada w dół, i zwalnia, gdy podnosi się do góry, cały czas tracąc po trochu prędkość z powodu tarcia. Jest ona regularnie popychana — powiedzmy przez urządzenie zegarowe. Nasza intuicja mówi nam, że niezależnie od tego, w którym miejscu zacznie się huśtanie, ruch ostatecznie
przekształci się w regularne kołysanie, przy czym wychylenia będą każdorazowo osiągać tę samą wysokość. Tak może się zdarzyć 19. Jednak, jakkolwiek może się to wydać dziwne, ruch może również stać się bezładny: najpierw wysoko, potem nisko, nigdy nie przechodząc w stan stacjonarny i nigdy nie powtarzając schematu kołysań, który zdarzył się wcześniej 20. Zaskakujące, nierówne zachowanie wynika z nieliniowego skręcenia w strumieniu energii dostarczanej i rozpraszanej przez ten prosty oscylator. Huśtawka jest tłumiona i napędzana: tłumiona, ponieważ tarcie próbuje ją zatrzymać, napędzana, ponieważ otrzymuje okresowe pchnięcia. Nawet kiedy układ tłumiony i napędzany jest w równowadze, huśtawka nie pozostaje w równowadze. Świat jest pełen takich układów, poczynając od pogody tłumionej przez tarcie poruszającego się powietrza i wody oraz przez rozpraszanie ciepła w kosmos i napędzanej przez stały dopływ energii słonecznej. Ale nieprzewidywalność nie była przyczyną tego, że matematycy i fizycy zaczęli w latach sześćdziesiątych i siedemdziesiątych znowu brać wahadła na serio. Nieprzewidywalność tylko przyciągnęła ich uwagę. Takie badania dynamiki układów chaotycznych ujawniły, że nieuporządkowane zachowanie prostych układów działa jak proces twórczy. Generuje złożoność: bogate zorganizowane struktury, czasami stabilne, a czasami niestabilne, czasami skończone, a czasami nie, zawsze mają czar żywych obiektów. To jest powód skłaniający naukowców do zajmowania się tymi sprawami. Jedną taką zabawką, sprzedawaną pod nazwą space balls albo space trapeze, jest para kulek umieszczonych na przeciwnych końcach pręta stanowiącego poprzeczkę litery T na szczycie wahadła, z trzecią cięższą kulką u podstawy. Dolna kulka huśta się tam i z powrotem, podczas gdy górny pręt obraca się swobodnie. Wszystkie kulki mają wewnątrz magnesy i raz wprawione w ruch urządzenie ciągle się porusza, ponieważ ma
wmontowany w podstawę elektromagnes zasilany przez baterie. Elektromagnes odczuwa zbliżanie się dolnej kulki i daje jej mały magnetyczny impuls za każdym razem, gdy przechodzi obok. Czasami aparat wpada w stałe, rytmiczne kołysanie. Ale w innych przypadkach jego ruch pozostaje chaotyczny, ciągle zmieniając się i nieustannie zaskakując obserwatora 21. Innym znanym wahadłem zabawką jest tzw. wahadło sferyczne — wahadło, które swobodnie kołysze się nie w jednym, ale we wszystkich kierunkach. Kilka małych magnesów umieszczonych wokół jego podstawy przyciąga metalowy koniec wahadła i kiedy się ono zatrzymuje, zostaje zawładnięte przez jeden z nich. Zabawa polega na tym, aby zgadnąć, który magnes zwycięży. Nawet z trzema magnesami ułożonymi w trójkąt ruchu wahadła nie można przewidzieć. Będzie się przez chwilę kołysać pomiędzy A i B, potem między B i C, a potem, gdy już ma osiąść na C, przeskakuje do A. Załóżmy, że naukowiec systematycznie bada zachowanie się tej zabawki, sporządzając następującą mapę: wybiera punkt początkowy; ustawia tam koniec wahadła i puszcza; zaznacza ten punkt kolorem czerwonym, niebieskim czy zielonym w zależności od tego, na którym magnesie zatrzyma się koniec wahadła. Jak będzie wyglądać ta mapa? Będzie miała obszary tylko czerwone, niebieskie i zielone, jak można było się spodziewać — regiony, w których koniec dokołysze się pewnie do danego magnesu. Ale mogą również być regiony, gdzie kolory są utkane razem z nieskończoną złożonością. W pobliżu czerwonego punktu, bez względu na to, jak blisko, niezależnie od powiększenia mapy, będzie punkt zielony i niebieski. Z praktycznego punktu widzenia zatem los wahadła będzie niemożliwy do przewidzenia. Tradycyjnie dynamik wierzy, że napisanie równania dla układu wystarczy, by zrozumieć jego działanie. Jak lepiej uchwycić istotne cechy? Dla huśtawki
albo wahadła-zabawki równania wiążą kąt wahadła, jego prędkość, tarcie i siłę napędzającą. Ale z powodu niewielkiej nieliniowości w owych równaniach dynamik będzie bezradny, próbując odpowiedzieć na najprostsze praktyczne pytanie o przyszłość tego systemu. Komputer może rozwiązać problem poprzez symulację, szybko obliczając każdy cykl. Ale z symulacją też są problemy: drobne niedokładności powstające przy każdej operacji gwałtownie narastają, ponieważ jest to układ wrażliwy na warunki początkowe. Wkrótce sygnał znika i jedyne, co pozostaje, to szum. Ale czy faktycznie? Lorenz stwierdził nieprzewidywalność, lecz znalazł także pewną strukturę. Inni również odkrywali strukturę pośród pozornie bezładnego zachowania. Przykład wahadła był na tyle prosty, że można było go zaniedbać, ale ci, którzy nie chcieli tego zrobić, znaleźli w nim prowokacyjne przesłanie. W pewnym sensie uświadomili sobie, że fizyka dokładnie rozumie fundamentalne mechanizmy ruchu wahadła, ale nie mogłaby rozciągnąć tego rozumienia na długie okresy. Mikroskopowe szczegóły były dokładnie znane; makroskopowe zachowanie pozostawało tajemnicą. Tradycja polegająca na tym, aby patrzeć na układy lokalnie — izolując mechanizmy, a następnie dodając je razem — była początkiem końca. Dla wahadeł, dla cieczy, dla obwodów elektronicznych, dla laserów wiedza o fundamentalnych równaniach przestała być prawidłowym rodzajem wiedzy. W latach sześćdziesiątych różni naukowcy niezależnie od siebie dokonali odkryć, które były zgodne z ideami Lorenza, na przykład francuski astronom 22 badający orbity galaktyk i japoński inżynier elektryk 23 modelujący obwody elektroniczne. Ale pierwsza celowa, skoordynowana próba zrozumienia, jak globalne zachowanie może się różnić od lokalnego, pochodzi od matematyków. Był wśród nich Stephen Smale z University of California w Berkeley, znany już wcześniej z wyjaśnienia ezoterycznych
problemów topologii wielowymiarowej. Pewien młody fizyk 24, siląc się na rozmowę, spytał Smale’a, nad czym pracuje. Odpowiedź go oszołomiła: „Nad oscylatorami”. To absurd. Oscylatory — wahadła, sprężyny albo obwody elektryczne — już dawno przestały zajmować fizyków. Były zbyt proste. Dlaczego wielki matematyk studiuje problemy fizyki elementarnej? Aż do niedawna młody fizyk nie wiedział, że Smale przyglądał się oscylatorom nieliniowym, oscylatorom chaotycznym i widział rzeczy, których fizycy nauczyli się nie widzieć. Smale wysunął błędne przypuszczenie 25. W języku najbardziej ścisłej matematyki zaproponował, że praktycznie wszystkie systemy dynamiczne dążą przez prawie cały czas do zachowania, które nie było zbyt dziwne. Jak przekonał się wkrótce, rzecz nie była taka oczywista. Smale był matematykiem, który nie tyle rozwiązywał problemy, ile konstruował programy problemów do rozwiązania dla innych. Wykorzystał swoje rozumienie historii i intuicję do wygłoszenia poglądu, że cały niesprawdzony obszar badań naukowych jest dzisiaj wart czasu matematyka. Jak dobry biznesmen ocenił ryzyko i zimno zaplanował swoją strategię; a miał cechy przywódcze. Gdy Smale prowadził, wielu podążało za nim. Jego dobre imię znane było nie tylko w matematyce. Na początku wojny wietnamskiej on i Jerry Rubin organizowali Międzynarodowy Dzień Protestu i sponsorowali wysiłki zmierzające do zatrzymania pociągów wiozących wojsko przez Kalifornię. W roku 1966, gdy Komisja ds. Badania Działalności Antyamerykańskiej (House Un-American Activities Committee) próbował wezwać go przed swoje oblicze, wybrał się na Międzynarodowy Kongres Matematyków w Moskwie. Tam otrzymał Medal Fieldsa, najwyższe odznaczenie w tej profesji. Scena, jaka rozegrała się w Moskwie tamtego lata, stała się niezapomnianą częścią legendy Smale’a 26. Zebrało się pięć tysięcy agitowanych
i agitujących matematyków. Napięcie polityczne było wysokie. Krążyły petycje. Kiedy konferencja dobiegała końca, Smale w odpowiedzi na prośbę reportera z Wietnamu Północnego zwołał konferencję prasową na szerokich stopniach Uniwersytetu Moskiewskiego. Zaczął od potępienia amerykańskiej interwencji w Wietnamie, a potem, gdy jego gospodarze zaczęli się uśmiechać, potępił sowiecką inwazję na Węgry i brak wolności politycznej w Związku Radzieckim. Gdy skończył, został szybko wepchnięty do samochodu, a następnie przesłuchany przez sowieckich urzędników. Kiedy wrócił do Kalifornii, National Science Foundation wstrzymał poparcie finansowe dla jego badań 27. Medal Fieldsa, który otrzymał Smale, uhonorował jego znane prace z zakresu topologii — gałęzi matematyki, która rozkwitła w dwudziestym wieku, a w latach pięćdziesiątych święciła swoje wielkie dni. Topologia bada właściwości, które pozostają niezmienione, kiedy kształty są deformowane przez skręcanie, rozciąganie albo ściskanie. To, czy figura jest kwadratem, okręgiem, dużym czy małym, nie ma znaczenia dla topologii, ponieważ rozciąganie może zmienić te właściwości. Topologowie pytają, czy figura jest zwarta, czy ma dziury, czy ma węzły. Zajmują się powierzchniami nie w jedno-, dwu- czy trójwymiarowym wszechświecie Euklidesa, ale w przestrzeni o wielu wymiarach, której nie można sobie wyobrazić. Topologia jest geometrią gumowych arkuszy. Bada raczej jakościowo niż ilościowo. Pytaj, jeśli nie umiesz mierzyć, co możesz powiedzieć o całkowitej strukturze. Smale rozwiązał jeden z historycznych, ważnych problemów topologii — domniemanie Poincarégo dotyczące przestrzeni pięcio- i więcejwymiarowych, i w ten sposób zajął poczesne miejsce w gronie największych matematyków. W latach sześćdziesiątych jednak porzucił topologię, przechodząc na niesprawdzone terytorium. Zaczął badanie układów dynamicznych.
W obu dziedzinach — topologii i dynamice systemów — powrócono do koncepcji Henriego Poincarégo, który postrzegał je jako dwie strony medalu. Na przełomie wieku Poincaré był ostatnim wielkim matematykiem, który użył wyobraźni geometrycznej do badania praw ruchu w fizycznym świecie. Był pierwszy, który zrozumiał możliwość istnienia chaosu; w swoich pracach napomykał o pewnym rodzaju nieprzewidywalności prawie tak uporczywej jak odkryta przez Lorenza. Ale po jego śmierci, gdy rozkwitała topologia, dynamika systemów zanikała. Nawet nazwa wyszła z użycia; temat, ku któremu zwrócił się Smale, został nazwany teorią równań różniczkowych. Równania różniczkowe opisują sposób, w jaki układy zmieniają się ciągle w czasie. Tradycją było patrzenie na takie rzeczy lokalnie, co oznaczało, że inżynierowie czy fizycy rozważali jeden zbiór możliwości w określonym czasie. Podobnié jak Poincaré, Smale chciał zrozumieć je globalnie, co oznacza, że pragnął uchwycić naraz całą dziedzinę możliwości. Dowolny zbiór równań opisujący układ dynamiczny — na przykład Lorenza — pozwala, aby pewne parametry zostały ustalone na początku. W przypadku konwekcji termicznych jeden parametr dotyczy lepkości płynu. Wielkie zmiany w parametrach mogą być przyczyną wielkich różnic w układach — jak na przykład między dotarciem do stanu stacjonarnego a oscylacjami periodycznymi. Ale fizycy zakładali, że bardzo małe zmiany będą wywoływały tylko bardzo małe różnice w ilościowym, a nie w jakościowym zachowaniu układu. Wraz z połączeniem topologii i systemów dynamicznych pojawiła się możliwość użycia kształtu do wspomożenia wizualizacji całego zakresu zachowań układu. Dla prostego układu kształt mógłby być pewnym rodzajem zakrzywionej powierzchni, dla skomplikowanego — rozmaitość na wielu wymiarach. Pojedynczy punkt na takiej powierzchni reprezentuje stan
systemu zamrożonego w danej chwili. Gdy układ posuwa się w czasie, punkt porusza się, idąc wzdłuż orbity po tej powierzchni. Niewielka zmiana kształtu, na przykład zmiana lepkości płynu albo większa siła napędzająca wahadło, odpowiada niewielkim zmianom parametrów systemu. Kształty, które z grubsza wyglądają tak samo, dają mniej więcej te same rodzaje zachowań. Jeśli możesz zobrazować kształt, możesz zrozumieć system. Kiedy Smale zwrócił się do systemów dynamicznych, topologia, jak wiele dziedzin matematyki czystej, była uprawiana z jawnym lekceważeniem aplikacji w rzeczywistym świecie. Źródeł topologii należy szukać w fizyce, ale matematycy zapomnieli o tym, a kształt badali dla niego samego. Smale w pełni wierzył w ten etos — był najczystszy z czystych — jednak miał wrażenie, że abstrakcyjny, ezoteryczny rozwój topologii mógłby wnieść teraz pewien wkład do fizyki tak myślał Poincaré na przełomie wieku. Jednym z pierwszych przyczynków Smale’a było jego błędne domniemanie. W kategoriach fizycznych zaproponował prawo przyrody, które mogłoby brzmieć następująco: system może zachowywać się dziwnie, ale dziwne zachowanie nie może być stabilne. Stabilność — „stabilność w sensie Smale’a”, jak ją czasem nazywają matematycy — jest bardzo ważną właściwością. Stabilne zachowanie w układzie to takie, które nie znika tylko z powodu tego, że jakaś liczba została nieznacznie zmieniona. Każdy system może zachowywać się zarówno stabilnie, jak i niestabilnie. Równania rządzące ołówkiem stojącym na końcu zaostrzonego grafitu mają dobre matematyczne rozwiązanie, gdy środek ciężkości znajduje się dokładnie nad ostrym końcem — ale nie możesz postawić na nim ołówka, ponieważ rozwiązanie jest niestabilne. Niewielkie zaburzenie wytrąca system z tego rozwiązania. Z drugiej strony kulka leżąca na dnie czaszy pozostaje tam, ponieważ — jeśli zostanie nieco wytrącona z tego położenia — wraca. Fizycy zakładali, że każde zachowanie, które mogli regularnie obserwować,
musi być stabilne, gdyż w rzeczywistym systemie niepewność i drobne zakłócenia są nie do uniknięcia. Nigdy nie znasz dokładnie parametrów. Jeśli wymaga się, aby model był fizycznie realistyczny i odporny na małe zaburzenia, musi to być z pewnością — zdaniem fizyków — model stabilny. Złe wieści nadeszły pocztą wkrótce po Bożym Narodzeniu 1959 roku, kiedy Smale mieszkał czasowo w Rio de Janeiro z żoną, dwojgiem dzieci i wśród mnóstwa pieluszek. Jego domniemanie zdefiniowało klasę równań różniczkowych, z których wszystkie były strukturalnie stabilne. „Każdy układ chaotyczny — twierdził — może być przybliżony dowolnie dokładnie układem tej klasy”. Tak nie było. List od kolegi 28 informował go, że wiele układów nie zachowywało się tak dobrze, jak to sobie wyobrażał, i zawierał kontrprzykład: układ zarówno z chaosem, jak i stabilnością. Jeśli zakłóciło się go nieco (każdy naturalny system jest w sposób ciągły zakłócany przez szum), dziwność nie znikała. Stabilny i dziwny — Smale studiował list z niedowierzaniem, które powoli topniało 29. Chaos i niestabilność — pojęcia, które dopiero wtedy dojrzały do formalnych definicji — nie były synonimami. Układ chaotyczny mógł być stabilny, jeśli jego szczególny gatunek nieregularności trwał nadal w obliczu małych zakłóceń. Układ Lorenza był tego przykładem, chociaż minęły lata, zanim Smale usłyszał o Lorenzu. Chaos, który odkrył Lorenz, z całą jego nieprzewidywalnością był tak stabilny jak kulka w czaszy. Można dodać szum do układu, wstrząsać nim, poruszać, przeszkadzać w jego ruchu, a potem, gdy wszystko ucichnie, stany przejściowe zanikną jak echo w wąwozie, układ powróci do tego samego szczególnego wzoru nieregularności, który miał poprzednio. Układ był lokalnie nieprzewidywalny, globalnie stabilny. Rzeczywiste układy dynamiczne rozgrywają się według znacznie bardziej skomplikowanych reguł, niż ktokolwiek sobie wyobrażał. Przykład opisany w liście kolegi Smale’a był
innym prostym układem odkrytym jedno pokolenie wcześniej i prawie zapomnianym. Przypadkowo opisywał rodzaj wahadła: drgający obwód elektryczny. Był nieliniowy i z periodyczną siłą wymuszającą, dokładnie jak w przypadku dziecka na huśtawce. Chodziło o lampę próżniową badaną w latach dwudziestych przez duńskiego inżyniera elektryka, Balthasara van der Pola 30. Współczesny student fizyki badałby zachowanie się takiego oscylatora, patrząc na linię kreśloną na ekranie oscyloskopu. Van der Pol nie miał oscyloskopu, więc musiał monitorować swój obwód, słuchając tonów w słuchawce. Cieszył się, że odkrył regularność w zachowaniu obwodu, kiedy zmieniał natężenie prądu, który go zasilał. Tony przeskakiwały od jednej częstotliwości do drugiej, jak gdyby wspinały się po schodach. Jednak od czasu do czasu van der Pol obserwował coś dziwnego. Zachowanie brzmiało nieregularnie, w sposób, którego nie mógł wyjaśnić. Nie widział wszakże powodu do niepokoju: „Często nieregularny szum jest słyszalny w słuchawce telefonicznej, zanim częstotliwość przeskoczy do następnej niższej wartości. Jednak jest to dodatkowe zjawisko”. Van der Pol był jednym z wielu naukowców, którzy przez moment zetknęli się z chaosem, ale nie znali języka, w którym mogliby go zrozumieć. Dla ludzi próbujących zbudować lampę próżniową ważna była synchronizacja częstotliwości. Ale dla ludzi próbujących zrozumieć naturę złożoności prawdziwie interesującym zachowaniem były owe „nieregularne szumy” wytworzone przez sprzeczne szarpnięcia wyższej i niższej częstotliwości. Domniemanie Smale’a, chociaż błędne w swojej istocie, naprowadziło go na trop nowego sposobu pojmowania pełnej złożoności układów dynamicznych. Kilku matematyków inaczej spojrzało na możliwości oscylatora van der Pola, a Smale przeniósł ich pracę do nowej dziedziny. Jego jedynym oscyloskopem był umysł, ale był to umysł ukształtowany przez
lata badań wszechświata topologicznego. Smale wyobrażał sobie cały zakres możliwości oscylatora, całą przestrzeń fazową — jak to nazywają fizycy. Każdy stan układu w danym momencie był reprezentowany przez punkt w przestrzeni fazowej; wszystkie informacje o jego położeniu albo prędkości były zawarte we współrzędnych tego punktu. Kiedy system zmienia się w jakiś sposób, punkt przesuwa się na nowe miejsce w przestrzeni fazowej. Kiedy system zmienia się w sposób ciągły, punkt podąża po trajektorii. Dla prostego układu, takiego jak wahadło, przestrzeń fazowa może być prostokątem: kąt wahadła w danej chwili jest określony przez położenie punktu na linii wschód–zachód, a prędkość wahadła przez położenie na linii północ–południe. Dla wahadła wahającego się regularnie w tę i z powrotem trajektoria w przestrzeni fazowej będzie pętlą, ponieważ system wciąż na nowo przechodzi przez tę samą sekwencję położeń.
IRVING R. EPSTEIN
Tworzenie portretów fazowych. Tradycyjnie szeregi czasowe (wyżej) i trajektorie w przestrzeni fazowej (niżej) są dwoma sposobami przedstawiania tych samych danych i uzyskania obrazu długofalowego zachowania się układu. Pierwszy układ (od lewej) dąży do stanu stacjonarnego — do punktu w przestrzeni fazowej. Drugi powtarza się periodycznie, tworząc cykliczną orbitę. Trzeci powtarza się w bardziej
skomplikowanym rytmie walca, z okresem „na trzy pas”. Czwarty jest chaotyczny.
Smale, zamiast przyglądać się jednej trajektorii, skoncentrował się na zachowaniu całej przestrzeni w sytuacji, gdy system się zmienia — na przykład, gdy zwiększa się energia. Intuicja pomogła mu błyskawicznie przeskoczyć z istoty fizycznej układu do nowego rodzaju istoty geometrycznej. Jego narzędziami były transformacje topologiczne kształtu w przestrzeni fazowej — transformacje, takie jak rozciąganie i ściskanie. Czasami te transformacje miały klarowny sens fizyczny. Dysypacja w układzie, utrata energii z powodu tarcia oznaczały, że kształt układu w przestrzeni fazowej kurczył się jak balon tracący powietrze — ostatecznie zbiegając się do punktu w momencie, w którym układ zatrzymuje się całkowicie. Smale uświadomił sobie, że aby móc opisać pełną złożoność oscylatora van der Pola, przestrzeń fazowa musi przejść nowy skomplikowany rodzaj transformacji. Szybko przekształcił swoją ideę wizualizacji globalnego zachowania w model nowego rodzaju. Jego innowacją było wprowadzenie struktury znanej jako podkowa.
H. BRUCE STEWART, J.M. THOMPSON Podkowa Smale’a. Ta topologiczna transformacja dostarcza podstawy do zrozumienia właściwości chaotycznych
układów dynamicznych. Zasada jest prosta: przestrzeń jest rozciągana w jednym kierunku, ściskana w drugim, a potem wygięta. Kiedy proces jest powtarzany, tworzy się struktura znana każdemu, kto wałkował wielowarstwowe ciasto francuskie. Para punktów, która na końcu znajduje się blisko siebie, na początku mogła być w dużej odległości.
Aby wykonać prostą wersję podkowy Smale’a, weź kwadrat i ściśnij go tak, żeby przekształcił się w poziomy pręt. Weź jeden koniec pręta, wygnij go tak, żeby utworzyć podkowę o kształcie litery C. Potem wyobraź sobie, że podkowa została wmontowana w nowy prostokąt, i powtórz tę samą transformację, ściskając i zginając 31. Proces ten naśladuje pracę maszyny do wyrabiania cukierków toffi, z obracającymi się ramionami, które ściskają toffi, podwajają je, ściskają znowu i tak dalej, aż powierzchnia cukierka staje się bardzo długa i cienka, i w skomplikowany sposób wbudowana sama w siebie 32. Smale poddał swoją podkowę przekształceniom topologicznym i w wyniku tego otrzymał przyjemny i obrazowy odpowiednik wrażliwości na warunki początkowe. Wrażliwość tę Lorenz odkrył w atmosferze kilka lat wcześniej. Kiedy weźmiesz dwa znajdujące się blisko siebie punkty w oryginalnej przestrzeni, nie zgadniesz, gdzie będą na końcu. Będą doprowadzone dowolnie daleko od siebie tylko przez składanie i rozciąganie. Na końcu dwa punkty, które leżały blisko siebie, będą leżały dowolnie daleko od siebie. Pierwotnie Smale miał nadzieję, że wyjaśni wszystkie układy dynamiczne w kategoriach ściskania i rozciągania — bez zginania, przynajmniej bez takiego, które drastycznie podkopywałoby stabilność układu. Ale zginanie okazało się konieczne i uwidoczniło ostre zmiany w zachowaniu systemu 33. Podkowa Smale’a stała się pierwszym z wielu nowych kształtów geometrycznych, które dały matematykom i fizykom sposób nowego intuicyjnego pojmowania zachowania się układów dynamicznych.
W pewnym sensie była ona zbyt sztuczna, aby mogła być użyteczna: wciąż zbyt wiele topologii, aby mogło się to podobać fizykom. Ale posłużyła jako punkt wyjściowy. W latach sześćdziesiątych Smale zgromadził wokół siebie w Berkeley grupę młodych matematyków, którzy dzielili jego entuzjazm do nowej pracy nad układami dynamicznymi. Jednak jeszcze jedna dekada minęła, zanim ich praca w pełni przyciągnęła uwagę przedstawicieli mniej „czystej” nauki, ale kiedy się to stało, fizycy uświadomili sobie, że Smale skierował całą gałąź matematyki z powrotem w kierunku realnego świata. W związku z tym uznali, że był to „złoty wiek” 34. „Jest to zmiana paradygmatu wśród zmian paradygmatów” — powiedział Ralph Abraham, kolega Smale’a, który został profesorem matematyki w University of California w Santa Cruz 35. „Kiedy zacząłem profesjonalnie zajmować się matematyką w 1960 roku, a nie było to wcale tak dawno, współczesna matematyka w całości była odrzucana przez fizyków, w tym również przez najbardziej awangardowych fizyków matematycznych. Więc dynamika różniczkowalna, analiza globalna, rozmaitości odwzorowań, geometria różniczkowa — wszystko to, co zostało stworzone tylko rok lub dwa lata po Einsteinie, było odrzucane. Romans między matematyką i fizyką skończył się w latach trzydziestych rozwodem. Reprezentanci obu nauk już ze sobą nie rozmawiali. Po prostu gardzili sobą wzajemnie. Fizycy matematyczni nie pozwalali swoim doktorantom uczyć się matematyki u matematyków: »Bierz matematykę od nas. Nauczymy cię tego, co powinieneś wiedzieć. Matematycy są w pewnego rodzaju strasznej samotnej podróży i zniszczą twój umysł«. To był rok 1960. W roku 1968 wszystko zmieniło się diametralnie. Ostatecznie fizycy, astronomowie i biologowie wiedzieli, że muszą mieć nowości”. *
Mała kosmiczna tajemnica 36: tzw. Wielka Czerwona Plama na powierzchni Jowisza, potężny, wirujący owal, jak wielki sztorm, który nigdy nie przesuwa się i nigdy się nie kończy. Każdy, kto widział zdjęcia przesłane przez Voyagera 2 w 1978 roku, rozpoznał bez trudu znany widok turbulencji na ogromną, nieznaną skalę. Jest to jeden z najbardziej czcigodnych znaków rozpoznawczych Układu Słonecznego: „czerwona plama grzmiąca jak umęczone oko wśród turbulencji gotujących się brwi” — jak to opisał John Updike 37. Ale co to jest? W dwadzieścia lat po Lorenzu, Smale i inni naukowcy dali początek nowemu sposobowi rozumienia ruchów cieczy, który dowodził, że pogoda na Jowiszu jest jednym z wielu problemów oczekujących na inne podejście wynikające z teorii chaosu. Przez trzy wieki było zasadą, że im więcej wiesz, tym mniej wiesz. Astronomowie zauważyli skazę na wielkiej planecie niedługo po tym, jak Galileusz po raz pierwszy skierował swój teleskop na Jowisza. Robert Hooke widział ją w roku 1600. Donati Creti namalował ją w watykańskiej galerii obrazów. Jako kolorowa kropka, plama nie wymagała pilnego wyjaśnienia. Ale teleskopy stały się lepsze i wiedza zrodziła ignorancję. W poprzednim wieku wyprodukowano cały zestaw teorii, każda z nich deptała po piętach poprzedniej. Teoria płynącej lawy. Naukowcy na końcu dziewiętnastego stulecia wyobrażali sobie, że jest to potężne owalne jezioro ciekłej lawy wypływającej z wulkanu. Albo może jest to lawa, która wydostała się z krateru powstałego po uderzeniu planetoidy w cienką, litą skorupę Jowisza. Teoria nowego księżyca. Niemiecki naukowiec sugerował z kolei, że plama jest nowym księżycem wyłaniającym się z powierzchni planety. Teoria jajka. Niewygodny nowy fakt: zauważono, że plama nieznacznie dryfuje na tle planety. Więc w roku 1939 przedstawiono pogląd, że plama jest mniej lub bardziej litym ciałem pływającym w atmosferze jak jajko
w wodzie. Odmiany tej teorii — w tym teoria dryfującej bańki wodoru i tlenu — pozostawały aktualne przez dziesiątki lat. Teoria kolumny gazowej. Inny nowy fakt: mimo że plama dryfowała, nigdy nie odpływała daleko. Naukowcy proponowali więc w latach sześćdziesiątych, że plama jest szczytem unoszącej się kolumny gazu wydobywającego się prawdopodobnie z krateru. Potem nadeszła era Voyagerów. Większość astronomów myślała, że tajemnica zostanie odsłonięta, skoro tylko będą mogli spojrzeć na plamę z małej odległości. I rzeczywiście, dzięki Voyagerowi naukowcy otrzymali wspaniały album nowych danych, ale to nie wystarczyło. Zdjęcia ze statku kosmicznego z roku 1978 ujawniły potężne wiatry i kolorowe wiry. Astronomowie ujrzeli plamę z niezwykłą szczegółowością: huraganopodobny układ wirujących strumieni odsuwający na bok chmury, wbudowany w strefy wiatrów wschodnio-zachodnich, które tworzą poziome pasy wokół planety. Huragan to najlepsze określenie, ale z wielu względów nieadekwatne. Ziemskie huragany są zasilane przez ciepło uwolnione podczas przechodzenia pary wodnej w deszcz; żadne wilgotnościowe procesy nie zachodzą w Wielkiej Czerwonej Plamie. Huragany rotują tak jak cyklony: przeciwnie do wskazówek zegara powyżej równika i zgodnie ze wskazówkami poniżej. Podobnie zachowują się wszystkie sztormy na Ziemi. Rotacja czerwonej plamy jest antycyklonowa. I co ważniejsze — huragany zanikają w ciągu kilkunastu dni. Kiedy astronomowie badali zdjęcia z Voyagera, stwierdzili również, że planeta jest faktycznie wirującą cieczą. Byli przygotowani na to, że zobaczą litą planetę otoczoną przez cienką jak papier atmosferę, tymczasem jeśli Jowisz ma gdziekolwiek lite jądro, to bardzo daleko od powierzchni. Planeta nagle zaczęła wyglądać jak jeden wielki eksperyment z zakresu dynamiki płynów, a wewnątrz niego była czerwona plama wciąż obracająca się,
zupełnie niezakłócana przez chaos panujący wokół niej. Plama mogłaby być argumentem potwierdzającym gestaltyzm: naukowcy widzieli to, co im intuicja pozwoliła zobaczyć. Ci, którzy zajmowali się dynamiką płynów i którzy myśleli o turbulencjach jako o procesach przypadkowych i szumach, nie mieli podstaw do zrozumienia stabilnej wyspy w środku Jowisza. Zdjęcia z Voyagera spowodowały, że tajemnica stała się w dwójnasób irytująca, pokazując mikroskopowe cechy przepływu, zbyt małe, aby mogły być widoczne przez większość najsilniejszych teleskopów zbudowanych na Ziemi 38. W skali mikroskopowej widoczna była gwałtowna dezorganizacja — wiry pojawiające się i znikające w ciągu niespełna jednego dnia. Jednak plama była na nie odporna. Co utrzymywało jej ruch? Co trzymało ją w miejscu? NASA przechowuje swoje fotografie w archiwach rozsianych po całych Stanach. Jedno takie archiwum znajduje się w Cornell University. W pobliżu we wczesnych latach osiemdziesiątych miał swój pokój pracy młody astronom i matematyk, Philip Marcus. Po locie Voyagera Marcus był jednym z garstki naukowców w Stanach Zjednoczonych i Wielkiej Brytanii, którzy szukali modelu czerwonej plamy. Uwolniwszy się spod wpływu teorii huraganu, znaleźli gdzie indziej bardziej właściwą analogię. Prąd Zatokowy, na przykład, przepływający przez zachodni Ocean Atlantycki, obracający się i rozwidlający w subtelny sposób, rozwija niewiele fal, które przechodzą w zawirowania, te z kolei przechodzą w pierścienie i wymykają się z głównego prądu, tworząc powolne, długotrwałe wiry antycyklonowe. Inna paralela pochodzi ze szczególnego zjawiska meteorologicznego, znanego jako blokowanie. Czasami układ wysokiego ciśnienia wisi tygodniami albo miesiącami nad oceanem, powoli obracając się i lekceważąc zwykły strumień powietrza ze wschodu na zachód. Blokowanie niszczy modele globalnych prognoz, ale daje też meteorologom pewną nadzieję, ponieważ produkuje
uporządkowane cechy o niezwykłej długotrwałości. Marcus godzinami studiował zdjęcia z NASA: wspaniałe zdjęcia Hasselblada ludzi na Księżycu i zdjęcia turbulencji na Jowiszu. Ponieważ prawa Newtona stosują się wszędzie, Marcus wprowadził do swojego komputera układ równań opisujący dynamikę płynów. Opis pogody na Jowiszu wymagał, aby napisać równania dla masy gęstego wodoru i tlenu jak na niezapalonej gwieździe. Planeta obraca się szybko: jeden raz w ciągu dziesięciu godzin. Obrót powoduje powstanie dużej siły Coriolisa, która popycha osobę poruszającą się w poprzek karuzeli, a siła Coriolisa utrzymuje ruch plamy. Gdy Lorenz musiał drukować prymitywne linie obrazujące zachowanie jego minimodelu pogody na Ziemi na rolce papieru z komputera, Marcus dysponował daleko potężniejszym komputerem pozwalającym zmontować wspaniałe kolorowe obrazy. Najpierw wykonał wykresy konturowe. Z trudem mógł dociec, co się dzieje. Potem wykonał przezrocza, a następnie zmontował zdjęcia w film animowany. To była rewelacja. W kolorach niebieskim, czerwonym i żółtym szachownicowy wzór rotującego wiru wlewał się w owal z tajemniczym podobieństwem do Wielkiej Czerwonej Plamy z filmu animowanego sporządzonego przez NASA. „Widzisz tę plamę w wielkiej skali szczęśliwą jak dziecko, zanurzoną w chaotycznym strumieniu w małej skali, która wchłania energię jak gąbka — powiedział. — Widzisz te drobne włókniste struktury w tle morza chaosu” 39. Plama jest układem samoorganizującym się, utworzonym i regulowanym przez te same nieliniowe ruchy obrotowe, które tworzą nieprzewidywalny zamęt wokół niej. To jest stabilny chaos. Jako student Marcus uczył się standardowej fizyki, rozwiązując równania liniowe, wykonując eksperymenty tak skonstruowane, aby pasowały do liniowej analizy. To była bezpieczna egzystencja, ale przecież równania
nieliniowe opierają się rozwiązaniom, więc dlaczego marnować czas studenta? Zadowolenie było wprogramowane w jego studia. Dopóki trzymał eksperymenty w określonych ryzach, liniowe przybliżenie wystarczało i był nagradzany wynikiem, którego się spodziewał. Kiedyś nieuchronnie realny świat da o sobie znać i Marcus zobaczy to, co — jak sobie uświadomił znacznie później — było oznaką chaosu. Zatrzyma się i powie: „Rety, co jest z tym małym kłaczkiem tutaj?”. I odpowiedzą mu: „Och, to jest błąd eksperymentalny, nie martw się tym” 40. Ale odmiennie niż inni fizycy, Marcus ostatecznie nauczył się lekcji Lorenza, że układ deterministyczny może produkować coś więcej niż tylko zachowania okresowe. Wiedział, że trzeba szukać w szalonym nieładzie i że w takim nieładzie mogą się pojawić wyspy mające strukturę. Tak doszedł do problemu Wielkiej Czerwonej Plamy, do zrozumienia, że złożony układ może dać początek równocześnie turbulencji i spójności. Mógł pracować w ramach rodzącej się dyscypliny, która tworzyła powoli swoją własną tradycję użytkowania komputera jako przyrządu laboratoryjnego. I chętnie myślał o sobie jako o nowym rodzaju naukowca: nie astronomie, nie dynamiku cieczy, nie matematyku, ale specjaliście od chaosu.
1
Pogląd na rewolucję naukową Kuhna został poddany drobiazgowej analizie i szerokiej dyskusji w ciągu dwudziestu pięciu lat, które upłynęły od chwili jego prezentacji. Nastąpiło to mniej więcej w tym samym okresie, kiedy Lorenz programował swój komputer, aby modelować pogodę. Jeśli chodzi o poglądy Kuhna, opierałem się przede wszystkim na książce The Structure of Scientific Revolutions, University of Chicago Press, Chicago 1970, i oprócz tego na pracach The Essential Tension: Selected Studies in Scientific Tradition and Change, University of Chicago, Chicago 1977; What Are Scientific Revolutions? Center for Cognitive Science, Massachusetts Institute of Technology, praca nr 18; oraz na wywiadzie z Kuhnem. Inną użyteczną i ważną analizą tematu jest książka I. Bernarda Cohena, Revolution in Science, Belknap Press, Cambridge Mass. 1985. 2 T.S. Kuhn, Structure, s. 62-65, cyt. za: J.S. Bruner, Leo Postman, On the Perception of
Incongruity: A Paradigm, „Journal of Personality”, 1949 XVIII, s. 206. 3 T.S. Kuhn, Structure, s. 24. 4 Tenże, The Essential Tension, s. 229. 5 Tenże, Structure, s. 13-15. 6 Tenże, Tension, s. 234. 7 P. Cvitanović. 8 Wywiad z Fordem oraz Chaos: Solving the Unsolvable, Predicting the Unpredictable, w: Chaotic Dynamics and Fractals, red. M.F. Barnsley, S.G. Demko, Academic Press, New York 1985. 9 Ale Michael Berry zauważa, że w Oxford English Dictionary można znaleźć następujące hasło: „Chaologia (rzadko) »historia albo opis chaosu«” (M. Berry, The Unpredictable Bouncing Rotator: A Chaology Tutorial Machine, preprint, H.H. Wills Physics Laboratory, Bristol). 10 P.H. Richter. 11 J. Crutchfield, M. Nauenberg, J. Rudnick, Scaling for External Noise at the Onset of Chaos, „Physical Review Letters” 1981, 46, s. 933. 12 Alan Wolf, Simplicity and Universality in the Transition to Chaos, „Nature” 1983, 305, s. 182. 13 T.S. Kuhn,What Are Scientific Revolutions? Tenże, s. 23. 14 T.S. Kuhn, Structure, s. 111. 15 J.A. Yorke i inni. 16 T.S. Kuhn,What Are Scientific Revolutions? s. 2-10. 17 Galileusz, Opere, VIII: 277; również VIII: 129-130. 18 David Tritton, Chaos in the Swing of a Pendulum, „New Scientist”, 24 July 1986, s. 37. Jest to przystępnie napisany, nietechniczny esej na temat filozoficznych implikacji chaosu. 19 W praktyce ktoś popychający huśtawkę może zawsze wywołać mniej lub bardziej regularny ruch, prawdopodobnie poprzez nieświadome zastosowanie swojego własnego nieliniowego mechanizmu sprzężenia zwrotnego. 20 Wśród wielu analiz możliwych komplikacji ruchu prostego wahadła wymuszonego dobrą pozycję stanowi praca: D. D’Humieres, M.R. Beasley, B.A. Huberman A. Libchaber, Chaotic States and Routes to Chaos in the Forced Pendulum, „Physical Review” 1982, A 26, s. 3483-3496. 21 Michael Berry badał fizykę tej zabawki zarówno eksperymentalnie, jak i teoretycznie. W pracy The Unpredictable Bouncing Rotator opisał wiele zachowań tego wahadła, które dadzą się zrozumieć tylko w języku teorii chaosu: „Torusy KAM, bifurkacja orbit okresowych, chaos hamiltonowski, punkty stałe i dziwne atraktory”.
22
M. Hénon. Y. Ueda. 24 R. Fox. 25 S. Smale, J.A. Yorke, J. Guckenheimer, R.H. Abraham, R.M. May, M.J. Feigenbaum; krótkim i trochę anegdotycznym przyczynkiem do zrozumienia sposobu myślenia Smale’a w tym okresie jest jego praca On How I Got Started in Dynamical Systems, w: The Mathematics of Time: Essays on Dynamical Systems, Economic Processes, and Related Topics, Springer Verlag, New York 1980, s. 147-151. 26 Raymond H. Anderson, Moscow Silences a Critical American, „The New York Times”, 27 August 1966, s. 1; S. Smale, On the Steps of Moscow University, „The Mathematical Intelligencer” 1984, 6:2, s. 21-27. 27 S. Smale. 28 Tym kolegą był N. Levinson. Zbiegło się tutaj kilka wątków w obrębie matematyki sięgających wstecz aż do Poincarégo. Jednym z nich była praca G. Birkhoffa. W Anglii Mary Lucy Cartwright i J.E. Littlewood tropili ślady ukazane przez Balthasara van der Pola w oscylatorach chaotycznych. Matematycy ci byli świadomi możliwości chaosu w prostych układach, ale Smale, jak większość dobrze wykształconych matematyków, nie znał ich prac, dopóki nie otrzymał listu od Levinsona. 29 G. Smale, On How I Got Started. 30 Van der Pol opublikował swoje badania w „Nature” 1927, 120, s. 363-364. 31 Definitywne przedstawienie tego zagadnienia Smale zawarł w pracy Differentiable Dynamical Systems, „Bulletin of the American Mathematical Society” 1967, s. 747-817 (oraz w The Mathematics of Time, s. 1-82). 32 O. Rössler. 33 J.A. Yorke. 34 J. Guckenheimer, R.H. Abraham. 35 R.H. Abraham. 36 P. Marcus, A.P. Ingersoll, G.P. Williams; Philip S. Marcus Coherent Vortical Features in a Turbulent Two-Dimensional Flow and the Great Red Spot of Jupiter, 110th Meeting of the Acoustical Society of America, Nashville, Tennessee, 5 November 1985. 37 John Updike, The Moons of Jupiter. Facing Nature, Knopf, New York 1985, s. 74. 38 Andrew P. Ingersoll, Order from Chaos: The Atmospheres of Jupiter and Saturn, „Planetary Report”, 4:3, s. 8-11. 39 P. Marcus. 40 P. Marcus 23
Życie na huśtawce Wyniki postępu w matematyce powinny być nieustannie konfrontowane z intuicją odnośnie do tego, co konstytuuje rozsądne zachowanie biologiczne. Kiedy taka konfrontacja ujawnia sprzeczność, muszą być rozważone następujące możliwości: a) zrobiono błąd rozwoju formalizmu matematyki; b) wyjściowe założenia są niewłaściwe i/lub stanowią zbyt drastyczne uproszczenie; c) intuicja badawcza odnośnie do biologii rozwinęła się niewłaściwie; d) zostało odkryte nowe prawo przyrody. Harvey J. Gold, Mathematical Modeling of Biological Systems
Żarłoczna ryba 1 i smakowity plankton. Wilgotne lasy pełne nieznanych gadów, ptaków szybujących ponad sklepieniem z liści, owadów buczących jak elektrony w akceleratorze. Strefy mrozu, gdzie myszy polne i lemingi rozwijają się i zanikają w ściśle czteroletnich okresach w obliczu krwawej walki zachodzącej w przyrodzie. Świat jest kłopotliwym laboratorium dla ekologów: kotłem zawierającym pięć milionów współżyjących gatunków 2. A może pięćdziesiąt milionów? Ekologowie nie wiedzą dokładnie. Biologowie dwudziestego wieku, o skłonościach matematycznych, stworzyli dziedzinę nauki — ekologię, która odarła świat z kolorowej różnorodności i traktuje populacje jako układy dynamiczne. Ekologowie użyli elementarnych narzędzi fizyki matematycznej do opisania odpływów i przypływów życia. Pojedyncze gatunki, mnożące się w miejscach, gdzie
zasoby pożywienia są ograniczone, kilka gatunków współzawodniczących o przetrwanie, epidemie rozszerzające się w populacjach — wszystko to może być wyizolowane, jeśli nie w laboratoriach, to na pewno w umysłach biologów teoretyków. W latach siedemdziesiątych ekologowie odegrali specjalną rolę w wyłanianiu się chaosu jako nowej nauki. Używali oni modeli matematycznych, ale zawsze wiedzieli, że były one nieprzekonywającymi przybliżeniami kipiącego bogactwem realnego świata. W sposób perwersyjny świadomość ograniczeń pozwoliła im dostrzec wagę pewnych idei, które matematycy uważali za interesujące osobliwości. Jeśli regularne równania prowadzą do nieregularnych zachowań, to dla ekologa fakt ten jest sygnałem alarmowym. Równania używane w biologii populacji były elementarnymi odpowiednikami modeli stosowanych przez fizyków do opisywania obszarów wszechświata. Jednak złożoność rzeczywistych zjawisk badanych w nauce o życiu dystansuje wszystko, co można znaleźć w laboratoriach fizycznych. Matematyczne modele w biologii wyglądają jak karykatury rzeczywistości 3, podobnie jak modele w ekonomii, demografii, psychologii i urbanistyce, gdzie te słabe nauki próbują wprowadzić matematyczną ścisłość do badań systemów zmieniających się w czasie. Różne są standardy. Dla fizyka układ równań taki jak Lorenza był tak prosty, że wydawał się przejrzysty. Dla biologa nawet równania Lorenza wydawały się odpychająco złożone — trójwymiarowe, o ciągłych zmiennych i matematycznie nierozwiązywalne. Konieczność stworzyła inny styl pracy biologów. Dopasowanie matematycznego opisu do realnych układów musiało postępować w innym kierunku niż w przypadku fizyki. Fizyk patrzący na konkretny układ (powiedzmy — dwa wahadła połączone sprężyną) zaczyna od wybrania właściwych równań. Najchętniej szuka ich w jakimś podręczniku; jeśli mu
się to nie uda, wyprowadza odpowiednie równania z praw podstawowych. Wie, jak działa wahadło, i wie, jak działa sprężyna. Potem rozwiązuje równania, jeśli umie. Biolog, przeciwnie, nigdy nie może po prostu wydedukować właściwych równań, rozważając jedynie szczególną populację zwierząt. Musi zgromadzić dane i próbować znaleźć równania, które generują podobne rezultaty. Co się stanie, jeśli wpuści się tysiąc ryb do stawu z ograniczoną ilością pokarmu? Co się stanie, jeśli dodasz pięćdziesiąt rekinów, które zwykły jadać dwie ryby dziennie? Co się stanie z wirusem, który zabija z pewną szybkością i rozprzestrzenia się z pewną szybkością zależną od gęstości populacji? Naukowcy uprościli te problemy tak, że mogli zastosować zręczne równania. To często okazywało się przydatne. Biologia populacji dowiedziała się czegoś o historii życia: jak drapieżniki oddziałują na liczebność swoich ofiar, jak zmiana gęstości populacji wpływa na rozprzestrzenianie się chorób. Jeśli pewna wielkość w matematycznym modelu nagle narastała albo dochodziła do równowagi, albo zanikała, ekologowie mogli dowiedzieć się czegoś o okolicznościach, w których realna populacja albo epidemia będzie zachowywać się podobnie. Jednym pomocnym uproszczeniem było modelowanie świata w kategoriach dyskretnych odcinków czasowych, zjawiska podobnego do ruchu wskazówki zegarka ręcznego, która skacze naprzód sekunda po sekundzie, zamiast sunąć w sposób ciągły. Równania różniczkowe opisują procesy, które zmieniają się gładko w czasie, ale trudno je rozwiązywać. Prostsze równania — tzw. równania różnicowe — mogą być stosowane dla procesów, które skaczą ze stanu do stanu. Na szczęście w wielu populacjach zwierzęta czynią to, co mają do uczynienia w przyjemnych jednorocznych interwałach. Zmiany roczne często są ważniejsze niż zmiany ciągłe. Owady, na przykład, inaczej niż ludzie, są przypisane do jednego sezonu
rozrodczego, tak że pokolenia się nie nakładają. Aby ustalić populację brudnicy nieparki następnego lata albo podać jak duża będzie zimowa epidemia odry, ekolog musiałby tylko znać odpowiednią liczbę dla tego roku. Roczne faksymile dają nie więcej niż cień zawiłości zachowania się systemu, ale w wielu realnych zastosowaniach ten cień udziela wszystkich informacji, których potrzebują naukowcy. Matematyka w ekologii ma się do matematyki Steve’a Smale’a jak dekalog do Talmudu: jest to dobry zbiór użytecznych reguł, ale nie jest zbyt skomplikowany. Aby opisać coroczne zmiany wielkości populacji, biolog używa formalizmu, który może zrozumieć uczeń szkoły średniej. Załóżmy, że następnego roku populacja brudnicy nieparki będzie zależeć całkowicie od populacji tegorocznej. Można sobie wyobrazić tabelę podającą wszystkie specyficzne możliwości: 31 000 brudnic tego roku oznacza 35 000 następnego itd. Albo możesz ustalić relację między wszystkimi liczbami dla bieżącego roku i wszystkimi liczbami dla następnego jako regułę — funkcję. Wielkość populacji (x) następnego roku jest funkcją (F) wielkości populacji w tym roku: x nast. = F(x). Każda szczególna funkcja może być wykreślona od razu i z kształtu wykresu można natychmiast odczytać jej sens. W prostym modelu jak ten ewolucja populacji w czasie jest sprawą liczby początkowej i stosowania „w koło” tej samej funkcji. Aby otrzymać populację w trzecim roku, trzeba zastosować funkcję do wyników drugiego roku i tak dalej. Cała historia populacji staje się dostępna przez ten proces iteracyjny — pętle sprzężenia zwrotnego, w którym wynik dla danego roku stanowi daną początkową dla następnego. Sprzężenie zwrotne może wymknąć się spod kontroli, jak w przypadku dźwięku z głośnika podłączonego do mikrofonu i natychmiast wzmocnionego do nieznośnego pisku. Albo może produkować ono stabilność jak w przypadku termostatu regulatora temperatury w domu: podniesienie się temperatury powyżej
ustalonego punktu powoduje rozpoczęcie chłodzenia, a gdy temperatura spadnie poniżej tego punktu, zaczyna się ogrzewanie. Możliwych jest wiele typów funkcji. Naiwnym podejściem w biologii populacji mogłoby być sugerowanie funkcji, która powiększa populację każdego roku o pewien stały procent. Byłaby to funkcja liniowa x nast. = rx i byłby to klasyczny maltuzjański schemat wzrostu populacji nieograniczonej przez zasoby żywnościowe ani zasady moralne. Parametr r reprezentuje szybkość wzrostu populacji. Powiedzmy, wynosi on 1,1; zatem jeśli w tym roku populacja liczy sobie 10 osobników, w następnym roku będzie ich 11. Jeśli „na wejściu” jest 20 000 osobników, na wyjściu mamy 22 000. Populacja jest coraz większa jak kwota pieniędzy pozostawionych na zawsze na koncie ze stałym oprocentowaniem. Wiele lat temu ekologowie uświadomili sobie, że mogliby to robić lepiej. Ekolog wyobrażający sobie rzeczywistą rybę w rzeczywistym stawie musiał znaleźć funkcję, która pasowałaby do surowej rzeczywistości życia, na przykład powinna brać pod uwagę głód i współzawodnictwo. Kiedy ryby rozmnażają się, zaczyna brakować pożywienia. Mała populacja ryb będzie narastała gwałtownie. Zbyt wielka populacja będzie się kurczyć. Albo weźmy chrząszcze japońskie. Każdego roku pierwszego sierpnia idziesz do ogrodu i liczysz je. Dla uproszczenia nie dbasz o ptaki, choroby chrząszczy i rozważasz tylko stałą ilość pożywienia. Kilka chrząszczy zacznie się gwałtownie mnożyć; wiele zje cały ogród i zacznie głodować. W maltuzjańskim scenariuszu nieograniczonego wzrostu funkcja liniowego wzrostu prowadzi do nieskończonego powiększania się populacji. W bardziej realistycznym scenariuszu ekolog potrzebuje równań z pewnym dodatkowym członem, który ograniczy wzrost, kiedy populacja staje się zbyt duża. Najbardziej realistyczna funkcja powinna rosnąć stromo, gdy populacja jest mała, redukować swój wzrost do zera dla pośrednich wartości
i gwałtownie spadać, kiedy populacja jest bardzo duża. Dzięki powtarzaniu tych obliczeń ekolog może obserwować długoterminowe kształtowanie się wielkości populacji, która prawdopodobnie osiągnie jakiś stan stacjonarny. Udany wypad ekologa w dziedzinę matematyki mógłby go skłonić do wypowiedzenia następującej sentencji: Tutaj jest równanie; tutaj jest zmienna reprezentująca szybkość reprodukcji; tutaj jest zmienna reprezentująca szybkość naturalnego wymierania; tutaj jest zmienna reprezentująca wymieranie z powodu głodu i drapieżników; i spójrz — populacja będzie narastała z tą prędkością, aż osiągnie ten oto poziom równowagi. Jak znaleźć taką funkcję? Wiele różnych równań będzie spełniać te wymagania, ale stosunkowo najprostszym jest modyfikacja funkcji liniowej, maltuzjańskiej wersji: x nast. = rx (1 – x). Znowu parametr r reprezentuje szybkość wzrostu, która może ulegać zmianie. Nowy wyraz, 1 – x, jest odpowiedzialny za utrzymywanie populacji wewnątrz granic, ponieważ gdy x rośnie, 1 – x maleje 4. Każdy, kto posiada kalkulator może wprowadzić pewną początkową wielkość populacji, szybkość wzrostu i wykonać obliczenia, aby wyprowadzić wielkość populacji w następnych latach.
ADOLPH E. BROTMAN
Populacja osiąga równowagę po okresie wzrostu i kilku okresach przerostu oraz spadku.
W latach pięćdziesiątych 5 kilku ekologów badało zachowanie się tego szczególnego równania, znanego pod nazwą logistycznego równania różnicowego. Na przykład w Australii W.E. Ricker rzeczywiście zastosował je do hodowli ryb. Ekologowie rozumieli, że parametr szybkości wzrostu r reprezentuje ważną cechę modelu. W układach fizycznych, od których równanie to zostało zapożyczone, parametr ten odpowiada ilości ciepła, ilości tarcia albo ilości jakiejś innej kłopotliwej wielkości. Krótko mówiąc — ilości nieliniowości. W stawie może określać płodność ryb, skłonność populacji nie tylko do rozwoju, ale również do upadku (bardziej dostojny termin na określenie tego parametru brzmi: potencjał biotyczny). Wpływ różnych parametrów na końcowy stan populacji okazał się problemem. Oczywistą odpowiedzią jest stwierdzenie, że niższa wartość parametru będzie powodowała, iż ta wyidealizowana populacja poprzestanie na niższym
poziomie. Wyższa wartość parametru będzie prowadziła do wyższego stanu stacjonarnego. Okazało się to prawdziwe dla wielu parametrów — ale nie dla wszystkich. Czasami badacze, tacy jak Ricker, zapewne próbowali sięgać do jeszcze wyższych parametrów i kiedy to czynili, musiał pojawiać się chaos. Co ciekawe, strumień liczb zaczyna zachowywać się dziwnie, bardzo dokuczliwie dla kogoś, kto liczy za pomocą maszyny z korbką. Liczby jednak nie rosną oczywiście w nieskończoność, ale nie są zbieżne też do stałego poziomu. Widocznie jednak żaden z tych pionierów ekologii nie miał chęci albo siły, aby wygenerować dostatecznie długi ciąg liczb, które nie dążą do równowagi. W każdym razie, jeśli wielkość populacji wahała się przez cały czas, ekologowie zakładali, że były to oscylacje wokół punktu równowagi. Równowaga była ważnym stanem. Nie przychodziło im jednak do głowy, że wcale może nie być równowagi. Poradniki i podręczniki 6, w których rozważano równanie logistyczne i jego bardziej skomplikowane odpowiedniki, nie informowały na ogół, że może się pojawić zachowanie chaotyczne. J. Maynard Smith w klasycznej książce Matematyka w biologii, wydanej w Cambridge 1968 roku, daje standardowe pojęcie o możliwościach: populacje często pozostają stabilne albo fluktuują „z raczej regularną okresowością” wokół pewnego punktu równowagi. Nie wydaje się, że był on na tyle naiwny, żeby przypuszczać, iż realne populacje nigdy nie zachowują się kapryśnie. Po prostu zakładał, że kapryśne zachowanie nie ma nic wspólnego z matematycznym modelem opisującym zachowanie się populacji. W każdym razie biologowie musieli odnosić się do tych równań z rezerwą. Jeśli modele zaczynały zdradzać biologów populacji, pewne brakujące cechy mogły wyjaśnić sprzeczności: rozkład wieku w populacji, pewne cechy terytorialne albo geograficzne, trudności z równoczesnym policzeniem osobników obu płci. Najważniejsze jest to, że w głębi duszy każdy ekolog podejrzewał, że
dziwny łańcuch liczb prawdopodobnie oznacza, iż kalkulator płata figle albo że brakuje mu dokładności 7. Interesujące były rozwiązania stabilne. Porządek sam w sobie był nagrodą. Znajdowanie właściwych równań i wyliczanie rozwiązań było jednak ciężką pracą. Nikt nie chciał tracić czasu na szukanie rozwiązań, które nie prowadziły do stabilności. I żaden dobry ekolog nigdy nie zapomniał, że jego równania były ogromnym uproszczeniem realnych zjawisk. Wszystko, o co chodziło przy takich uproszczeniach, polegało na modelowaniu regularności. Dlaczego więc te trudności nie doprowadziły do odkrycia chaosu? Później zaczęto mówić, że James Yorke odkrył Lorenza i nadał nauce o chaosie jego imię. Druga część zdania zawiera rzeczywiście prawdę. Yorke był matematykiem, który lubił myśleć o sobie jako o filozofie, chociaż z zawodowego punktu widzenia było niebezpiecznie przyznawać się do tego. Był wspaniałym mężczyzną o łagodnym głosie, z lekko rozwichrzonymi włosami á la Steve Smale, którego szczerze podziwiał. Jak inni uważał, że Smale jest trudny do zgłębienia. Ale rozumiał, dlaczego Smale jest tak tajemniczy. Kiedy Yorke miał zaledwie dwadzieścia dwa lata, wstąpił do interdyscyplinarnego instytutu w University of Maryland o nazwie Institute for Physical Science and Technology, któremu później przewodził. Był matematykiem z rodzaju tych, którzy czują przymus wdrażania swoich idei do praktyki. To on opracował raport 8 o tym, jak rozprzestrzenia się rzeżączka i zmusił rząd federalny do zmiany strategii w zwalczaniu tej choroby. On też przekazał oficjalne oświadczenie do rządu stanu Maryland podczas kryzysu naftowego w latach siedemdziesiątych, twierdząc słusznie, że zastosowany system limitowania sprzedaży paliw powoduje jedynie wydłużanie się kolejek 9. W dobie demonstracji antywojennych, kiedy rząd, aby wywrzeć wrażenie, ujawnił fotografię wykonaną z samolotu szpiegowskiego zdającą się pokazywać w punkcie kulminacyjnym
zgromadzenia wokół pomnika Waszyngtona jedynie rzadką grupkę ludzi, Yorke poprzez analizę cienia pomnika udowodnił, że fotografia faktycznie została zrobiona pół godziny później, gdy manifestacja już się rozproszyła 10. W instytucie Yorke miał dużą swobodę i mógł zajmować się problemami spoza tradycyjnej matematyki. Utrzymywał też szerokie kontakty z ekspertami z innych dziedzin. Jednym z tych ekspertów był naukowiec zajmujący się dynamiką płynów, który w 1972 roku dał się przekonać o słuszności idei Lorenza z 1963 roku zawartych w pracy Deterministic Nonperiodic Flow. Zafascynowany tym dziełem, wręczał jego kopie każdemu, kto chciał je wziąć. Jedną dał Yorke’owi. Praca Lorenza wydawała się magiczną sztuczką, której Yorke poszukiwał, nawet nie wiedząc o tym 11 . To był szok matematyczny: przede wszystkim układ chaotyczny, który nie pasował do oryginalnego optymistycznego schematu klasyfikacji Smale’a. Ale to nie była tylko matematyka: był to żywy model fizyczny, obraz płynu w ruchu i Yorke zrozumiał natychmiast, że jest to rzecz, którą chciałby pokazać fizykom. Smale sterował matematyką w kierunku rozwiązywania takich problemów fizycznych, ale — jak Yorke dobrze rozumiał — język matematyki stawiał poważną barierę w jej komunikacji. Gdyby w akademickim świecie istniała możliwość symbiozy między matematykami i fizykami... — ale nie istniała. Mimo że praca Smale’a na temat układów dynamicznych próbowała uzupełnić tę lukę, matematycy wciąż mówili jednym językiem, fizycy drugim. Jak zauważył fizyk Murray Gell-Mann: „Członkowie rad wydziałów znają pewne osoby, które matematykom wydają się dobrymi fizykami, a fizykom — dobrymi matematykami. Zupełnie zrozumiałe, że nie chcą mieć tych osób wokół siebie” 12. Standardy obu profesji były różne. Matematycy dowodzili twierdzeń dedukcyjnie, fizycy używali do tego celu ciężkiego sprzętu. Różne były też obiekty, z których budowali swoje światy. Przykłady, których
używali, też się różniły. Smale ucieszyłby się z następującego przykładu: weź liczbę, ułamek między zero i jeden, i pomnóż go przez dwa. Następnie odrzuć część całkowitą — część na lewo od przecinka. Powtórz ten proces. Ponieważ większość to liczby niewymierne i nieprzewidywalne w szczegółach, proces będzie produkował nieprzewidywalną sekwencję liczb. Fizyk nie zobaczy w tym nic ponad banalne dziwactwo matematyczne, krańcowo bezsensowne, zbyt proste i zbyt abstrakcyjne, aby mogło być zastosowane w praktyce. Smale przypuszczał, wiedział intuicyjnie, że ten matematyczny trik pojawia się u podstaw wielu układów fizycznych. Dla fizyka poprawnym przykładem jest równanie różniczkowe, które mogłoby być zapisane w prostej formie. Kiedy Yorke zobaczył pracę Lorenza, mimo że była ona „pogrzebana” w czasopiśmie meteorologicznym, wiedział, że jest to przykład, który fizycy zrozumieją. Dał kopię Smale’owi z przyklejonym swoim adresem, tak żeby Smale mógł ją zwrócić 13. Ten był zdumiony, widząc, że meteorolog — dziesięć lat wcześniej — odkrył rodzaj chaosu, który on sam uważał za matematycznie niemożliwy. Zrobił wiele fotokopii tej pracy i tak powstała legenda, że Yorke odkrył Lorenza. Na każdej kopii, która kiedykolwiek pojawiła się w Berkeley, widniał bowiem adres Yorke’a. Yorke czuł, że fizycy nauczyli się nie widzieć chaosu. W codziennym życiu wrażliwość na warunki początkowe Lorenza czyha na każdego. Człowiek opuszcza rano dom trzydzieści sekund później, doniczka mija jego głowę o milimetry, a następnie zostaje przejechany przez ciężarówkę. Albo mniej dramatycznie — nie udaje mu się zdążyć na autobus kursujący co dziesięć minut, który miał go zawieźć na pociąg odjeżdżający co godzinę. Małe perturbacje czyjejś codziennej trajektorii mogą mieć olbrzymie konsekwencje. Baseballista, który widzi rzuconą piłkę, wie, że takie samo
uderzenie nie da jednakowych wyników, ponieważ w grze tej znaczenie mają centymetry. Nauka jednak to coś innego. Mówiąc pedagogicznie, fizyka i matematyka głównie polegały — i polegają — na pisaniu równań różniczkowych na tablicy i pokazywaniu studentom, jak je rozwiązywać. Równania różniczkowe pokazują rzeczywistość jako kontinuum zmieniające się w sposób ciągły, od miejsca do miejsca i od chwili do chwili, niepodzielone na dyskretną sieć punktów albo kwanty czasu. Jak wie każdy student nauk przyrodniczych, rozwiązywanie równań różniczkowych jest trudne. Ale w ciągu dwóch i pół wieku naukowcy zebrali potężną wiedzę o nich: podręczniki i katalogi równań różniczkowych wraz z różnymi metodami rozwiązywania ich albo „znajdowania skończonej całki” — jak powiedzą naukowcy. Nie ma przesady w powiedzeniu, że rozwój rachunku różniczkowego i całkowego zapewnił tryumf nowożytnej nauki, ani w powiedzeniu, że jest on jednym z najgenialniejszych tworów człowieka próbującego modelować zmieniający się wokół niego świat. Więc zanim naukowiec pokona ten sposób myślenia o naturze i poczuje się nieskrępowany teorią oraz ciężką praktyką, zazwyczaj traci jeden fakt z pola widzenia: większość równań różniczkowych jest nierozwiązywalna. „Jeśli możesz napisać rozwiązanie równania różniczkowego — powiedział Yorke — to z pewnością nie jest ono chaotyczne, ponieważ aby je napisać, musisz znaleźć regularne niezmienniki, czynniki, które są stałe jak moment pędu. Znajdziesz dość o tych sprawach i to pozwoli ci napisać rozwiązanie. Ale w ten sposób wyeliminujesz chaos” 14. Układy rozwiązywalne przedstawia się w podręcznikach. One się porządnie zachowują. W przypadku układów nieliniowych, naukowcy zastępują je liniowymi przybliżeniami albo znajdują jakieś „tylne wyjście”. Podręczniki pokazują studentom tylko te rzadkie układy nieliniowe, które
dają się rozwiązać takimi technikami. Nie wykazują one wrażliwości na warunki początkowe. O układach równań nieliniowych z realnym chaosem rzadko nauczano i rzadko się uczono. Kiedy ludzie potykają się o takie rzeczy — a tak się zdarza — całe ich wykształcenie przemawia za pozbyciem się ich jako anormalnych. Tylko nieliczni pamiętali, że to rozwiązywalne, uporządkowane układy liniowe są anormalne. Tylko kilku rozumiało, jak nieliniowa jest dusza przyrody 15. Enrico Fermi wykrzyknął pewnego razu: „Nie jest powiedziane w Biblii, że wszystkie prawa przyrody są wyrażalne równaniami liniowymi!” 16. Matematyk Stanisław Ułam zauważył, że nazywanie badań nad chaosem „nauką o układach nieliniowych” byłoby tym samym co nazywanie zoologii „badaniem zwierząt niesłoniowatych” 17. Yorke to rozumiał. „Pierwsze przesłanie to informacja, że istnieje nieład. Fizycy i matematycy chcą odkryć regularności. Ludzie pytają, jaki użytek z nieładu. Ale muszą znać nieład, jeśli chcą wiedzieć, jak z nim postępować. Mechanik samochodowy, który nie wie nic o osadzie na zaworach, nie jest dobrym mechanikiem” 18. Yorke uważał, że naukowcy i nienaukowcy równie łatwo mogą popełnić błąd dotyczący złożoności, jeśli nie są właściwie dostrojeni do tego zjawiska. Dlaczego inwestorzy uporczywie wierzą w cykliczność cen złota i srebra? Ponieważ okresowość jest najbardziej skomplikowanym uporządkowanym zachowaniem, jaki mogą sobie wyobrazić. Kiedy widzą skomplikowany układ cen, szukają jakiejś okresowości ukrytej w małym przypadkowym szumie. A eksperymentatorzy w takich dziedzinach jak fizyka, chemia albo biologia nie są inni: „W przeszłości ludzie widzieli chaotyczne zachowanie w niezliczonych okolicznościach — powiedział Yorke. — Przeprowadzali eksperyment fizyczny, a wyniki zachowywały się dziwacznie. Próbowali go ustabilizować, ale rezygnowali. Wyjaśniali dziwne zachowanie bądź to szumem, bądź tym, że eksperyment jest zły”.
Yorke znalazł w pracach Lorenza i Smale’a przesłanie, którego fizycy nie słyszeli. Więc napisał artykuł do najbardziej popularnego czasopisma, które — jak myślał — mogłoby go opublikować, do „American Mathematical Monthly”. (Czuł, że jako matematyk nie jest zdolny do wyrażenia tej idei w formie, którą zaakceptowałyby czasopisma fizyczne; dopiero po kilku latach wpadł na pomysł, by wciągnąć do współpracy fizyków). Praca Yorke’a 19 miała dużą wartość, ale w końcu jej najważniejszą cechą okazał się tajemniczy i psotny tytuł: Period Three Implies Chaos (Trójcykl implikuje chaos). Koledzy doradzali mu wybranie czegoś bardziej statecznego, ale Yorke wprawił wszystkich w zakłopotanie jednym słowem, które później oznaczało całą potężniejącą dziedzinę deterministycznego nieładu. Rozmawiał również o tym ze swoim przyjacielem, Robertem Mayem, biologiem. Tak się złożyło, że May wszedł do biologii niejako tylnymi drzwiami 20. Rozpoczynał jako fizyk teoretyk w swoim rodzinnym Sydney w Australii. Był synem świetnego adwokata. Po doktoracie pracował w Harvardzie nad matematyką stosowaną. W roku 1971 przeniósł się na rok do Institute for Advanced Study w Princeton; zamiast jednak wykonywać pracę, której od niego oczekiwano, przyłapał się na tym, że chodził do Princeton University, aby tam rozmawiać z biologami. Teraz nawet biologowie nie uczą się zbyt wiele matematyki, poza rachunkiem różniczkowym i całkowym. Ludzie, którzy lubią matematykę i mają do niej uzdolnienia, zmierzają raczej w kierunku matematyki i fizyki niż w kierunku nauki o życiu. May był wyjątkiem. Jego zainteresowania kierowały się przede wszystkim w stronę abstrakcyjnych problemów stabilności i złożoności, matematycznego wyjaśniania tego, co umożliwia koegzystencję współzawodniczącym ze sobą gatunkom. Ale wkrótce zaczął skupiać swoją uwagę na najprostszych kwestiach ekologicznych: jak
pojedyncza populacja zachowuje się w czasie. Niezwykle prosty model nie wydawał się nawet kompromisem. Zanim na dobre przeniósł się na wydział w Princeton — ostatecznie został na nim dziekanem do spraw nauki — wiele godzin spędził na badaniu pewnej wersji logistycznego równania różnicowego, używając w tym celu analizy matematycznej oraz prymitywnego kalkulatorka ręcznego. Będąc z powrotem w Sydney, pewnego razu napisał to równanie na korytarzowej tablicy jako zadanie dla doktorantów. Problem ów zaczynał mu już dokuczać. „Co, na Boga, się stanie, kiedy lambda będzie większe niż punkt akumulacji?” 21 Co się wydarzy, kiedy szybkość wzrostu populacji, jej tendencja do rozwoju i zaniku, przekroczy punkt krytyczny? Próbując różnych wartości tego nieliniowego parametru, May ustalił, że może on gwałtownie zmieniać zachowanie układu. Podnoszenie wartości parametru oznaczało wzrost stopnia nieliniowości, a ten zmieniał zachowanie nie tylko ilościowo, ale także jakościowo. Wpływał nie tylko na końcową równowagę populacji, ale również na to, czy populacja w ogóle ją osiągnie. Kiedy wartość parametru była niska, prosty model Maya docierał do stanu stacjonarnego. Kiedy wartość parametru była wysoka, stan stacjonarny znikał, a populacja zaczynała oscylować między dwoma zmieniającymi się wartościami. Kiedy wartość parametru była bardzo wysoka, układ — ciągle ten sam układ — wydawał się nieprzewidywalny. Dlaczego? Co się dzieje na granicach między różnymi rodzajami zachowań? May nie mógł tego ustalić. (Nie mogli też tego zrobić jego studenci). Realizował program intensywnego, numerycznego badania zachowania się tego najprostszego równania. Jego program był analogiczny do programu Smale’a: May próbował zrozumieć to jedno proste równanie w całości; nie lokalnie, ale globalnie. Równanie było daleko prostsze niż to, które studiował Smale. Wydawało się niesamowite, że jego możliwości tworzenia ładu
i nieładu nie zostały dawno sprawdzone. Ale nie zostały. Faktycznie, program Maya był właśnie początkiem. May badał setki różnych wartości tego parametru, puszczając w ruch pętlę sprzężenia zwrotnego i obserwując, czy i gdzie łańcuch liczb dojdzie do punktu stałego. Ogniskował się coraz ściślej na krytycznych granicach pomiędzy stacjonarnością i oscylacjami. Wyglądało to tak, jak gdyby miał swój własny staw hodowlany, w którym mógł panować nad wzrostem i spadkiem populacji ryb. Wciąż stosując równanie logistyczne x nast. = rx (1 – x), May powiększał parametr tak wolno, jak to było możliwe. Jeśli parametr wynosił 2,7, końcowa wielkość populacji wynosiła 0,6292. Jeśli parametr rósł, końcowa wielkość również nieznacznie rosła, tworząc na wykresie lekko wznoszącą się linię. Nagle jednak, gdy parametr minął wartość 3, linia rozerwała się na dwie części. Wielkość fikcyjnej populacji ryb nie zmierzała już do pojedynczej wartości, lecz oscylowała pomiędzy dwoma punktami w kolejnych latach. Poczynając od małej liczby, populacja rośnie, a potem fluktuuje, aż zaczyna wreszcie miotać się w tę i z powrotem. Jeśli podkręci się ją jeszcze bardziej — podnosząc nieco parametr — oscylacje rozszczepią się znowu, produkując strumień liczb, które wahają się pomiędzy czterema wartościami, przy czym każda z nich pojawia się co cztery lata 22. Teraz populacja rośnie i maleje według czterorocznego schematu. Cykl znowu się podwaja — z rocznego na dwuletni i teraz na czteroletni. W dalszym ciągu cykliczne zachowanie jest stabilne; różne początkowe wartości wielkości populacji będą dążyć do tego samego czteroletniego cyklu.
JAMES P. CRUTCHFIELD/ADOLPH E. BROTMAN
Podwojenia okresu i chaos. Zamiast stosowania indywidualnych wykresów do pokazania zachowania populacji z różnymi stopniami płodności, Robert May i inni naukowcy używają „wykresu bifurkacyjnego” do zebrania wszystkich informacji na jednym wykresie. Wykres pokazuje, jak zmiany jednego parametru — w tym przypadku parametru wzrostu populacji — zmieniają końcowe zachowanie się tego prostego układu. Wartości parametru są reprezentowane na osi poziomej; finalna wielkość populacji — na pionowej. W pewnym sensie zwiększenie wartości parametru oznacza mocniejsze wysterowanie układu, zwiększające nieliniowość. Tam, gdzie wartość parametru jest niska (po lewej), populacja zostaje wygaszona.
Gdy parametr wzrasta (w środku), tak samo wzrasta poziom równowagi. Gdy parametr dalej rośnie, poziom równowagi rozszczepia się na dwa, dokładnie tak jak dopływ ciepła w przypadku konwekcji pojawia się niestabilność; wielkość populacji zaczyna przeskakiwać pomiędzy dwoma poziomami. Rozszczepienia, czyli bifurkacje, pojawiają się coraz szybciej: system przechodzi w chaos (po prawej) i wielkość populacji osiąga nieskończoną liczbę różnych wartości. (Na temat powiększania się obszaru chaotycznego patrz).
Lorenz pokazał dziesięć lat wcześniej, że jedynym sposobem nadania takim liczbom sensu jest wykonanie wykresu. May wyrysował więc szkic sumujący całą wiedzę o zachowaniu takiego układu dla różnych wartości parametru. Wartość parametru została odłożona na poziomej osi, wzrasta od lewej do prawej. Wielkość populacji jest reprezentowana przez oś pionową. Dla każdej wartości parametru May wykreślił punkt reprezentujący finalny wynik po osiągnięciu przez układ równowagi. Po lewej stronie, gdzie wartość parametru jest mała, ten wynik jest reprezentowany przez punkt; różne parametry generują linię rosnącą nieco od lewej do prawej. Kiedy parametr przeszedł przez pierwszy punkt krytyczny, May musiał wykreślić grafiki dla dwu wielkości populacji: linia rozszczepia się na dwie, tworząc coś na kształt przewróconej litery Y, czyli rozwidlenie. To rozszczepienie odpowiadało przejściu od populacji z cyklem jednorocznym do populacji z cyklem dwurocznym. Kiedy parametr rośnie, liczba punktów dwoi się znowu, potem znowu i znowu. Zdumiewające, że tak skomplikowane zachowanie jest tak denerwująco regularne. „Wąż w matematycznej trawie” — jak to przedstawił May. Owe podwojenia to bifurkacje, a każda bifurkacja oznacza, że struktura powtórzeń załamie się jeden krok dalej. Populacja, która była stabilna, zacznie oscylować pomiędzy różnymi poziomami z dwuletnim okresem. Populacja, która zmieniała się w dwuletnim cyklu, będzie się zmieniać w trzecim i czwartym roku, w ten sposób przechodząc w 4-cykl.
Bifurkacje następują coraz szybciej: 4, 8, 16, 32... i nagle ustają. Za tym punktem, „punktem akumulacji”, periodyczność otwiera drogę do chaosu, fluktuacji, które nigdy nie ustają. Całe obszary wykresu są całkowicie czarne. Jeśli śledzi się populację zwierząt rządzoną tymi najprostszymi równaniami nieliniowymi, dochodzi się do wniosku, że zmiany z roku na rok są absolutnie przypadkowe jak gdyby rozdmuchane przez szum ze środowiska. Jednak w sercu tej złożoności pojawiają się nagle stabilne cykle. Mimo że parametr rośnie, co oznacza, że nieliniowość wysterowuje układ coraz silniej, pojawia się okno z regularnym okresem: nieparzystym okresem jak 3 czy 7. Struktura zmian wielkości populacji powtarza się w trzy- lub siedmioletnim cyklu. Potem zaczynają się wszędzie bifurkacje podwajające okres z większą prędkością, szybko przechodząc przez cykle 3, 6, 12 albo 7, 14, 28... i wszystko znowu przechodzi w chaos. Najpierw May nie dostrzegał całości. Ale fragmenty, które mógł obliczyć, były wystarczająco niepokojące. W rzeczywistym układzie obserwator widziałby tylko pionowy plasterek odpowiadający jednemu parametrowi na raz. Mógł on zobaczyć tylko jeden rodzaj zachowania — może stan stacjonarny, może siedmioletni cykl, może pozorną przypadkowość. Nie miałby żadnego sposobu, aby dowiedzieć się, że ten sam układ z pewnymi niewielkimi zmianami pewnego parametru może ujawnić zachowanie zupełnie innego rodzaju. James Yorke przeanalizował to zachowanie z matematyczną ścisłością w swojej pracy „Trójcykl implikuje chaos”. Dowiódł, że w każdym jednowymiarowym układzie, jeśli kiedykolwiek pojawi się 3-cykl, to ten sam system będzie również wykazywał regularne cykle o każdej innej długości, jak również cykle zupełnie chaotyczne. To było odkrycie, które podziałało jak „szok elektryczny” na fizyków, takich jak Freeman Dyson. Było to niezgodne z jego intuicją. Wydawałoby się trywialne zmontowanie układu,
który powtarzałby się z 3-cyklem bez generowania chaosu. Yorke pokazał, że było to niemożliwe. Chociaż było to prowokacyjne, Yorke wierzył, że sensacyjna wartość tej pracy przeważy matematyczną substancję 23. Była to po części prawda. Kilka lat później, biorąc udział w międzynarodowej konferencji w Berlinie Wschodnim, pozostawił sobie trochę czasu na zwiedzanie i przejażdżkę łodzią po Sprewie. Nagle podszedł do niego pewien Rosjanin, próbując mu coś pilnie zakomunikować. Przy pomocy polskiego przyjaciela Yorke wreszcie zrozumiał, że Rosjanin twierdzi, iż doszedł do tych samych rezultatów. Rosjanin odmówił podania szczegółów, obiecując, że wyśle mu swoją pracę. Cztery miesiące później nadszedł list. A.N. Sarkowskij 24 był rzeczywiście pierwszy. Jego praca miała tytuł Coexistence of Cycles of a Continuous Map of a Line into Itself. Ale Yorke zaprezentował więcej niż tylko wyniki matematyczne. Wystosował przesłanie do fizyków, w którym ogłosił, że chaos jest wszędzie obecny; jest stabilny; ma swoją strukturę. Podał również przyczynę, dla której skomplikowane układy, tradycyjnie modelowane przez trudne równania różniczkowe, mogą być równie dobrze wyjaśnione przez przedstawienie ich w formie prostych, dyskretnych odwzorowań.
JAMES P. CRUTCHFIELD/NANCY STERNGOLD
Okna porządku wewnątrz chaosu. Nawet w przypadku najprostszych równań obszar chaosu w diagramie bifurkacyjnym ujawnia swoją skomplikowaną strukturę — daleko bardziej uporządkowaną niż Robert May mógł początkowo przypuszczać. Po pierwsze, bifurkacje produkują 2, 4, 8, 16-cykle... Dalej zaczyna się chaos bez regularnego cyklu. Potem znowu, kiedy system zostaje bardziej
„podkręcony”, pojawiają się okna z cyklami o nieparzystych okresach. Pojawia się stabilny 3-cykl (strona 101, górny rysunek), a potem znowu zacznie się podwajanie: 6, 12, 24... Struktura jest nieskończenie głęboka. Kiedy część zostaje powiększona (strona 101, dolny rysunek), przypomina cały diagram.
JAMES P. CRUTCHFIELD/NANCY STERNGOLD
Ta utarczka pomiędzy dwoma żywo gestykulującymi matematykami świadczyła o tym, że permanentne problemy komunikacyjne pomiędzy Wschodem i Zachodem były nadal aktualne. Częściowo z powodu języka, częściowo z powodu restrykcji w podróżowaniu na sowiecką stronę. Świetni zachodni naukowcy często powtarzali prace, które już zostały opublikowane w sowieckiej literaturze naukowej. Coraz popularniejszy w Stanach Zjednoczonych i Europie chaos inspirował ogromną liczbę prac w Związku Sowieckim; z drugiej strony powodowało to wielki zamęt, ponieważ wiele osiągnięć z nowej nauki nie było aż tak znanych w Moskwie. Sowieccy matematycy i fizycy mieli dawną tradycję w badaniach chaosu, datującą się od prac A.N. Kołmogorowa w latach pięćdziesiątych 25. Ponadto tradycyjnie pracowali razem, dlatego uniknęli rozdźwięku, do jakiego doszło pomiędzy fizykami i matematykami w innych krajach. W ten sposób sowieccy naukowcy chłonęli Smale’a — jego podkowa w latach sześćdziesiątych wywołała wśród nich wielkie poruszenie. Wspaniały fizyk matematyczny, Yasha Sinai, szybko przetłumaczył podobne układy na język termodynamiki. Podobnie, kiedy praca Lorenza w końcu dotarła do zachodnich fizyków w latach siedemdziesiątych, równocześnie dostała się w ręce naukowców sowieckich. A w roku 1975, gdy Yorke i May starali się przyciągnąć uwagę swoich kolegów, Sinai i inni szybko zgromadzili silną grupę badawczą fizyków, która miała swój ośrodek w Gorkim. W ostatnich latach niektórzy zachodni eksperci od chaosu 26 uznali za konieczne odbywanie regularnych podróży do Związku Sowieckiego, aby na bieżąco śledzić stan rzeczy; większość musiała się jednak zadowolić zachodnią wersją ich nauki. Na Zachodzie Yorke i May byli pierwszymi, którzy przeżyli szok podwajania okresu i przekazali go społeczności naukowców. Kilku matematyków, którzy dostrzegli to zjawisko, traktowało je jako sprawę
techniczną, osobliwość numeryczną. Nie znaczy to, że uważali je za mało ważne, ale sądzili, iż należy ono do ich specjalnego wszechświata. Biologowie przeoczyli bifurkacje na drodze do chaosu, ponieważ nie mieli matematycznego wyrafinowania i brakowało im motywacji do badania bezładnego zachowania. Matematycy widzieli bifurkacje, ale przeszli nad nimi do porządku. May był jedną nogą w każdym świecie i zrozumiał, że wszedł w dziedzinę, która jest zaskakująca i skomplikowana. Aby odkryć głębię najprostszych systemów, naukowcy potrzebowali komputerów o większej mocy obliczeniowej 27. Frank Hoppensteadt z Courant Institute of Mathematical Sciences przy New York University dysponował tak potężnym komputerem, że zdecydował się sporządzić film. Hoppensteadt, matematyk, który później wszedł bardzo głęboko w problemy biologiczne, załadował setki milionów razy logistyczne równanie nieliniowe do swojego Control Data 6600. Robił zdjęcie z ekranu komputera dla każdego z tysiąca różnych wartości parametru. Pojawiały się bifurkacje, potem chaos — i znowu, wewnątrz chaosu, małe obszary porządku, efemeryczne w swojej stabilności: przemijające fragmenty zachowania periodycznego. Patrząc na swój film, Hoppensteadt miał wrażenie, że płynie przez nieznany kraj, który chwilami nie wygląda wcale chaotycznie. W następnym momencie ekran wypełnia się nieprzewidywalnym zgiełkiem. Uczucie zdziwienia nigdy go nie opuściło 28. May widział film Hoppensteadta. Zaczął również gromadzić dane na temat analogicznych układów z innych dziedzin, takich jak genetyka, ekonomia i dynamika cieczy. Jako herold chaosu miał przewagę nad matematykami. Po pierwsze, dla niego proste równania nie reprezentowały idealnie rzeczywistości. Wiedział, że były tylko metaforami — zaczął więc się zastanawiać, jak głęboko sięgają takie metafory. Po drugie, rewelacje związane z teorią chaosu dotyczyły bezpośrednio głośnych kontrowersji
w jego dziedzinie.
ROBERT MAY
Wykres bifurkacyjny znaleziony przez Maya, zanim bardziej wyrafinowane obliczenia ujawniły jego bogatą strukturę.
Biologia populacji przez długi czas była przedmiotem sporów. Napięcie pojawiało się w instytutach biologii, na przykład pomiędzy biologami molekularnymi a ekologami. Biologowie molekularni myśleli, że to oni uprawiają prawdziwą naukę, rozwiązują nowe, trudne problemy, podczas gdy praca ekologów była niejasna. Ekologowie twierdzili, że techniczne arcydzieła biologii molekularnej były tylko sprytnymi przedstawieniami starych, dobrze znanych problemów. W obrębie samej ekologii 29, czego świadkiem był May, centralną kontrowersją na początku lat siedemdziesiątych była natura zmian populacji.
Ekologowie podzielili się według osobistych punktów widzenia. Niektórzy odczytali przesłanie o porządku świata: populacje są regularne i stacjonarne z wyłączeniem pewnych przypadków. Inni odczytali przeciwne przesłanie: populacje fluktuują dziko z wyłączeniem pewnych przypadków. Nie bez przyczyny te obozy miały różne zdania co do zastosowania trudnej matematyki do kłopotliwych kwestii biologicznych. Ci, którzy byli przekonani, że populacje były stabilne, uważali z kolei, iż muszą być one regulowane przez pewne deterministyczne mechanizmy. Ci, którzy wierzyli, że populacje zachowują się dziwacznie, twierdzili, iż muszą się rozprzestrzeniać pod wpływem nieprzewidywalnych czynników środowiskowych zacierających wszelkie ślady deterministycznego sygnału. Albo matematyka deterministyczna produkowała stabilne zachowania, albo przypadkowy szum zewnętrzny generował przypadkowe zachowanie. Innego rozwiązania nie było. W kontekście tej debaty chaos dostarczył zdumiewającego przesłania: proste, deterministyczne modele mogą generować coś, co wygląda jak zachowanie przypadkowe. Zachowanie rzeczywiście miało niezwykle subtelną strukturę, jednak każdy jej fragment wydaje się nieodróżnialny od szumu. Odkrycie to ucięło dalszą dyskusję. Gdy May patrzył na coraz to nowe biologiczne systemy przez pryzmat prostych modeli chaotycznych, widział wciąż wyniki, które naruszają standardową intuicję praktyka. W epidemiologii, na przykład, dobrze znane są epidemie, które pojawiają się w cyklach, regularnie lub nieregularnie. Odra, choroba Heinego i Medina, różyczka — wszystkie rozwijają się i zanikają cyklicznie. May zdawał sobie sprawę, że oscylacje mogłyby być opisane nieliniowym modelem, i zastanawiał się, co by się stało, jeśli taki układ otrzymałby nagłego kuksańca — zaburzenie w rodzaju programu szczepień. Naiwna intuicja sugeruje, że układ będzie zmieniał się gładko
w pożądanym kierunku. Ale May stwierdził, że prawdopodobne są raczej potężne oscylacje. Nawet jeśli długoterminowy trend jest skierowany w dół, droga do nowej równowagi będzie przerywana przez niespodziewane piki. Faktycznie, w danych z rzeczywistych programów, jak kampania wyeliminowania różyczki w Wielkiej Brytanii, lekarze obserwowali właśnie takie oscylacje, jakie przewidywał model Maya. Jednak nikt z urzędników ministerstwa zdrowia, widząc ostre krótkoterminowe narastanie liczby zachorowań na różyczkę lub rzeżączkę, nie przypuszczał, że odpowiedzialny za to jest program szczepień. W ciągu kilku lat badania chaosu nadały ostry impet biologii teoretycznej, wprowadzając naukowe partnerstwo pomiędzy biologami i fizykami, co było niewyobrażalne jeszcze kilka lat temu. Ekologowie i epidemiolodzy odgrzebali stare dane, które dawniej odłożono jako zbyt trudne do obróbki. Chaos deterministyczny został dostrzeżony w zapisach epidemii odry w New York City 30 i w dwuletnich fluktuacjach populacji rysia kanadyjskiego, rejestrowanych przez traperów z Hudson’s Bay Company. Biologowie molekularni zaczęli widzieć białka jako układy dynamiczne. Fizjologowie przyglądali się narządom nie jak statycznym strukturom, ale jako regularnym i nieregularnym kompleksom oscylacyjnym. May zdawał sobie sprawę, że we wszystkich dziedzinach wiedzy specjaliści wiedzieli i dyskutowali o złożonych zachowaniach systemów. W każdej z nich uważano, że odkryty chaos jest specjalny i charakterystyczny tylko dla tej gałęzi. Ta myśl wzbudzała zniechęcenie. Jakie są konsekwencje tego, że pozorna przypadkowość może wynikać z prostych modeli? A jakie z tego, że te same proste modele stosowały się do złożoności w różnych dziedzinach? May zdawał sobie sprawę, że zdumiewające struktury, które zaledwie zaczął badać, nie miały wewnętrznych związków z biologią. Zastanawiał się, jak wielu innych
naukowców jest tak samo zaskoczonych jak on. Wtedy przystąpił do pracy nad przeglądową publikacją, którą w myślach nazywał „mesjańską”. Ukazała się ona w „Nature” w 1976 roku. „Świat mógłby być lepszy — twierdził May — jeśliby każdy młody student dostał kalkulator kieszonkowy i został zachęcony do zabawiania się logistycznym równaniem różnicowym” 31. Te proste obliczenia, które wyłożył szczegółowo w „Nature”, mogły być przeciwwagą dla wykrzywionych wyobrażeń o możliwościach świata, które wynikają ze standardowej edukacji naukowej. Obliczenia te mogłyby zmienić sposób myślenia ludzi o wszystkim — od teorii cyklów ekonomicznych do rozprzestrzeniania się plotek. „Chaosu powinno się uczyć — twierdził dalej. — Jest teraz czas na uznanie, że standardowa edukacja naukowca wywołuje u niego zły obraz świata”. May uważał, że niezależnie od tego, jakie wspaniałe wyniki można było osiągnąć za pomocą liniowej matematyki z jej transformatami Fouriera, funkcjami ortogonalnymi, technikami regresyjnymi, daje ona naukowcom złe pojęcie o przytłaczająco nieliniowym świecie. „Tak rozwinięta intuicja matematyczna źle wyposaża studenta do zmierzenia się z tajemniczym zachowaniem przejawianym przez najprostsze dyskretne modele nieliniowe — napisał. — Nie tylko w badaniach naukowych, ale również w świecie polityki i ekonomii działoby się nam wszystkim lepiej, jeśliby więcej ludzi uświadomiło sobie, że proste nieliniowe układy niekoniecznie mają proste dynamiczne właściwości” 32.
1
R.M. May, W.M. Schaffer, J.A. Yorke, J. Guckenheimer. Najbardziej znanym artykułem przeglądowym Maya na temat chaosu w populacjach biologicznych jest praca Simple Mathematical Models with Very Complicated Dynamics, „Nature” 1976, 261, s. 459-467. Patrz również: Biological Populations with Nonoverlapping Generations: Stable Points, Stable Cycles, and Chaos, „Science” 1974, 186, s. 645-647; May i George F.
Oster, Bifurcations and Dynamics Complexity in Simple Ecological Models, „The American Naturalist” 1976, 110, s. 573-599. Wspaniały przegląd rozwoju modelowania matematycznego populacji przed chaosem stanowi praca Sharon E. Kingsland, Modeling Nature: Episodes in the History of Population Ecology, University of Chicago Press, Chicago 1985. 2 Robert M. May i Jon Seger, Ideas in Ecology: Yesterday and Tomorrow, preprint, Princeton University, s. 25. 3 Robert M. May i George F. Oster, Bifurcations and Dynamic Complexity, s. 573. 4 Dla wygody w tym wysoce abstrakcyjnym modelu „populacja” jest przedstawiona w formie ułamka o wartościach między 0 i 1, przy czym zero reprezentuje wygaszenie, jeden reprezentuje największą wyobrażalną populację żyjącą w stawie. A więc zacznijmy: wybierzmy dowolną wartość dla r, powiedzmy 2,7, i populację wyjściową 0,02. Jeden minus 0,02 jest 0,98. Pomnóżmy przez 0,02 i otrzymamy 0,0196. Pomnóżmy to przez 2,7 i otrzymamy 0,0529. Ta bardzo mała populacja wyjściowa została więcej niż podwojona. Powtórzmy ten proces, traktując nową wielkość populacji jako zarodek dla następnej i otrzymujemy 0,1353. Za pomocą taniego kalkulatora programowalnego kontynuacja tej iteracji jest kwestią naciskania jednego klawisza wciąż od nowa. Populacja rośnie do 0,3159, potem do 0,5835, potem do 0,6562 — szybkość wzrostu maleje. Potem, kiedy głód przewyższy reprodukcję — 0,6092. Potem 0,6428, 0,6199, 0,6392, 0,6249. Liczby wydają się skakać w tę i z powrotem, ale zbliżają się do pewnej stałej liczby: 0,6328, 0,6273, 0,6312, 0,6285, 0,6304, 0,6291, 0,6300, 0,6294, 0,6299, 0,6295, 0,6297, 0,6296, 0,6297, 0,6296, 0,6296, 0,6296, 0,6296, 0,6296, 0,6296. Sukces! W czasach arytmetyki typu „ołówek i kartka”, w czasach mechanicznych sumatorów z ręcznymi korbami numeryczne badania nigdy nie szły dużo dalej. 5 R.M. May. 6 J. Maynard Smith, Matematyka w biologii, Wiedza Powszechna, Warszawa 1974 (przeł. Marek Kłoczewiak), s. 42; Harvey J. Gold, Mathematical Modeling of Biological System, New York 1977. 7 R.M. May. 8 Gonorrhea Transmission Dynamics and Control, red. Herbert W. Hethcote, James A. Yorke, Springer Verlag, Berlin 1984. 9 Na podstawie symulacji komputerowej Yorke ustalił, że system ten wymusza na kierowcach częstsze jazdy do stacji benzynowych i utrzymywanie swoich zbiorników pełniejszych przez cały czas; zatem system zwiększa rozrzutnie ilość benzyny, która w każdej chwili znajduje się w zbiornikach samochodów. 10 Rejestry z portu lotniczego wykazały, że Yorke miał rację. 11 J. A. Yorke. 12 Murray Gell-Mann, The Concept of the Institute, w: Emerging Syntheses in Science,
materiały z konferencji, Santa Fe 1985, s. 11. 13 J.A. Yorke, S. Smale. 14 J.A. Yorke. 15 Przystępny esej na temat liniowości, nieliniowości i historycznego zastosowania komputerów w wyjaśnieniu różnicy stanowi praca: David Campbell, James P. Crutchfield, J. Doyne Farmera, Erica Jen, Experimental Mathematics: The Role of Computation in Nonlinear Science, „Communications of the Association for Computing Machinery” 1985, 28, s. 374-384. 16 Fermi cytowany w pracy, S.M. Ulam: Adventures of a Mathematician, Scribners, New York 1976. Ulam również opisał genezę innego ważnego wątku potrzebnego do zrozumienia nieliniowości, twierdzenia Fermiego-Pasta-Ulama. Szukając problemów, które mogłyby być rozwiązane na nowym komputerze MANIAC w Los Angeles, naukowcy próbowali rozwiązać układ dynamiczny, którym była po prostu drgająca struna — prosty model „mający w dodatku fizycznie poprawny człon z niewielką nieliniowością”. Znaleźli struktury, które łączyły się w nieoczekiwane okresowości. Jak to podsumował Ulam: „Wyniki były całkowicie różne jakościowo nawet od tych, których spodziewał się Fermi z jego rozległą wiedzą na temat ruchów falowych... Ku naszemu zdumieniu struna zaczęła grać w taniec przy krzesełkach [rodzaj gry dla dzieci — przyp. tłum.]”. Fermi uznał ten wynik za nieważny i nie rozpropagowano go szeroko, ale kilku matematyków i fizyków poszło tym tropem i wyniki te stały się szczególną częścią lokalnej wiedzy Los Alamos (Adventures, s. 226-228). 17 Cyt. za: Experimental Mathematics, s. 374. 18 J.A. Yorke. 19 Napisana z jego doktorantem Tien-Yien Li, Period Three Implies Chaos, „American Mathematical Monthly” 1975, 82, s. 985-992. 20 R.M. May. 21 R.M. May; to był ten problem, który od metod analitycznych doprowadził go do eksperymentowania numerycznego w nadziei, że uskrzydli to jego intuicję. 22 Z parametrem 3,5, powiedzmy, i z wartością początkową 0,4, pojawiły mu się następujące liczby: 0,4000, 0,8400, 0,4704, 0,8719, 0,3908, 0,8332, 0,4862, 0,8746, 0,3846, 0,8284, 0,4976, 0,8750, 0,3829, 0,8270, 0,4976, 0,8750, 0,3829, 0,8270, 0,5008, 0,8750, 0,3828, 0,8269, 0,5009, 0,8750, 0,3828, 0,8269, 0,5009, 0,8750 itd. 23 J.A. Yorke. 24 Coexistence of Cycles of a Continuous Map of a Line into Itself, „Ukrainian
Mathematics Journal” 1964, 16, s. 61. 25 Y.G. Sinai, informacja prywatna, 8 grudnia 1986. 26 M.J. Feigenbaum, P. Cvitanović. 27 F. Hoppensteadt, R.M. May. 28 F. Hoppensteadt. 29 R.M. May. 30 William M. Schaffer, Mark Kot, Nearly One-dimensional Dynamics in an Epidemic, „Journal of Theoretical Biology” 1985, 112, s. 403-427; W.M. Schaffer, Stretching and Folding in Lynx Fur Returns: Evidence for a Strange Attractor in Nature, ,,The American Naturalist” 1984, 124, s. 798-820. 31 Robert M. May, Simple Mathematical Models, s. 467. 32 Tamże.
Geometria przyrody A jednak pojawia się zależność, mały związek powiększający się jak cień chmury na piasku, jak cień kształtu na stoku wzgórza. Wallace Stevens, Connoisseur of Chaos
Obraz rzeczywistości 1 przez lata formował się w umyśle Benoita Mandelbrota. W roku 1960 był tylko cieniem idei, słabym, rozmytym wyobrażeniem. Ale Mandelbrot rozpoznał go, gdy go zobaczył na tablicy w pokoju Hendrika Houthakkera. Mandelbrot był matematykiem znającym się na wszystkich gałęziach tej nauki, zatrudnionym w zakładzie badań teoretycznych International Business Machines Corporation (IBM). Interesował się także ekonomią i studiował rozkłady wielkich oraz małych dochodów. Houthakker, profesor ekonomii w Harvardzie, zaprosił go, aby wygłosił wykład, i kiedy młody matematyk przybył do Littauer Center, wspaniałego budynku wydziału ekonomii na północ od Harvard Yard, był zaniepokojony, ujrzawszy swoje odkrycie już wykreślone na tablicy starszego kolegi 2. Mandelbrot zażartował złośliwie: „Jak mógł mój diagram zmaterializować się tutaj przed moim wykładem?”, ale Houthakker nie wiedział, co Mandelbrot miał na myśli. Diagram nie miał nic wspólnego z rozkładem dochodów; ukazywał rozwój cen bawełny w ciągu ośmiu lat. Z punktu widzenia Houthakkera nie było nic dziwnego w tym rysunku. Ekonomiści na ogół zakładali, że cena towaru takiego jak bawełna tańczy
według dwu różnych rytmów: uporządkowanego i przypadkowego. Długofalowo ceny były sterowane pewnie przez realne siły w ekonomii — rozwój i upadek przemysłu tekstylnego w Nowej Anglii albo otwarcie nowych międzynarodowych dróg handlowych. Na krótką metę ceny skakały mniej lub bardziej przypadkowo. Niestety, dane Houthakkera nie pasowały do jego przewidywań. Było zbyt wiele dużych skoków. Większość zmian cen oczywiście była mała, ale stosunek małych zmian do wielkich nie był tak wysoki, jak się tego spodziewał. Rozkład nie zanikał dostatecznie szybko, lecz miał długi ogon. Standardowo zmiany wykreśla się w postaci dzwonokształtnej krzywej. W środku, gdzie jest szczyt dzwonu, większość danych skupia się wokół średniej. Po bokach są nieliczne duże i małe wartości ekstremalne. Statystyk używa krzywej dzwonokształtnej w sposób, w jaki internista posługuje się stetoskopem: jako instrumentem pierwszej potrzeby. Reprezentuje ona standardowy, czyli gaussowski, rozkład rzeczy — albo, po prostu, rozkład normalny. Wyraża on naturę przypadkowości. Rzecz w tym, że kiedy rzeczy się zmieniają, próbują pozostawać w pobliżu punktu średniego i rozpraszają się wokół średniej w rozsądnie gładki sposób. Ale kiedy średnia przechodzi przez ekonomiczną puszczę, standardowe poglądy pozostają z tyłu. Laureat Nagrody Nobla, Wassilij Leontiew 3, stwierdził wręcz: „W żadnej dziedzinie badań nie uruchomiono tak wielkiej i wyrafinowanej maszynerii statystycznej z tak mizernymi rezultatami”. Niezależnie od tego, jak Houthakker wykreślał ceny bawełny, nie mógł ich zmusić, aby pasowały do rozkładu normalnego. Ale utworzyły one figurę, której sylwetkę Mandelbrot zaczął dostrzegać w zaskakująco różnych miejscach. Inaczej niż większość matematyków, konfrontował problemy ze swoją intuicją w zakresie struktury i kształtu. Nie ufał analizie, ale ufał swoim obrazom umysłowym. I miał już pojęcie, że inne prawa mogą rządzić
przypadkowymi, stochastycznymi zjawiskami. Kiedy wrócił do ogromnego centrum badawczego IBM w Yorktown Heights (Nowy Jork), na wzgórzach północnej części Westchester County, włożył dane Houthakkera dotyczące bawełny do pudełka z kartami komputerowymi. Następnie napisał do Departamentu Rolnictwa w Waszyngtonie, prosząc o nadesłanie więcej tego typu danych, począwszy od roku 1900.
Krzywa rozkładu normalnego.
Podobnie jak naukowcy w innych dziedzinach, tak i ekonomiści przekroczyli próg ery komputerowej, powoli zdając sobie sprawę, że komputery mogą być niezwykle przydatne w gromadzeniu, organizowaniu oraz manipulowaniu informacjami na wcześniej niewyobrażalną skalę. Nie wszystkie rodzaje informacji były jednak dostępne, a te, które mogły być zgromadzone, należało przekształcić do użytecznej postaci. Era dziurkarek kart klawiszowych właśnie się zaczęła. W trudnych naukach badacze stwierdzili, że to ułatwia gromadzenie tysięcy albo milionów danych pomiarowych. Ekonomiści, podobnie jak biologowie, zajmują się światem istot żywych mających własną wolę. Badają oni stworzenia najbardziej nieuchwytne ze wszystkich. Ale środowisko ekonomiczne wciąż generowało liczby. Z punktu widzenia
Mandelbrota ceny bawełny stanowiły idealne źródło danych. Zapis był kompletny i sięgał sto lat wstecz. Bawełna to zamknięty świat handlu ze scentralizowanym rynkiem — a zatem ze scentralizowanym przechowywaniem zapisów — ponieważ na przełomie wieku cała bawełna z południa na drodze do Nowej Anglii przepływała przez rynek nowojorski i ceny w Liverpoolu zależały również od cen nowojorskich. Gdy przyszło do analizowania cen artykułów albo akcji, ekonomiści niewiele potrafili zrobić, co nie znaczy, że brakowało im fundamentalnego punktu widzenia na to, jak działają zmiany cen. Przeciwnie, często powoływali się na pewne prawdy wiary. Jedną było przekonanie, że małe, przejściowe zmiany nie mają nic wspólnego ze zmianami wielkimi, długoterminowymi. Szybkie fluktuacje pojawiają się przypadkowo. Chwilowe wzrosty i spadki cen w dziennych transakcjach są tylko szumem, nieprzewidywalnym i nieinteresującym. Długotrwałe zmiany mają całkowicie inną naturę. Duże wahania cen w przeciągu miesięcy, lat czy dziesięcioleci są zdeterminowane przez głęboko makroekonomiczne siły, trendy związane z wojną albo recesje, siły, które w teorii powinny być zrozumiałe. Z jednej strony brzęczenie fluktuacji krótkoterminowych, z drugiej głośny sygnał zmian długoterminowych. Tak się stało, że ta dychotomia nie występowała w obrazie rzeczywistości, którą rozwijał Mandelbrot. Zamiast oddzielać drobne zmiany od wielkich, w jego wizji świata były one połączone. Szukał struktur nie w jednej czy drugiej skali, ale w całości. To nie było wcale oczywiste, jak narysować obraz, który tkwił w jego wyobraźni, ale wiedział, że to musi być jakiś rodzaj symetrii, nie symetrii prawy–lewy czy góra–dół, lecz symetrii mała skala– duża skala. Rzeczywiście, kiedy Mandelbrot przebadał dokładnie ceny bawełny za pomocą komputerów IBM, znalazł zaskakujący wynik, którego szukał.
Liczby, które generują anomalie z punktu widzenia rozkładu normalnego, generują też symetrie z punktu widzenia zmiany skali. Każda konkretna zmiana ceny była przypadkowa i nieprzewidywalna. Ale sekwencja zmian była niezależna od skali: krzywe zmian cen dziennych i miesięcznych pasowały do siebie idealnie. To niezwykłe, ale zanalizowany według metody Mandelbrota stopień zmian pozostawał stały w burzliwym sześćdziesięcioletnim okresie, który widział dwie wojny światowe i jedną recesję. Wewnątrz najbardziej bezładnych stosów danych istniał niespodziewany porządek. Biorąc pod uwagę arbitralność liczb, które badał, Mandelbrot zapytywał sam siebie, dlaczego w ogóle powinny podlegać jakiemuś prawu. I dlaczego powinno stosować się ono równie dobrze do dochodów osobistych jak i cen bawełny? Prawdę powiedziawszy, wiedza Mandelbrota o ekonomii była równie skromna jak jego zdolność komunikowania się z ekonomistami. Kiedy opublikował artykuł o swoich odkryciach, został on poprzedzony przez wyjaśniający wstęp jednego z jego studentów, który powtórzył wykład mistrza w języku ekonomicznym. Mandelbrot wkrótce zmienił zainteresowania. Ale zabrał ze sobą wzrastającą determinację do badania zjawiska skalowania. Wydawało się ono jakością samą w sobie — jak podpis. * Wiele lat później, gdy przed wygłoszeniem jednego z wykładów został przedstawiony w następujący sposób 4: „Uczył ekonomii w Harvardzie, nauk technicznych w Yale, fizjologii w Einstein School of Medicine...”, zauważył wówczas dumnie: „Bardzo często, kiedy słucham listy moich poprzednich miejsc pracy, zastanawiam się, czy ja naprawdę istnieję. Przekrój takich
zbiorów jest z pewnością pusty”. Rzeczywiście od pierwszych dni w IBM Mandelbrot nie figurował na żadnej długiej liście różnych dziedzin. Zawsze był outsiderem stosującym nieortodoksyjne podejścia do niemodnych zakamarków matematyki, badającym dziedziny, w których był rzadko mile widziany, skrywającym swoje największe pomysły, by móc je publikować w swoich artykułach, przeżywającym tylko dzięki zaufaniu, jakiego udzielili mu jego pracodawcy w Yorktown Heights. Dokonał ataku na taką dziedzinę jak ekonomia, a potem wycofał się, zostawiając po sobie raczej dręczące pomysły niż dobrze ugruntowane zbiory prac naukowych. W historii chaosu Mandelbrot szedł swoją własną drogą. Jednak obraz rzeczywistości, jaki formował się w jego umyśle w roku 1960, ewoluował od osobliwości do całkowicie dojrzałej geometrii. Dla fizyków, którzy opierali się na pracach takich ludzi, jak Lorenz, Smale, Yorke i May, ten niepokorny matematyk pozostawał na uboczu, ale jego techniki i jego język stały się niepodzielną częścią ich nowej nauki. Ten opis nie zaskoczy nikogo, kto poznał Benoita Mandelbrota później, gdy posiadał już długą listę tytułów i zaszczytów, ale najlepiej można go zrozumieć jako uciekiniera. Urodził się w Warszawie 5 w 1924 roku, w rodzinie litewskiego Żyda. Jego ojciec był hurtownikiem odzieży, a matka dentystką. Zaalarmowana rzeczywistością geopolityczną rodzina przeniosła się w roku 1936 do Paryża, przyciągnięta tam częściowo przez wuja, Szolema Mandelbrojta, który był matematykiem. Kiedy rozpoczęła się wojna, rodzina stanęła ponownie w obliczu nazizmu, pozbyła się więc wszystkiego, z wyjątkiem kilku walizek, i dołączyła do strumienia uchodźców, tamującego szosy na południe od Paryża. W końcu dotarli do Tulle. Przez krótki czas Benoit był uczniem wytwórcy narzędzi, niepokojąco wyróżniającym się zarówno wzrostem, jak i wykształceniem. Był to czas
tragicznych przeżyć i strachu, jednak później słabo przypominał sobie własne cierpienie, zamiast tego pamiętał czasy, kiedy z pomocą przychodzili mu szkolni nauczyciele w Tulle i w innych miejscach. Wielu z nich było znaczącymi uczonymi, borykającymi się z trudnymi warunkami wojennymi. Generalnie, jego nauka była nieregularna i nieciągła. Twierdził, że nigdy nie uczył się alfabetu ani, co bardziej znaczące, tabliczki mnożenia powyżej pięciu. Ale miał talent. Kiedy Paryż został oswobodzony, zdał trwające miesiąc ustne i pisemne egzaminy wstępne do école Normale i école Polytechnique, mimo braku przygotowania. Pośród innych elementów w skład testu wchodził egzamin z rysunku, Mandelbrot odkrył w sobie talent: bez trudu skopiował Wenus z Milo. W części matematycznej zdołał rozwiązać zadania z algebry formalnej i rachunku całkowego za pomocą intuicji geometrycznej, ukrywając brak przygotowania. Uświadomił sobie, że o każdym problemie analitycznym mógł myśleć w kategoriach kształtu. Każdy kształt potrafił przekształcić, zmienić jego symetrię tak, że stawał się bardziej harmonijny. Często jego transformacje prowadziły bezpośrednio do rozwiązania analogicznych problemów. Z fizyki i chemii, gdzie nie mógł zastosować geometrii, miał słabe stopnie. Ale w matematyce problemy, z którymi nigdy nie umiałby się uporać, stosując właściwe techniki, znikały w obliczu jego biegłości w manipulowaniu kształtem. école Normale i école Polytechnique były elitarnymi szkołami niemającymi swoich odpowiedników w szkolnictwie amerykańskim. Razem kształciły mniej niż trzystu studentów rocznie, którzy później robili kariery naukowe na uniwersytetach francuskich lub jako urzędnicy państwowi. Mandelbrot zaczął w École Normale, mniejszej i o wyższym prestiżu, ale w ciągu kilku dni przeniósł się do Polytechnique. Był już wtedy zbiegiem od Bourbakiego 6.
Może nigdzie poza Francją, z jej miłością do autorytarnych akademii i odwiecznych reguł nauczania, Bourbaki nie mógłby się narodzić. Zaczął jako klub, założony w niespokojnych czasach pierwszej wojny światowej przez Szolema Mandelbrojta i garstkę innych młodych matematyków szukających sposobu przebudowy matematyki francuskiej. Wskutek wojny powstała luka demograficzna między profesorami uniwersytetów a studentami, która rozerwała tradycyjną ciągłość akademicką, i ci wspaniali młodzi ludzie wyruszyli, aby położyć nowe fundamenty pod matematykę. Nazwa grupy była żartem, nazwiskiem zapożyczonym ze względu na jego dziwne i atrakcyjne brzmienie, czego się później domyślono, od dziewiętnastowiecznego generała francuskiego greckiego pochodzenia. Bourbaki urodził się z żartu, ale żart wkrótce zniknął. Członkowie grupy spotykali się w sekrecie. Rzeczywiście, do dziś nie wszystkie ich nazwiska są znane. Liczba członków była ograniczona. Kiedy dany członek osiągnął wiek pięćdziesięciu lat, grupa wybierała następnego. Byli oni najlepszymi, najwspanialszymi spośród matematyków i ich wpływ wkrótce rozprzestrzenił się na cały kontynent. Po części Bourbaki powstał jako reakcja na naukę Poincarégo, wielkiego człowieka dziewiętnastego wieku, fantastycznie płodnego myśliciela, który nie martwił się zbytnio o formalną ścisłość. Poincaré powiedziałby: wiem, że to musi być prawda, więc dlaczego miałbym tego dowodzić. Bourbaki wierzył, że Poincaré pozostawił po sobie słabą bazę dla matematyki i grupa zaczęła pisać potężne traktaty naukowe, coraz bardziej zajadłe, zamierzając wprowadzić matematykę na właściwe tory. Analiza logiczna była zagadnieniem centralnym. Matematyk musiał zaczynać od niedających się obalić zasad pierwszych i wydedukować z nich wszystkie inne. Grupa kładła nacisk na pierwszeństwo matematyki przed innymi naukami i domagała się również odseparowania jej od innych nauk. Matematyka to matematyka —
nie można jej oceniać w kategoriach przydatności dla realnego świata fizycznego. I przede wszystkim Bourbakiści odrzucili stosowanie rysunków. Istnieje bowiem zawsze niebezpieczeństwo, że rysunki wprowadzą w błąd. Geometria nie była godna zaufania. Matematyka powinna być czysta, formalna i surowa. Takie zjawisko nie ograniczało się tylko do Francji. Również w Stanach Zjednoczonych matematycy oddalali się od potrzeb nauk fizycznych, tak jak artyści i pisarze przestali tworzyć dla przeciętnego odbiorcy. Zwyciężyła wrażliwość hermetyczna. Problemy matematyczne stały się samowystarczalne; metoda polegała na formalnej aksjomatyzacji. Matematyk mógł się chlubić tym, że jego praca nie wyjaśnia niczego w świecie ani w nauce. Dużo dobrego przyniosła taka postawa i matematycy cenili to. Steve Smale, nawet kiedy pracował nad ponownym zjednoczeniem matematyki i nauk przyrodniczych, wierzył tak mocno jak w nic innego, że matematyka powinna opierać się na sobie samej 7. Z samowystarczalnością nadeszła przejrzystość. A przejrzystość szła ręka w rękę ze ścisłością metody aksjomatycznej. Każdy poważny matematyk rozumie, że ścisłość jest siłą jego dziedziny, stalowym szkieletem, bez którego runęłoby wszystko. Ścisłość jest tym, co pozwala matematykom podążać wzdłuż linii myśli, która rozciąga się ponad wiekami, i całkiem pewnie ją rozwijać. Mimo to wymaganie ścisłości miało niezamierzone konsekwencje dla matematyki dwudziestego wieku. Dziedzina rozwijała się poprzez szczególny rodzaj ewolucji 8. Badacz natrafiał na problem i zaczynał od decyzji, jaką drogą iść dalej. Zdarzało się często, że decyzje dotyczyły wyboru pomiędzy drogą, która była matematycznie możliwa, i drogą, która była interesująca z punktu widzenia zrozumienia przyrody. Dla matematyka wybór był jasny: na jakiś czas zarzuci wszelkie oczywiste powiązania z przyrodą. W końcu jego student stanie przed podobnym wyborem i podejmie podobną decyzję.
Nigdzie nie były te wartości tak surowo skodyfikowane jak we Francji i tam Bourbaki święcił sukcesy niewyobrażalne dla jego fundatorów. Prawidła, styl i notacja Bourbakiego stały się obowiązujące. Uzyskał niekwestionowalną ścisłość, która pochodziła z wpływu na wszystkich najlepszych studentów i produkowania stałego strumienia świetnej matematyki. Jego dominacja w école Normale była totalna i dla Mandelbrota nieznośna. Uciekł z Normale z powodu Bourbakiego i dziesięć lat później uciekł z Francji z tejże przyczyny, przenosząc się do Stanów Zjednoczonych. W ciągu kilku dziesięcioleci bezwzględne abstrakcje Bourbakiego zaczęły umierać z powodu szoku związanego z wprowadzeniem komputera i jego zdolnościami do wspomagania nowej wzrokowej matematyki (ang. mathematic of the eye). Ale dla Mandelbrota, niezdolnego do życia z formalizmem Bourbakiego i niechętnie odrzucającego swoje intuicje geometryczne, nastąpiło to zbyt późno. * Zawsze skłonny do tworzenia swojego własnego mitu Mandelbrot dodał następujące zdanie do notatki o sobie w Who’s Who: „Nauka zginęłaby, gdyby stawiała (jak sport) na współzawodnictwo ponad wszystko i gdyby miała wyjaśniać reguły współzawodnictwa, żądając całkowitego zamknięcia się w wąsko określonych specjalnościach. Uczeni z rzadkiego rodzaju włóczęgów z wyboru są niezbędni, aby w klasycznych dziedzinach panowało dobre samopoczucie”. Ten włóczęga z wyboru, który również nazywał siebie pionierem z konieczności 9, wycofał się z akademii i z Francji, znajdując schronienie w IBM-owskim Thomas J. Watson Research Center. W swojej trzydziestoletniej podróży od mroku do wspaniałości nigdy nie czuł, że jego praca zostaje wchłonięta przez dyscypliny, do których została skierowana. Nawet matematycy będą mówili, bez widocznej złośliwości, że kimkolwiek
był Mandelbrot, nigdy nie był jednym z nich. Szukał swojej drogi powoli, zawsze pobudzany przez dziwaczną wiedzę z zapomnianej bocznej drogi historii nauki. Odważył się zapuścić w lingwistykę matematyczną, gdzie wyjaśnił prawo rozkładu słów. (Przepraszając za symbolikę, twierdził, że problem znalazł się w polu jego uwagi za sprawą książki, którą wyciągnął z kosza na śmieci jednego matematyka, żeby mieć coś do czytania podczas podróży paryskim metrem). Badał również teorię gier. Wkraczał także do i poza ekonomię. Pisał o regularnościach skali w rozkładzie wielkich i małych miast. Jednak generalnie pozostawał w tle, niekompletnie uformowany. W początkowym okresie swojej pracy w IBM, wkrótce po przeprowadzeniu badań nad cenami artykułów, sięgnął do praktycznego problemu, którym bardzo interesowała się jego korporacja. Inżynierowie byli oto zaintrygowani problemem szumów w liniach telefonicznych używanych do transmisji informacji od komputera do komputera. Prąd elektryczny przenosi informacje w dyskretnych pakietach i inżynierowie wiedzieli, że jeśli stosowali silniejszy prąd, to powinien on być przydatniejszy w eliminowaniu szumu. Ale stwierdzili, że pewnego spontanicznego szumu nie sposób wyeliminować. Od czasu do czasu był on zdolny do wymazania sygnału i w efekcie powstawało przekłamanie. Chociaż ze swojej natury szum transmisyjny jest przypadkowy, wiadomo, że rozchodzi się w gromadach. Po okresach bezbłędnej komunikacji następują okresy z błędami. Z rozmów z inżynierami Mandelbrot dowiedział się, że istniała pewna potoczna wiedza na temat błędów, której nigdy nie spisano, ponieważ nie pasowała do standardowego sposobu myślenia: im dokładniej przyglądano się gromadom, tym bardziej skomplikowany wydawał się układ błędów. Mandelbrot dostarczył sposób opisu rozkładu błędów, który przewidywał dokładnie obserwowany wzór. Jednak było to
niezmiernie osobliwe. Z tego powodu niemożliwe okazało się obliczenie średniej szybkości pojawiania się błędów — średniej liczby błędów na godzinę, minutę czy na sekundę. Średnio, w schemacie Mandelbrota, błędy stawały się nieskończenie rzadkie. Jego opis działał przez tworzenie coraz wyraźniejszego oddzielenia pomiędzy okresami czystej transmisji i okresami błędów. Załóżmy, że podzieliłeś dobę na godziny. Godzina mogła minąć bez żadnych błędów. Potem godzina mogła zawierać błędy. Potem godzina mogła przejść bez błędów. Ale załóżmy, że podzieliłeś godzinę z błędami na mniejsze okresy — dwudziestominutowe. Stwierdzisz, że tutaj znowu pewne okresy są zupełnie czyste, podczas gdy inne zawierają serie błędów. W rzeczywistości Mandelbrot dowodził wbrew intuicji, że nigdy nie znajdziesz czasu, w którym błędy są rozproszone w sposób ciągły. Wewnątrz każdej serii błędów, niezależnie od tego, jak krótkiej, zawsze będą okresy całkowicie wolne od błędów transmisji. Ponadto odkrył on spójny związek geometryczny pomiędzy seriami błędów a przestrzeniami bezbłędnej transmisji. Niezależnie od tego, czy w skali godzin czy sekund, proporcja okresów wolnych od błędów do okresów z błędami pozostaje stała. (Raz, ku przerażeniu Mandelbrota, partia wyników zdawała się przeczyć jego schematowi — ale okazało się, że inżynierowie nie zarejestrowali najbardziej ekstremalnych przypadków, przyjmując, że nie były one istotne). Inżynierowie nie byli przygotowani do zrozumienia opisu Mandelbrota, ale matematycy byli. W rezultacie Mandelbrot powtórzył abstrakcyjną konstrukcję znaną jako zbiór Cantora, nazwaną tak na cześć dziewiętnastowiecznego matematyka, Georga Cantora. Aby otrzymać zbiór Cantora, należy zacząć od odcinka liczb od zera do jeden reprezentowanego przez odcinek prostej. Następnie należy usunąć jedną trzecią odcinka ze
środka. Pozostaną dwa odcinki i trzeba usunąć jedną trzecią ze środka każdego z nich (od jednej dziewiątej do dwu dziewiątych i od siedmiu dziewiątych do ośmiu dziewiątych). Pozostaną w ten sposób cztery odcinki. Następnie usuwa się środkową jedną trzecią każdego z nich — i tak w nieskończoność. Co zostanie? Dziwna „chmura” punktów ustawionych w gromady — nieskończenie wiele, jednak nieskończenie rzadko. Mandelbrot myślał o błędach transmisji jako o zbiorze Cantora uporządkowanym w czasie. Ten wysoce abstrakcyjny opis miał praktyczną wartość dla naukowców, którzy próbowali wybrać pomiędzy różnymi strategiami kontrolowania błędów 10. W szczególności oznaczało to, że zamiast próbować zwiększyć siłę sygnału, aby zagłuszyć szum, inżynierowie powinni ustalić umiarkowany sygnał z akceptowalną liczbą nieuchronnych błędów i zastosować strategię redundancji do ich wychwytywania i korygowania. Mandelbrot zmienił również przypuszczenie inżynierów z IBM o przyczynie szumów. Serie błędów wywoływały u nich zawsze odruch poszukiwania człowieka, który wsadził gdzieś śrubokręt. Ale układ błędów sugerował, że szum nie mógłby być nigdy wyjaśniony na podstawie specyficznych lokalnych zdarzeń. Mandelbrot zajął się innymi danymi, tym razem na temat rzek. Egipcjanie przechowali zapisy poziomu Nilu przez tysiąclecia. Poziom wody w Nilu zmienia się na ogół w dużym zakresie. Rzeka wylewa mocno w pewnych latach i opada w innych. Mandelbrot podzielił efekty rządzące tym zjawiskiem na dwie kategorie, znane również w ekonomii, które nazwał efektami Noego i efektami Józefa 11.
BENOIT MANDELBROT
Zbiór Cantora. Zacznij od linii; usuń jedną trzecią ze środka; następnie usuń jedną trzecią ze środka każdego z pozostałych odcinków itd. Zbiór Cantora jest chmurą punktów, które pozostaną. Jest ich nieskończenie wiele, ale jego całkowita długość jest równa zeru. Paradoksalne właściwości takich konstrukcji niepokoiły dziewiętnastowiecznych matematyków, ale Mandelbrot zrozumiał, że zbiór Cantora jest modelem występowania błędów w elektronicznej linii transmisyjnej. Inżynierowie obserwowali okresy transmisji wolnej od błędów wymieszane z okresami, kiedy błędy pojawiają się seriami. Jeśli przyjrzeć się temu dokładniej, serie również zawierają okresy wolne od błędów. I tak dalej. Był to przykład czasu fraktalnego: w każdej skali, od godzin do sekund, Mandelbrot odkrył, że relacja błędów do czystej transmisji pozostaje stała. Taka chmura — utrzymywał — jest konieczna w modelowaniu intermitencji.
Efekt Noego oznacza nieciągłość: kiedy wielkość się zmienia, może się zmieniać prawie dowolnie szybko. Ekonomiści tradycyjnie wyobrażali sobie, że ceny zmieniają się gładko — szybko albo wolno, ale gładko w tym sensie, że przechodzą przez wszystkie pośrednie poziomy na swojej drodze od jednego do drugiego punktu. Koncepcja ruchu została zapożyczona z fizyki, jak wiele innej matematyki stosowanej w ekonomii. Ale to był błąd. Ceny mogą zmieniać się w natychmiastowych skokach, tak szybko jak nowe
wiadomości mogą przelecieć przez telewizyjne kable, zmieniając zamiary tysięcy maklerów giełdowych. Strategia giełdy papierów wartościowych byłaby skazana na porażkę, twierdził Mandelbrot, gdyby zakładać, że akcja mogłaby być sprzedana za 50 dolarów w jakimś punkcie na drodze od 60 do 10 dolarów. Efekt Józefa oznacza przetrwanie. „Oto nadchodzi siedem lat wielkiej obfitości w całej ziemi egipskiej. Po nich będzie siedem lat głodu” 12. Jeśli opowieść biblijna mówi o periodyczności, to jest to oczywiście uproszczenie. Ale powodzie i susze trwają. Mimo leżącej u podstaw tego zjawiska przypadkowości, im dłużej jakieś miejsce dotykała susza, tym bardziej prawdopodobne jest, że zjawisko będzie trwało jeszcze dłużej. Ponadto analiza matematyczna poziomu wody w Nilu wykazała, że trwanie stosuje się równie dobrze do wieków, jak i dziesięcioleci. Efekty Noego i Józefa działają w różnych kierunkach, ale jednoczą się w jednej sprawie: trendy w przyrodzie są realnymi zjawiskami, jednak mogą znikać równie szybko, jak się pojawiać. Zjawiska takie, jak nieciągłość, serie błędów, zbiór Cantora nie występowały w geometriach dwóch tysięcy lat. Kształtami klasycznej geometrii są: linie i płaszczyzny, koła i sfery, trójkąty i stożki. Reprezentują one potężne abstrakcje rzeczywistości i inspirowały potężną filozofię harmonii ustanowioną przez Platona. Euklides stworzył z tego geometrię — wciąż jedyną dla większości ludzi, której uczą się w życiu. Arystoteles odkrył w niej idealne piękno, a astronomowie ptolemeuszowscy budowali na jej podstawie teorie wszechświata. Ale okazało się, że dla zrozumienia złożoności nie są to dobre abstrakcje. „Chmury nie są sferami” — mawiał Mandelbrot 13. Góry nie są stożkami. Błyskawice nie biegną po liniach prostych. Nowa geometria odzwierciedla wszechświat, który jest raczej kanciasty niż zaokrąglony, raczej chropowaty
niż gładki. Jest to geometria obiektów dziobatych, krostowatych, połamanych, poskręcanych, pogmatwanych i poprzeplatanych. Zrozumienie natury złożoności nasuwało podejrzenie, że złożoność nie jest tylko przypadkowa. Wymagała ona wiary w to, że interesującą cechą toru błyskawicy, na przykład, nie był jego kierunek, ale raczej rozkład zygzaków. Mandelbrot w swojej pracy zawarł twierdzenie o wszechświecie, wedle którego takie dziwne kształty mają znaczenie. Dołki i gmatwanina są czymś więcej niż plamami wykrzywiającymi klasyczne kształty geometrii euklidesowej. Często sięgają do istoty rzeczy. Jaka jest, na przykład, istota linii brzegowej? Mandelbrot postawił to pytanie w pracy, która stała się punktem zwrotnym jego rozważań: „Jak długa jest linia brzegowa Wielkiej Brytanii?”. Mandelbrot zainteresował się problemem linii brzegowej, przeczytawszy niejasny pośmiertny artykuł mało znanego angielskiego naukowca, Lewisa F. Richardsona, który zgromadził zaskakująco wielką liczbę tematów, które później stały się częścią nauki o chaosie. W latach dwudziestych pisał o numerycznych prognozach pogody, studiował turbulencje płynów, wrzucając worek z białym pasternakiem do Cape Cod Canal, i zapytywał w pracy z 1926 roku: „Czy wiatr posiada prędkość?” („Problem, na pierwszy rzut oka głupi, zyskuje, gdy się z nim bliżej zapoznać” — pisał). Zastanawiając się nad wijącymi się liniami brzegowymi i granicami, Richardson sprawdził encyklopedie w Hiszpanii i Portugalii oraz Belgii i Holandii i odkrył sprzeczności sięgające dwudziestu procent oszacowanej linii ich wspólnej granicy 14.
RICHARD F. VOSS
Brzeg fraktalny. Komputerowo generowana linia brzegowa: szczegóły są przypadkowe, ale wymiar fraktalny jest stały, więc stopień chropowatości albo nieregularności wygląda tak samo, niezależnie od tego, jak bardzo obraz jest powiększony.
Analiza Mandelbrota w tej kwestii uderza czytelnika swoją bolesną oczywistością albo absurdalną fałszywością. Stwierdził, że większość ludzi odpowiada na to pytanie na jeden z dwu sposobów: „Nie wiem. To nie moja dziedzina” albo: „Nie wiem, ale spojrzę do encyklopedii”. Twierdził, że faktycznie dowolna linia brzegowa jest — w pewnym sensie — nieskończenie długa. W innym sensie odpowiedź zależy od długości twojego liniału. Rozważmy jedną z możliwych metod pomiaru. Geometra bierze cyrkiel, otwiera go na długość pół metra i odmierza nim długość wybrzeża. Ostateczna liczba metrów jest tylko aproksymacją prawdziwej
długości, ponieważ cyrkiel pomija zakręty i kształty mniejsze niż pół metra, ale geometra mimo to zapisuje tę liczbę. Następnie ustawia cyrkiel na mniejszą długość — powiedzmy dziesięć centymetrów — i powtarza pomiar. Otrzymuje w ten sposób nieco większą długość, ponieważ cyrkiel obejmie większe szczegóły wybrzeża i potrzeba będzie więcej niż pięć dziesięciocentymetrowych kroków, aby objąć odległość poprzednio objętą przez półmetrowy krok. Zapisuje tę liczbę, ustawia cyrkiel na dwa i pół centymetra i zaczyna od nowa. To doświadczenie myślowe z wyimaginowanym cyrklem jest sposobem ilościowego ujęcia obserwacji obiektu z różnych odległości, w różnych skalach. Obserwator, próbując oszacować długość wybrzeża Anglii z satelity, zrobi gorsze oszacowanie niż obserwator próbujący obejść zatoczki i plaże, który z kolei zrobi gorsze oszacowanie niż ślimak obchodzący każdy kamyk. Chociaż te oszacowania będą coraz większe, zdrowy rozsądek podpowiada, że będą one zmierzać do jakiejś szczególnej wartości granicznej, prawdziwej długości wybrzeża. Innymi słowy, pomiary powinny być zbieżne. I faktycznie, jeśli linia brzegowa miałaby jakiś euklidesowy kształt, taki jak koło, to suma coraz drobniejszych odcinków linii prostej rzeczywiście byłaby zbieżna. Ale Mandelbrot stwierdził, że gdy skala pomiarów staje się mniejsza, mierzona długość linii brzegowej rośnie bez granic: zatoki i półwyspy ujawniają jeszcze mniejsze subzatoki i subpółwyspy — co najmniej do atomowej skali, gdzie ostatecznie proces się kończy. Może. * Ponieważ euklidesowe pomiary — długość, głębokość, grubość — nie obejmowały istoty nieregularnych kształtów, Mandelbrot zwrócił się ku nowej idei, idei wymiaru. Wymiar jest cechą dużo bardziej żywą dla
naukowców niż dla laików. Żyjemy w trójwymiarowym świecie, co oznacza, że potrzebujemy trzech liczb do określenia położenia punktu: na przykład długości, szerokości i wysokości. Trzy wymiary przedstawiane jako kierunki ustawione pod kątem prostym wzajemnie do siebie. Jest to wciąż spadek po geometrii euklidesowej, gdzie przestrzeń ma trzy wymiary, płaszczyzna — dwa, linia — jeden, a punkt — zero. Proces abstrahowania 15, który pozwolił Euklidesowi wpaść na pomysł jedno-, dwu- i trójwymiarowych obiektów, przenosi się łatwo na obiekty codziennego użytku. Mapa drogowa jest praktycznie dwuwymiarowym obiektem, fragmentem płaszczyzny. Używa ona swoich dwóch wymiarów do przeniesienia informacji, które są wyłącznie dwuwymiarowe. W rzeczywistości mapy drogowe są oczywiście tak samo trójwymiarowe jak wszystko inne, ale ich grubość jest mała (i nie jest związana z ich przeznaczeniem), tak że może nie być brana pod uwagę. W efekcie mapa drogowa pozostaje dwuwymiarowa, nawet kiedy jest pofałdowana. W ten sam sposób nitka jest praktycznie jednowymiarowa, a punkt nie ma w ogóle wymiaru. Zatem, jaki jest wymiar kłębka szpagatu? Mandelbrot odpowiedział na to: „To zależy od twojego punktu widzenia. Z wielkiej odległości kłębek jest tylko punktem z zerowym wymiarem. Z mniejszej odległości kłębek wydaje się wypełniać sferyczną przestrzeń — ma trzy wymiary. Z jeszcze mniejszej zauważamy sznurek i obiekt staje się efektywnie jednowymiarowy, chociaż ten jeden wymiar jest z pewnością poplątany wokół siebie w ten sposób, że wypełnia trójwymiarową przestrzeń”. Pojęcie liczby współrzędnych potrzebnych do określenia położenia punktu w obrębie tego obiektu pozostaje użyteczne 16. Z dużej odległości nie potrzeba żadnej — punkt jest tam, gdzie jest. Z mniejszej odległości potrzeba trzech. Z jeszcze mniejszej wystarczy tylko jeden — dana pozycja wzdłuż długości sznurka jest unikatowa
niezależnie od tego, czy sznurek jest rozciągnięty, czy splątany w kłębek. I z perspektywy mikroskopowej: sznurek przekształca się w trójwymiarowe kolumny, kolumny rozwiązują się w jednowymiarowe włókna, lity materiał rozpada się na zerowymiarowe punkty. Mandelbrot odwołał się niematematycznie do teorii względności: „Pogląd, że wynik numeryczny powinien zależeć od relacji obiektu do obserwatora, odpowiada duchowi fizyki tego stulecia i jest nawet jego wzorcową ilustracją”. Ale zostawiając filozofię na boku, efektywny wymiar obiektu okazuje się czymś różnym od zwyczajnej trójwymiarowości. Słabością wypowiedzi Mandelbrota jest chyba jej oparcie na niejasnych pojęciach: ,,z dużej odległości”, „trochę bliżej”. A co pomiędzy? Oczywiście nie ma wyraźnej granicy, poza którą sznurek z trzech wymiarów przeskakuje do jednego. Jednak źle określona natura tych przejść doprowadziła do nowej idei wymiaru. Mandelbrot wyszedł poza wymiary 0, 1, 2, 3... do czegoś, co wydawało się niemożliwe — do wymiaru ułamkowego. Pojęcie to jest konceptualnie karkołomne. Od niematematyków wymaga ono, by powstrzymać się od niedowierzania. Jednak okazuje się, że ma niezwykłą moc. Ułamkowy wymiar staje się sposobem mierzenia jakości, która w innej sytuacji nie mogłaby być jasno określona: stopnia chropowatości, nierówności albo nieregularności danego obiektu. Wijąca się linia brzegowa, na przykład, mimo swojej niemierzalności w kategoriach długości, ma pewnien charakterystyczny stopień chropowatości. Mandelbrot podał sposób obliczania wymiaru ułamkowego rzeczywistych obiektów, jeżeli dane są pewne techniki konstruowania kształtu albo pewne wyniki, i pozwolił swojej geometrii wypowiedzieć się o nieregularnych strukturach, które badał w naturze: stopień nieregularności pozostaje stały w różnych skalach. Zaskakująco często pogląd ten okazuje się prawdziwy. Coraz to świat
ujawnia jakąś regularną nieregularność. Pewnego zimowego popołudnia w roku 1975 17, świadom równoległych prądów pojawiających się w fizyce, Mandelbrot przygotowując swoją pierwszą większą publikację książkową, uznał, że potrzebuje nazwy dla swoich kształtów, wymiarów i geometrii. Jego syn właśnie wrócił ze szkoły i Mandelbrot zaczął przeglądać jego słownik łaciński. Doszedł do przymiotnika fractus od słowa frangere — łamać. Rezonans z głównymi angielskimi odpowiednikami — fracture (złamanie) i fraction (ułamek) — wydał mu się odpowiedni. Stworzył więc słowo (rzeczownik i przymiotnik) fractal (fraktal i fraktalny). Fraktal jest sposobem widzenia nieskończoności okiem duszy. Wyobraź sobie trójkąt, którego każdy bok ma metr długości. Teraz wyobraź sobie pewną transformację — szczególny, dobrze określony, łatwo powtarzalny zbiór reguł. Weź jedną trzecią ze środka każdego boku i dołącz w tym miejscu nowy trójkąt, identyczny co do kształtu, ale trzykrotnie mniejszy. Wynikiem jest gwiazda Dawida. Zamiast trzech jednometrowych segmentów, obwód tej figury składa się teraz z dwunastu 1/3-metrowych odcinków. Zamiast trzech wierzchołków mamy teraz sześć. Teraz weźmy każdy z dwunastu boków i powtórzmy transformację, dołączając mniejsze trójkąty do środkowej części. I znowu, i tak dalej w nieskończoność. Obwód ma coraz więcej szczegółów, podobnie jak zbiór Cantora staje się coraz rzadszy. Przypomina rodzaj idealnego płatka śniegowego. W literaturze naukowej znany jest pod nazwą krzywa Kocha (krzywą jest każda linia zarówno prosta, jak i zakrzywiona), nadaną na cześć szwedzkiego matematyka, Helgego von Kocha, który opisał ją w 1904 roku.
BENOIT MANDELBROT
Płatek śniegu Kocha. Według słów Mandelbrota — „niedoskonały, ale poglądowy model linii brzegowej”. Aby skonstruować krzywą Kocha, zacznij od trójkąta z bokami o długości 1. W środku każdego boku dodaj nowy trójkąt trzy razy mniejszy itd. Długość brzegu wynosi 3 x 4/3 x 4/3 x ... — w nieskończoność. Jednak powierzchnia pozostaje mniejsza niż powierzchnia koła narysowanego wokół oryginalnego trójkąta. Zatem nieskończenie długa linia otacza skończoną powierzchnię.
Po zastanowieniu staje się jasne, że krzywa Kocha ma pewne interesujące cechy. Jest to ciągła pętla, nigdy nieprzecinająca się, ponieważ nowe trójkąty po każdej stronie zawsze są dostatecznie małe, aby uniknąć wzajemnych zderzeń. Każda transformacja dodaje niewielką powierzchnię do wnętrza krzywej, ale ogólna powierzchnia pozostaje skończona, faktycznie niewiele większa niż wyjściowy trójkąt. Jeśli narysujesz koło wokół wyjściowego trójkąta, krzywa Kocha nigdy nie wyjdzie poza nie. Jednak sama krzywa Kocha jest nieskończenie długa, tak długa jak linia prosta rozciągająca się do krańców nieograniczonego wszechświata.
Ponieważ pierwsze przekształcenie powoduje zastąpienie 1-metrowego boku przez cztery 1/3-metrowe boki, każde następne powoduje pomnożenie całkowitej długości przez 4/3. Ten paradoksalny wynik, nieskończona długość na skończonej powierzchni, niepokoił wielu matematyków z przełomu wieku, którzy o nim myśleli. Krzywa Kocha była monstrum, nierespektującym żadnych rozsądnych intuicji dotyczących kształtu i — co rozumiało się samo przez się — była patologicznie niepodobna do niczego, co stwierdzono w przyrodzie. W tych warunkach ich prace nie wywołały wielkiego wstrząsu, ale kilku równie upartych matematyków wyobraziło sobie inne kształty mające pewne osobliwe właściwości krzywej Kocha. Były to krzywe Peana. Były to dywan i uszczelka Sierpińskiego 18. Aby wygenerować dywan, zacznij od kwadratu, podziel go na dziewięć równych kwadratów i usuń centralny. Potem powtórz tę operację z każdym z ośmiu pozostałych, zostawiając kwadratową dziurę w centrum każdego z nich. Uszczelka jest konstruowana w podobny sposób, ale z trójkątów równobocznych zamiast kwadratów; ma ona trudno wyobrażania cechę polegającą na tym, że każdy punkt jest rozgałęzieniem, rozwidleniem struktury. Trudno to sobie wyobrazić, dopóki nie pomyślisz o wieży Eiffla 19, dobrym trójwymiarowym przybliżeniu uszczelki Sierpińskiego: jej belki, kraty i dźwigary rozgałęziają się w coraz drobniejsze kraty, w lśniącą sieć drobnych szczegółów. Eiffel oczywiście nie mógłby ciągnąć tego schematu w nieskończoność, ale docenił tę subtelną kwestię techniczną, która pozwoliła mu zmniejszyć ciężar wieży bez zmniejszania wytrzymałości konstrukcji. Umysł nie może wyobrazić sobie całej nieskończonej samozanurzającej się złożoności. Ale dla kogoś z geometrycznym sposobem myślenia ten rodzaj powtarzania się struktury w coraz mniejszej skali może otworzyć wrota na cały świat. Badanie tych kształtów, wciskanie myślowe palców w gumowe
krawędzie ich możliwości były rodzajem zabawy, którą Mandelbrot radował się, widząc osobliwości, jakich przed nim nikt nie dostrzegł i nie rozumiał. Kiedy nie miały nazwy, nadawał im swoje: powróz i prześcieradło, gąbka i piana, twaróg i uszczelka. Wymiar fraktalny okazał się właściwą miarą. W pewnym sensie stopień nieregularności odpowiadał skuteczności obiektu w wypełnianiu przestrzeni. Prosta euklidesowa, jednowymiarowa linia, nie wypełnia przestrzeni w ogóle. Ale obwód krzywej Kocha, z nieskończoną długością pełzającą po skończonej powierzchni, wypełnia przestrzeń. Jest czymś więcej niż linią, jednak mniej niż płaszczyzną. Ma więcej niż jeden wymiar, ale mniej niż dwa. Stosując techniki pochodzące od matematyków z początków wieku 20 (potem prawie zapomniane), Mandelbrot był w stanie precyzyjnie określić wymiar ułamkowy. Dla krzywej Kocha, nieskończenie rozciągniętego mnożenia przez cztery trzecie, wymiar wynosi 1,2618. Idący tym śladem Mandelbrot miał dużą przewagę nad kilkoma innymi matematykami, którzy myśleli już nad takimi kształtami. Przede wszystkim miał nieograniczony dostęp do komputerów, które wiązały się z nazwą IBM. Było to wszak zadanie idealnie pasujące do „szybkiego idioty”, jakim jest komputer. Gdy meteorologowie musieli wykonywać tych kilka obliczeń w milionach blisko siebie leżących punktów w atmosferze, Mandelbrot musiał wciąż powtarzać te same łatwo programowalne przekształcenia. Przekształcenia mogły powstać w jego wyobraźni. Komputer mógł je narysować — czasami dostarczając niespodziewanych wyników. Matematycy z początków dwudziestego wieku szybko osiągnęli barierę trudnych obliczeń, barierę podobną do tej, którą napotkali protobiologowie, nie mając do dyspozycji mikroskopu. W badaniu coraz drobniejszych szczegółów wszechświata wyobraźnia może wspomagać nas tylko do pewnego momentu.
BENOIT MANDELBROT
Konstrukcja z dziurami. Kilku matematyków na początku dwudziestego wieku stworzyło monstrualnie wyglądające obiekty wykonane technikami dodawania albo usuwania wielu części. Jednym z nich był dywan Sierpińskiego, skonstruowany przez wycinanie centralnej jednej dziewiątej części kwadratu; następnie wycięcie środków z ośmiu mniejszych kwadratów, które pozostały, itd. Trójwymiarowym odpowiednikiem dywanu Sierpińskiego jest gąbka Mengera, solidnie wyglądająca sieć, która ma nieskończone pole, jednak zerową objętość.
„Przez stuletni okres rysowanie nie odgrywało żadnej roli w matematyce, ponieważ ręka, ołówek i liniał «zostały wyczerpane». Wszystkie zagadnienia z nimi związane były dobrze zrozumiałe i nie interesowano się nimi. A komputery nie istniały. Kiedy zacząłem tę zabawę, zauważyłem, że nikt nie stosuje intuicji. Intuicję trzeba było tworzyć od początku. Intuicji wyćwiczonej za pomocą różnych narzędzi — ręki, ołówka i liniału — kształty fraktalne jawiły się jako monstrualne i patologiczne. Stara intuicja wprowadzała w błąd. Pierwsze rysunki były dla mnie zaskoczeniem; potem rozpoznawałem pewne struktury z poprzednich struktur i tak dalej. Intuicja nie jest czymś danym. Swoją intuicję ćwiczyłem, aby potrafiła zaakceptować oczywiste kształty, które były początkowo odrzucane jako absurdalne, i stwierdziłem, że każdy może czynić tak samo 21”. Mandelbrot górował nad innymi również tym, że jego obraz świata zaczął się formować na bazie wyników analiz cen bawełny, szumów w transmisji elektronicznej i wylewów rzek. Obraz ten później stał się wyraźniejszy. Jego studia nad nieregularną strukturą naturalnych procesów i jego badania nieskończenie skomplikowanych kształtów krzyżowały się wzajemnie w jednym punkcie: właściwościach samopodobieństwa. Nade wszystko fraktalny znaczy samopodobny. Samopodobieństwo jest symetrią względem skali. Pociąga za sobą powtarzanie się struktury wewnątrz struktury. Wykres cen i wykres wylewów wykazywały samopodobieństwo, ponieważ nie tylko tworzyły szczegóły w coraz mniejszej skali, ale również produkowały szczegóły z określonym stałym wymiarem. Monstrualne kształty, takie jak krzywa Kocha, wykazują samopodobieństwo, ponieważ wyglądają tak samo nawet przy maksymalnym powiększeniu. Samopodobieństwo jest wbudowane w procedurę konstruowania krzywych — ta sama transformacja jest powtarzana w coraz
mniejszej skali. Samopodobieństwo jest łatwo rozpoznawalną cechą. Jego manifestacje można znaleźć wszędzie w naszej kulturze: w nieskończenie głębokim odbiciu osoby stojącej między dwoma lustrami albo w rysunku ryby jedzącej mniejszą rybę jedzącą mniejszą rybę jedzącą mniejszą rybę jedzącą mniejszą rybę... Mandelbrot lubił cytować Jonathana Swifta: Przeto, jak wynika ze spostrzeżeń naturalistów, pchła Mniejsze pchły ma, które żerują na niej, A te znów gryzą jeszcze mniejsze, I tak to trwa ad infinitum. (przeł. Marek Obarski)
W północno-wschodnich Stanach Zjednoczonych najlepszym miejscem do badania trzęsień ziemi jest Lamont-Doherty Geophysical Observatory, grupa nierobiących dobrego wrażenia budynków ukrytych w lasach południowej części stanu Nowy Jork, nieco na zachód od Hudson River 22. W LamontDoherty Christopher Scholz, profesor z Columbia University, specjalizujący się w zagadnieniach formy i struktury ziemi, pierwszy zaczął myśleć o fraktalach. Podczas gdy matematycy i fizycy teoretycy zlekceważyli pracę Mandelbrota, Scholz okazał się pragmatykiem, czynnym naukowcem, który gotów był zastosować geometrię fraktalną. Zetknął się on z nawiskiem Benoita Mandelbrota w latach sześćdziesiątych, kiedy ten pracował w ekonomii, a Scholz był pilnym studentem MIT poświęcającym czas na trudny problem trzęsień ziemi. Było wiadomo od dwudziestu lat, że rozkład wielkich i małych trzęsień ziemi układa się według pewnego szczególnego matematycznego schematu, według dokładnie takiego samego schematu, który wydawał się rządzić rozkładem dochodów osobistych na wolnym rynku ekonomicznym. Ten rozkład był obserwowany wszędzie na Ziemi,
gdziekolwiek liczono i mierzono trzęsienia ziemi. Rozważając, jak skądinąd nieregularne i nieprzewidywalne są trzęsienia ziemi, warto było zapytać, jakie procesy fizyczne mogłyby wyjaśnić tę regularność. Tak przynajmniej zdawało się Scholzowi. Większość bowiem sejsmologów zarejestrowałaby ten fakt i przeszłaby nad nim do porządku. Scholz pamiętał nazwisko Mandelbrota i w 1978 roku kupił bogato ilustrowaną, dziwacznie naukową i naszpikowaną równaniami książkę pt. Fractals: Form, Chance and Dimension. Była ona tak napisana, jak gdyby Mandelbrot chciał zgromadzić w jednym tomie, przeskakując z tematu na temat, wszystko, co wiedział albo podejrzewał o wszechświecie. W ciągu kilku lat książka ta i jej rozszerzona i lepsza wersja pt. The Fractal Geometry of Nature zostały sprzedane w znacznie większej liczbie egzemplarzy niż inne książki z matematyki wyższej. Jej styl był zawiły i denerwujący, na przemian dowcipny, literacki lub niejasny. Sam Mandelbrot nazywał ją „manifestem i księgą przypadków” 23. Scholz, podobnie jak garstka innych naukowców, którzy pracowali na materiale naturalnym w kilku dziedzinach, spędził wiele lat, próbując wyobrazić sobie, jak można wykorzystać wiedzę zawartą w tej książce. Nie było to wcale łatwe. Dzieło, jak to przedstawił Scholz, mówiło „nie o tym, jak to zrobić, ale było w stylu «o ho, ho! jakie to świetne»”. Scholz jednak bardzo zainteresował się powierzchniami, te zaś były przywoływane na każdej stronie. Odkrył, że nie może przestać myśleć o możliwościach wynikających z idei Mandelbrota. Zaczął powoli wypracowywać sposób stosowania fraktali do opisu, klasyfikacji i pomiaru fragmentów swojego naukowego świata. Wkrótce stwierdził, że nie jest sam, chociaż było to ładnych parę lat przed okresem, kiedy zaczęły się gwałtownie mnożyć konferencje i seminaria na temat fraktali. Unifikujące idee geometrii fraktalnej zgromadziły
naukowców, którzy uważali, że ich własne obserwacje są idiosynkratyczne, i którzy nie znali żadnej systematycznej ich klasyfikacji. Idea geometrii fraktalnej pomogła naukowcom, którzy badali sposób, w jaki rzeczy się ze sobą zespalają, jak się rozdzielają albo jak się rozpadają. Jest to metoda patrzenia na materiały — mikroskopowo postrzępione powierzchnie metali, drobne otworki i kanały porowatych skał roponośnych, porozrywane krajobrazy stref objętych trzęsieniem ziemi. Według Scholza sprawą geofizyków jest opisywanie powierzchni Ziemi, powierzchni, której przecięcie się z płaskim oceanem wyznacza linię brzegową lądów. Na litej skorupie Ziemi występują również powierzchnie innego rodzaju, powierzchnie pełne szczelin. Uskoki i pęknięcia tak dominują na powierzchni globu, że są one kluczem do właściwego jego opisu, ważniejszym niż materiał, z którego zbudowane są dane fragmenty Ziemi. Pęknięcia przecinają powierzchnię naszej planety w trzech wymiarach, tworząc coś, co Scholz nazwał cudacznie „schizosferą”. Kontrolują one przepływ płynów przez grunt — wody, ropy i naturalnych gazów. Regulują również występowanie trzęsień ziemi. Zrozumienie powierzchni było najważniesze, jednak Scholz wierzył, że jego zawód jest zagrożony. Rzeczywiście, nie istniał żaden model, w ramach którego można by opisać pęknięcia powierzchni. Geofizycy traktowali powierzchnie tak jak każdy — jako formy o pewnych kształtach. Powierzchnia mogła być płaska. Albo mogła mieć szczególny kształt. Można patrzeć na linię volkswagena „garbusa”, i narysować tę powierzchnię w postaci krzywej, która mogłaby być mierzona w sposób euklidesowy. Można by nawet znaleźć równanie, które ją opisuje. W opisie Scholza patrzyłbyś na tę powierzchnię w wąskim paśmie widmowym; przypominałoby to oglądanie wszechświata przez czerwony filtr — widzisz, co się dzieje w zakresie tej szczególnej długości fali, ale tracisz
wszystko, co się dzieje w zakresie innych barw, nie wspominając już o widmie odpowiadającym promieniowaniu podczerwonemu albo falom radiowym. Widmo w tej analogii odpowiada skali. Myślenie o powierzchni volkswagena w kategoriach jego kształtu euklidesowego jest rozważaniem go w skali obserwatora w odległości dziesięciu lub stu metrów. A co z obserwatorem w odległości jednego kilometra albo stu kilometrów? A co z obserwatorem w odległości jednego milimetra albo jednego mikrona? Wyobraźmy sobie obserwowanie powierzchni Ziemi z kosmosu z odległości stu kilometrów. Linia idzie w górę i dół ponad drzewami i wzgórzami, budynkami i — w miejscu do parkowania — nad volkswagenem. W tej skali jego powierzchnia jest przypadkowym wybrzuszeniem wśród innych wybrzuszeń. Albo wyobraźmy sobie, że patrzymy na volkswagena z coraz mniejszej odległości, powiększając go za pomocą soczewki i mikroskopu. W pierwszym momencie powierzchnia wydaje się gładka, kiedy krągłość zderzaków i maski znika z pola widzenia. Ale potem powierzchnia mikroskopowa stali okazuje się znowu przypadkowo guzowata. Wydaje się chaotyczna. Scholz stwierdził, że geometria fraktalna dostarcza potężnego narzędzia poznawczego pozwalającego na opisywanie poszczególnych wybrzuszeń powierzchni Ziemi, a metalurgowie odkryli to samo w przypadku powierzchni różnych rodzajów stali. Wymiar fraktalny powierzchni metalu, na przykład, często dostarcza informacji, która odpowiada wytrzymałości tego metalu. A wymiar fraktalny powierzchni Ziemi również dostarcza wskazówek co do ważnych jej właściwości. Scholz myślał o klasycznych formacjach geologicznych — osypiskach na stokach gór. Z pewnej odległości osypisko takie jest formą euklidesową, wymiar 2. Gdy geolog zbliża się, łapie się jednak na tym, że spaceruje nie tyle na osypisku, ile w nim — rozdzieliło się ono bowiem na głazy narzutowe wielkości
samochodów. Jego efektywny wymiar staje się równy 2,7, ponieważ powierzchnia skał prawie wypełnia trójwymiarową przestrzeń, wisi nad nią i owija się wokół niej jak powierzchnia gąbki. Opis fraktalny znalazł bezpośrednie zastosowanie przy rozwiązywaniu serii problemów związanych z właściwościami powierzchni pozostających we wzajemnym kontakcie. Kontakt pomiędzy bieżnikiem opony a betonem jest takim właśnie problemem. To samo dotyczy kontaktu w sprzęgłach maszyn albo kontaktu przewodników elektrycznych. Kontakty pomiędzy powierzchniami mają właściwości zupełnie niezależne od materiałów, z których są zbudowane. Są to właściwości, które okazały się zależne od fraktalnej jakości wybrzuszeń na wybrzuszeniach. Prostą, ale ważną konsekwencją geometrii fraktalnej powierzchni jest fakt, że powierzchnie w kontakcie nie dotykają się w każdym punkcie. Udaremniają to wybrzuszenia obecne we wszystkich skalach. Nawet w materiale skalnym, znajdującym się pod potężnym ciśnieniem, w pewnej dostatecznie małej skali staje się oczywiste, że pozostały szczeliny pozwalające na wypływ płynów. Scholz nazywa to efektem kulfona. Z tego powodu dwa fragmenty pękniętej filiżanki do herbaty nigdy nie mogą być złączone ponownie, mimo że w dużej skali wydają się pasować do siebie doskonale. W mniejszej skali nieregularne wybrzuszenia nie zgadzają się ze sobą. Scholz stał się znany w swojej dziedzinie jako jeden z grupki ludzi zajmujących się geometrią fraktalną. Wiedział, że kilku jego kolegów traktuje tę małą grupę jak dziwaków. Jeśli używał słowa „fraktal” w tytule pracy, czuł, że albo uznawano, iż jest cudownie na bieżąco, albo że — mniej cudownie — ryzykuje jak jadący na stopniach wagonu gapowicz. Nawet pisanie prac wymagało trudnej decyzji: albo musiał pisać dla wąskiego grona fraktalnego towarzystwa wzajemnej adoracji, albo dla szerszego grona geofizyków, które wymaga wyjaśnień na elementarnym poziomie. Jednak
Scholz uważał stosowanie geometrii fraktalnej za niezbędne. „Jest to jedyny model, który pozwala nam zmagać się z obfitością różnych wymiarów występujących na Ziemi — powiedział. — Daje on narzędzia matematyczne i geometryczne pozwalające na opisywanie i stawianie hipotez. Gdy raz uda ci się pokonać barierę i zrozumiesz paradygmat, możesz zacząć faktycznie mierzyć rzeczy i myśleć o nich w nowy sposób. Widzisz je zupełnie inaczej. Masz nowe spojrzenie. Jest zupełnie inne niż stare spojrzenie — jest dużo szersze” 24. Jakie to duże? Jak to długo trwa? — są to dwa najbardziej podstawowe pytania dotyczące jakiegoś obiektu, które może zadać naukowiec. Są one tak podstawowe w stosunku do sposobu, w jaki ludzie pojmują świat, że łatwo przeoczyć, iż pociągają za sobą pewne uprzedzenie. Sugerują, że wielkość i czas trwania, właściwości, które zależą od skali, są właściwościami, które mogą pomóc opisać obiekt lub go zaklasyfikować. Kiedy biolog opisuje istotę ludzką albo fizyk opisuje kwark, pytania: jak duży i jak długo są rzeczywiście właściwymi pytaniami. W swojej strukturze fizycznej zwierzęta są bardzo mocno związane ze szczególną skalą. Wyobraźmy sobie istotę ludzką przeskalowaną tak, że jest dwa razy większa, przy zachowaniu swoich proporcji: jest to struktura, która załamie się pod ciężarem własnych kości. Skala jest ważna. Fizyka trzęsienia ziemi jest na ogół niezależna od skali. Wielkie trzęsienie ziemi jest tylko przeskalowaną wersją małego trzęsienia. To odróżnia trzęsienia ziemi od zwierząt: na przykład trzydziestocentymetrowe zwierzątko musiałoby być zbudowane zupełnie inaczej od trzycentymetrowego, a trzymetrowe zwierzę wymaga jeszcze innej architektury, jeśli kości zwierzęcia nie mają się załamać pod jego ciężarem. Z drugiej strony chmury są zjawiskami skalowalnymi tak jak trzęsienia ziemi. Ich charakterystyczna nieregularność — opisywalna w ramach
geometrii na fraktalach — nie zmienia się wcale, gdy obserwuje się je w różnych skalach. Z tego powodu podróżujący po podniebnych drogach tracą wszelką orientację co do odległości, w jakiej znajdują się chmury. Bez pomocy takich wskazówek jak zamglenie, chmura znajdująca się w odległości 6 metrów od nas może być nieodróżnialna od chmury znajdującej się w odległości 600 metrów. Istotnie, analiza zdjęć satelitarnych wykazała niezmienniczość wymiaru fraktalnego chmur obserwowanych z odległości setek mil. Trudno przełamać przyzwyczajenie do myślenia o przedmiotach w kategoriach, jakie są one duże i jak długo trwają. Ale geometria fraktalna twierdzi, że w przypadku pewnych elementów przyrody szukanie charakterystycznej skali staje się szaleństwem. Weźmy, na przykład, huragan. Z definicji jest to burza o określonej wielkości. Ale definicja ta została narzucona przyrodzie przez ludzi. W rzeczywistości meteorologowie zdają sobie sprawę z tego, że zaburzenie w atmosferze tworzy kontinuum od wirującego tumanu kurzu w mieście na rogu ulicy aż do potężnych cyklonów widzialnych z kosmosu. Klasyfikacja jest myląca. Pomiędzy granicami kontinuum jest nieskończenie wiele punktów. Tak się składa, że równania przepływu płynów są w wielu aspektach bezwymiarowe, co znaczy, że stosują się bez względu na skalę. Przeskalowane skrzydła samolotu i turbina statku mogą być testowane w tunelach aerodynamicznych albo w basenach laboratoryjnych. I — z pewnymi ograniczeniami — małe burze działają jak wielkie sztormy. Naczynia krwionośne, od aorty do naczyń włosowatych, tworzą inny rodzaj kontinuum. Rozgałęziają się i dzielą, i znowu rozgałęziają, aż stają się tak wąskie, że komórki krwi są zmuszone prześlizgiwać się gęsiego. Natura ich rozgałęziania jest fraktalna. Ich struktura przypomina jeden z monstrualnych, urojonych obiektów wymyślonych przez
mandelbrotowskich matematyków z przełomu wieku. Zgodnie z fizjologiczną koniecznością naczynia krwionośne muszą wykonywać rodzaj sztuczki z wymiarem. Tak jak krzywa Kocha ściska linię o nieskończonej długości do małego obszaru, tak układ krwionośny musi ścisnąć potężną powierzchnię w ograniczonej objętości. Krew jako źródło zaopatrzenia ciała jest droga, a przestrzeń jest ceniona. Struktura fraktalna przyrody wymyśliła to tak skutecznie, że — w większości tkanek — żadna komórka nie jest dalej od naczynia krwionośnego niż o trzy, cztery komórki. Przy tym naczynia i krew zajmują niewielką przestrzeń, nie więcej niż pięć procent ciała. Jest to, jak przedstawił Mandelbrot, syndrom kupca z Wenecji: nie tylko nie możesz wziąć pół kilograma ciała bez rozlewu krwi, nie możesz wziąć nawet miligrama. Ta znakomita struktura — w rzeczywistości dwa posplatane drzewa żył i tętnic — nie jest wyjątkowa. Ciało jest wypełnione takimi złożonościami. W przewodzie pokarmowym tkanki ujawniają fałdy wewnątrz fałd. Płuca również potrzebują największej możliwej powierzchni mieszczącej się w najmniejszej objętości. Zdolność zwierzęcia do absorbowania tlenu jest z grubsza proporcjonalna do powierzchni jego płuc. Typowe płuca człowieka mają powierzchnię większą niż kort tenisowy. Do tego trzeba dodać labirynt tchawicy, który musi się skutecznie stapiać z tętnicami i żyłami. Każdy student medycyny wie, że płuca dążą do zajęcia jak największej powierzchni. Ale anatomowie są nauczeni patrzenia w danej chwili i w jednej skali — na przykład na miliony pęcherzyków płucnych, mikroskopijnych torebek, które kończą sekwencję rozgałęziającej się tchawicy. Język anatomii dąży do zasłonięcia tej jedności we wszystkich skalach. Geometria fraktalna przeciwnie — obejmuje całą strukturę razem z odgałęzieniami, które ją tworzą i które zachowują się spójnie zarówno w wielkiej skali, jak i małej. Anatomowie badali układ naczyń krwionośnych, klasyfikując je według ich
wielkości na tętnice, tętniczki, żyły i żyłki. W pewnych celach te kategorie okazały się użyteczn, ale w innych są mylące. Niekiedy podręcznik balansuje na krawędzi prawdy: „W stopniowym przechodzeniu od jednego do drugiego typu tętnic trudne jest czasami klasyfikowanie pośredniego regionu. Czasem tętnice pośredniej kategorii mają ściany sugerujące, iż są to większe tętnice, podczas gdy wielkie tętnice mają ściany takie jak tętnice średniej wielkości. Obszary przejściowe... są często złożone z tętnic mieszanego typu” 25. Nie natychmiast, dopiero dziesięć lat po opublikowaniu przez Mandelbrota jego fizjologicznych spekulacji, kilku biologów teoretyków zaczęło 26 odkrywać fraktalną organizację struktur w całym ciele. Dowiedziono, że standardowy „wykładniczy” opis rozgałęziania się skrzeli jest całkowicie błędny; natomiast opis fraktalny pasuje do danych. Układ cewek zbiorczych jest fraktalny. Trakt żółciowy w wątrobie także. Podobnie sieć specjalnych włókien w sercu 27, które przenoszą impulsy prądu elektrycznego do elementów kurczliwych. Ta ostatnia struktura, znana specjalistom pod nazwą układu włókien Hisa-Purkiniego, zainspirowała szczególnie ważną linię badawczą. Badania nad zdrowym i chorym sercem dostarczyły punktu zaczepienia do zrozumienia szczegółów koordynacji rytmu serca przez komórki mięśniowe lewej i prawej komory. Kilku kardiologów o „chaotycznych” umysłach stwierdziło 28, że widmo częstości bicia serca, podobnie jak trzęsienie ziemi i zjawiska ekonomiczne, spełnia prawa fraktalne, i zasugerowało, że kluczem do zrozumienia rytmu bicia serca jest organizacja fraktalna włókien Hisa-Purkiniego, labiryntu rozgałęzionych torów zorganizowanych tak, aby były samopodobne w coraz mniejszej skali. Jak natura zdołała rozwinąć taką skomplikowaną architekturę? Według Mandelbrota komplikacje występują w kontekście tradycyjnej geometrii euklidesowej. Natomiast fraktale, rozgałęziające się struktury, mogą być opisane niezwykle prosto za pomocą zaledwie kilku bitów informacji. Może
proste transformacje, które zapoczątkowują kształty wymyślone przez Kocha, Peana i Sierpińskiego, mają swoje proste analogie w zakodowanych instrukcjach genów organizmu. DNA z pewnością nie może wyszczególniać wielkiej liczby oskrzeli, oskrzelików i pęcherzyków albo szczególnej struktury przestrzennej drzewa, które wskutek tego powstanie, ale może wyszczególniać powtarzający się proces bifurkacji i rozwoju. Takie procesy odpowiadają celom przyrody. Kiedy E.I. DuPont de Nemours & Company 29 i Armia Stanów Zjednoczonych wreszcie zaczęły produkować syntetyczny gęsi puch, ostatecznie uświadomiono sobie, że niezwykła zdolność do zatrzymywania powietrza w tym naturalnym produkcie pochodzi z węzłów i gałęzi kluczowego białka puchu, keratyny. Mandelbrot poszybował pewnie od drzewa płucnego i naczyniowego do realnych drzew, które muszą chwytać słońce i stawiać opór wiatrowi za pomocą fraktalnych gałęzi i fraktalnych liści. Biologowie teoretycy zaczynają rozważać fakt, że skalowanie fraktalne było nie tylko powszechne, ale również uniwersalne w morfogenezie. Twierdzili, że zrozumienie tego, jak taki układ był kodowany i przetwarzany, stało się poważnym wyzwaniem dla biologii. „Zacząłem szperać w różnych zakamarkach nauki, szukając takich przypadków, ponieważ spodziewałem się, że to, co obserwowałem, nie było wyjątkiem, ale może szeroko rozpowszechnionym zjawiskiem. Chodziłem na wykłady i przeglądałem niemodne periodyki, co w zasadzie było całkowicie bezproduktywnym zajęciem, ale od czasu do czasu znajdowałem jakieś interesujące rzeczy. W jakimś sensie było to podejście przyrodnika, a nie teoretyka. Ale ryzyko się opłaciło” 30. Zebrawszy w jednej książce z całego życia idee dotyczące przyrody i historii matematyki, Mandelbrot odniósł niezwykły sukces naukowy. Każdy chciał poznać jego zestaw kolorowych przezroczy i każdy znał jego rzadkie, siwe włosy. Zaczął zdobywać nagrody, tytuły, a jego nazwisko stało się
równie dobrze znane laikom, jak i matematykom. Po części wynikało to z estetycznego uroku jego fraktalnych struktur, a po części z tego, że wiele tysięcy hobbystów mogło zacząć badać jego świat za pomocą swoich mikrokomputerów. Wreszcie z tego, że się sam wylansował. Jego nazwisko pojawiło się na małej liście zestawionej przez harwardzkiego historyka nauki, I. Bernarda Cohena 31. Cohen przewertował wiele roczników odkryć, szukając naukowców, którzy twierdzili, że ich własna praca była „rewolucyjna”. Znalazł ich zaledwie szesnastu. Byli to: Robert Symmer, Szkot współczesny Benjaminowi Franklinowi, którego idea dotycząca elektryczności była rzeczywiście radykalna, ale błędna. Jean-Paul Marat, znany dzisiaj tylko ze swojego krwawego wkładu do rewolucji francuskiej. Von Liebig. Hamilton. Karol Darwin, oczywiście. Virchow. Cantor. Einstein. Minkowski. Von Laue. Alfred Wegener — teoria dryftu kontynentów. Compton. Just. James Watson — struktura DNA. I Benoit Mandelbrot. Dla matematyków jednak Mandelbrot pozostawał outsiderem walczącym gniewnie jak zawsze z polityką nauki. Gdy był u szczytu sławy, urągało mu kilku kolegów uważających, że ma nienaturalną obsesję na punkcie swojego miejsca w historii. Oświadczyli, że ich tyranizował, aby okazywali mu należny respekt. Niewątpliwie w czasie gdy uznawany był za profesjonalnego heretyka, dopracowywał strategię zdobywania uznania równie starannie jak istotę swoich osiągnięć naukowych. Czasami, gdy pojawiały się artykuły używające idei zaczerpniętych z geometrii fraktalnej, dzwonił albo pisał do autorów z pretensjami, że nie powołali się na niego albo jego książkę. Ci, którzy go podziwiali, łatwo przebaczali mu jego egocentryzm, zrzucając go na karby trudności, przez jakie przeszedł, zanim jego praca została uznana. „Oczywiście jest trochę megalomanem, ma ten niezwykły egocentryzm, ale to, co uczynił, jest piękne, więc większość ludzi wybacza
mu to” 32 — powiedział jeden z nich. Według innego: „Miał tyle kłopotów ze swoimi kolegami matematykami, że po prostu, aby przetrwać, musiał rozwinąć taką strategię dowartościowania swojego ego. Jeśli nie zrobiłby tego, jeśli nie byłby tak przekonany, że jego widzenie świata jest prawidłowe, nigdy nie odniósłby sukcesu” 33. Rozdawanie i przyjmowanie wyrazów uznania może się stać w nauce obsesyjne. Mandelbrot był w tym świetny. Jego książki są napisane w pierwszej osobie: „Twierdzę... wpadłem na pomysł i rozwinąłem go... i zrealizowałem... potwierdziłem... dowodzę... W moich podróżach przez nowo odkryte lub nowo zasiedlone dziedziny często przysługiwało mi prawo nadawania nowych nazw”. Wielu naukowcom nie podobał się taki styl. Wrażenia tego nie potrafił złagodzić fakt, że Mandelbrot był szczodry w powoływaniu się na swoich poprzedników, niekiedy zupełnie nieznanych (z których wszyscy, jak zauważyli jego krytycy, szczęśliwie byli nieboszczykami). Przeciwnicy Mandelbrota uważali, że jest to tylko jego sposób umieszczenia siebie w centrum, z którego jak papież rozdaje swoje błogosławieństwa na wszystkie strony świata. Zwalczano go. Naukowcy nie mogli uniknąć słowa „fraktal”, ale jeśli chcieli uniknąć jego nazwiska, mogli mówić o wymiarze ułamkowym jako wymiarze Hausdorffa-Besicovitcha 34. Byli również oburzeni jego sposobem przechodzenia od jednej dziedziny do drugiej, kiedy to obwieszczał swoje twierdzenia i przypuszczenia i zostawiał je innym do udowodnienia. Jest to uzasadnione pytanie: Jeśli jeden naukowiec ogłasza, że rzecz jest prawdopodobnie prawdziwa, a inny tego ściśle dowodzi, to który z nich zrobił więcej dla postępu nauki? Czy wysunięcie przypuszczenia jest aktem odkrywczym? Czy też jest tylko sformułowaniem hipotezy? Matematycy wciąż stają w obliczu takich kwestii, ale debata zyskała na intensywności od
czasu, gdy komputery zaczęły odgrywać swoją nową rolę. Ci, którzy używali ich do przeprowadzania eksperymentów, stali się w pewnym sensie doświadczalnikami grającymi według reguł, które pozwalają dokonywać odkryć bez zwykłych dowodów twierdzeń, dowodów tradycyjnej matematyki. Książka Mandelbrota dotyczyła wielu zagadnień i była naszpikowana drobnymi szczegółami z historii matematyki. Gdziekolwiek prowadził chaos, Mandelbrot miał podstawy twierdzić, że on tam był pierwszy. Niewiele przy tym znaczyło, że dla większości czytelników jego odnośniki były bezużyteczne albo nawet mylące. Musieli przyznać, że miał ogromną intuicję, jeśli chodzi o kierunki postępu w dziedzinach, których faktycznie nigdy nie studiował, od sejsmologii do fizjologii. Czasami było to niesamowite, czasami irytujące. Nawet jego zwolennicy krzyczeli z rozdrażnieniem: „Nawet Mandelbrot nie mógł znać czyichś myśli, zanim oni ich nie mieli” 35. Ma to w gruncie rzeczy niewielkie znaczenie. Twarz geniusza nie musi zawsze przybierać świętej maski Einsteina. Jednak Mandelbrot wierzył, że od dziesięcioleci musiał prowadzić rozważną grę o swoje prace. Musiał wyłożyć idee tak, aby nikt nie poczuł się dotknięty. Musiał usunąć wizjonersko brzmiące wstępy, aby uczynić swe artykuły możliwymi do publikowania. Kiedy napisał pierwszą wersję swojej książki, opublikowanej we Francji w 1975 roku, czuł, że został zmuszony do udawania, iż nie zawiera ona niczego zaskakującego. Dlatego właśnie ostatnią wersję napisał w sposób jawny, jako „manifest i księgę przypadków”. Zmagał się z polityką nauki. „Polityka wpływała w pewnym sensie na mój styl. Później żałowałem, że jej uległem. Mówiłem: «Jest oczywiste, że... To jest interesująca obserwacja...» Faktycznie nie było to tak oczywiste, a interesująca obserwacja była w rzeczywistości wynikiem bardzo długich badań,
poszukiwań dowodów i wymagała wiele samokrytycyzmu. Książka zawierała filozoficzne i dalekosiężne przesłanie, które — jak czułem — było konieczne do jej zaakceptowania. Polityka powodowała, że gdybym powiedział, iż proponuję radykalne odejście od starych schematów, oznaczałoby to koniec zainteresowania czytelnika tą książką. Później tego rodzaju zdania wróciły do mnie wypowiadane przez innych: «Jest naturalne, że...» Nie chciałem za to nadstawiać głowy” 36. Patrząc wstecz, Mandelbrot widział, że naukowcy z różnych dyscyplin reagowali na jego podejście do zagadnienia w żałośnie przewidywalnych etapach. Pierwszy etap był zawsze taki sam: Kim jesteś i dlaczego interesujesz się naszą dziedziną? Drugi: Jak się to ma do tego, co my robimy, i dlaczego nie wyjaśniasz tego na bazie, którą znamy? Trzeci: Jesteś pewien, że jest to normalna matematyka? (Tak, jestem). To dlaczego jej nie znamy? (Ponieważ jest ona normalna, ale zupełnie nieznana). W tym punkcie matematyka różni się od fizyki i innych nauk stosowanych. Gałąź fizyki, gdy stanie się przestarzała albo nieproduktywna, okazuje się na zawsze częścią przeszłości. Może być osobliwością historyczną, może być źródłem pewnych inspiracji dla współczesnego naukowca, ale śmierć jakiejś dziedziny fizyki jest zwykle śmiercią dla dobrej sprawy. Matematyka przeciwnie — jest pełna kanałów i bocznych ścieżek, które wydają się prowadzić donikąd w jednej epoce i stają się głównym przedmiotem badań w innej. Potencjalnych zastosowań czystej myśli nie można nigdy przewidzieć. Z tej przyczyny matematycy oceniają prace pod względem estetycznym, dążąc do elegancji i piękna, tak jak to robią artyści. Toteż Mandelbrot jak antykwariusz odszukał tak wiele dobrej matematyki, która czekała na odkurzenie. Tak więc czwarty etap był taki: Co ludzie w tych gałęziach matematyki myślą o pańskiej pracy? (Nie obchodzi ich ona, ponieważ nie dodaje nic do
matematyki. W rzeczywistości są jednak zaskoczeni, że ich idee reprezentują przyrodę). W końcu słowo „fraktal” pojawiło się na oznaczenie sposobu opisywania, obliczania i myślenia o kształtach, które są nieregularne, połamane i postrzępione — od płatka śniegu do nieciągłego pyłu galaktycznego. Krzywa fraktalna implikuje zorganizowaną strukturę, która leży schowana wśród odpychającej złożoności takich kształtów. Gimnazjaliści potrafili zrozumieć fraktale i bawić się nimi; były one tak pierwotne jak elementy Euklidesa. Proste programy do wykreślania fraktali krążą wśród komputerowych hobbystów. Mandelbrot został z największym entuzjazmem zaakceptowany przez przedstawicieli nauk stosowanych, pracujących nad ropą naftową, skałami albo metalami, szczególnie w przemysłowych ośrodkach badawczych. W połowie lat osiemdziesiątych wielka liczba naukowców w ośrodku badawczym Exxon 37, pracowała nad problemami z zakresu geometrii fraktalnej. W General Electric fraktale stały się zasadą organizacyjną w badaniu polimerów i również — chociaż ta praca była wykonywana w sekrecie — w badaniu problemów bezpieczeństwa atomowego. W Hollywood fraktale znalazły swoje najbardziej cudaczne zastosowanie w tworzeniu niezwykle realistycznych krajobrazów, ziemskich i pozaziemskich, w filmowych efektach specjalnych. Struktury, które tacy ludzie jak Robert May czy James Yorke odkryli we wczesnych latach siedemdziesiątych, z ich złożonymi przejściami między porządkiem i chaosem, miały swoje regularności, których istnienia nikt nie podejrzewał, a które mogły być opisywane w kategoriach relacji między wielkimi i małymi skalami. Struktury, które dostarczyły klucza do dynamiki nieliniowej, okazały się fraktalne. I na najbardziej praktycznym poziomie geometria fraktalna również dostarcza zbioru technik, które zostały przejęte
przez fizyków, chemików, sejsmologów, metalurgów, naukowców zajmujących się teorią prawdopodobieństwa i fizjologów. Autorzy tych badań byli zdania, że nowa geometria Mandelbrota jest geometrią przyrody, i próbowali przekonać o tym innych. Dokonali oni potężnego ataku na ortodoksyjną matematykę i fizykę, ale sam Mandelbrot nigdy nie zyskał pełnego uznania tych społeczności. Pomimo to ich przedstawiciele musieli go dostrzec. Jeden matematyk 38 opowiedział swoim kolegom, że pewnej nocy obudził się pod wpływem koszmaru. Śniło mu się, że umarł i nagle usłyszał wyraźny głos Boga: „Wiesz, rzeczywiście było coś w tym Mandelbrocie”. Pojęcie samopodobieństwa nie było w naszej kulturze nieznane. Ma ono długie korzenie w myśli zachodniej. Leibniz wyobrażał sobie, że kropla wody zawiera cały obfity wszechświat zawierający z kolei krople wody i nowe wszechświaty wewnątrz nich. „Widzieć świat w ziarnku piasku” — napisał Blake, a uczeni często byli skłonni go widzieć. Kiedy odkryto plemniki, każdy był uważany za homunkulusa, malutkiego, ale w pełni rozwiniętego człowieka. Ale samopodobieństwo więdło jako zasada naukowa, i słusznie. Nie pasowało do faktów. Plemniki nie są ludźmi w małej skali — są o wiele bardziej interesującymi obiektami — a proces ontogenetycznego rozwoju daleko bardziej interesujący niż wyłącznie wzrastanie. Wczesne pojmowanie samopodobieństwa jako zasady organizującej wywodzi się z ograniczeń ludzkiego doznawania skali. Jak inaczej można wyobrazić sobie bardzo wielkie i bardzo małe, bardzo szybkie i bardzo wolne, jeśli nie poprzez rozszerzenie znanego? Mit zaczął umierać wraz z pojawieniem się teleskopu i mikroskopu. Pierwsze odkrycia uświadomiły ludziom, że każda zmiana skali przynosi nowe zjawiska i nowe rodzaje zachowań. Dla przedstawicieli współczesnej
fizyki cząstek elementarnych proces wydaje się nigdy nie kończyć. Każdy nowy akcelerator zdolny do zwiększenia energii i prędkości cząstek rozszerza pole widzenia o nowe drobniejsze cząsteczki i krótsze skale czasowe, a każde rozszerzenie wydaje się nieść nowe informacje. Na pierwszy rzut oka idea zgodności w różnych skalach dostarcza mniej informacji. Po części dlatego, że równoległy trend w nauce doprowadził do redukcjonizmu. Naukowcy oddzielali rzeczy od siebie i badali je osobno. Jeśli chcieli ustalić oddziaływania pomiędzy cząstkami subatomowymi, łączyli dwie lub trzy ze sobą. To jest dostatecznie skomplikowane. Potęga samopodobieństwa jednak zaczyna się od daleko wyższego poziomu złożoności. Jej istotą jest wizja całości. Chociaż Mandelbrot dokonał najbardziej wyczerpującego geometrycznego wdrożenia tej idei, powrót idei skalowania do nauki w latach sześćdziesiątych i siedemdziesiątych stał się prądem intelektualnym, który tworzył się równocześnie w wielu miejscach. Samopodobieństwo istniało niezaprzeczalnie w pracy Edwarda Lorenza. Było ono częścią jego intuicyjnego rozumienia subtelnej struktury wykresów wygenerowanych przez jego układ równań, struktury, którą czuł, ale nie mógł jej zobaczyć na komputerach dostępnych w 1963 roku. Skalowanie stało się również częścią ruchu w fizyce, który prowadził bardziej bezpośrednio niż prace Mandelbrota do dyscypliny naukowej znanej dzisiaj jako teoria chaosu. Nawet w odległych dziedzinach naukowcy zaczęli myśleć w kategoriach teorii, które używają hierarchii skal, jak na przykład teoria ewolucji, gdzie stało się jasne, że pełna teoria powinna rozpoznać równocześnie układ rozwoju w genach, indywidualnych organizmach i rodzinach organizmów. Może to brzmi paradoksalnie, ale zrozumienie zjawisk skalowania wyrosło z tej samej ekspansji ludzkiego widzenia świata, która zabiła naiwną ideę samopodobieństwa. Na końcu dwudziestego wieku, w sposób poprzednio
nieakceptowalny, obrazy zjawisk i obiektów w niezrozumiale małej i niewyobrażalnie wielkiej skali stały się częścią naszego powszechnego doświadczenia. W naszym obszarze kulturowym widzieliśmy zdjęcia galaktyk i atomów. Nikt nie musiał wyobrażać sobie tak jak Leibniz, jak wygląda wszechświat w mikroskopowej i teleskopowej skali — mikroskopy i teleskopy uczyniły te obrazy częścią naszego codziennego doświadczenia. Jeśli jednak umysł jest żądny znalezienia analogii w naszym doświadczeniu, nowe rodzaje porównań pomiędzy małą i wielką skalą były nieuchronne — i niektóre z nich przyniosły korzyści. Naukowcy, często zwracający się ku geometrii fraktalnej, czuli emocjonalne paralele pomiędzy estetyką nowej matematyki a zmianami w sztuce w drugiej połowie wieku. Czuli, że czerpią pewien wewnętrzny entuzjazm z kultury jako całości. Dla Mandelbrota wcieleniem euklidesowej wrażliwości poza matematyką była architektura budynku Bauhausu. Mógł nim równie dobrze być styl malarstwa najlepiej reprezentowany przez kolorowe kwadraty Josefa Albersa — oszczędny, uporządkowany, liniowy, redukcjonistyczny, geometryczny. Geometryczne — słowo, które oznacza to, co oznaczało przez tysiące lat. Budynki, które są nazywane geometrycznymi, składają się z prostych kształtów, prostych linii i kół opisywalnych zaledwie kilkoma liczbami. Popularność architektury geometrycznej i malarstwa była i minęła. Architekci nie chcą już budować pudełkowych drapaczy chmur, takich jak Seagram Building w Nowym Jorku, na którego cześć głośno wiwatowano i który wielokrotnie kopiowano. Dla Mandelbrota i jego następców przyczyna tego jest jasna. Proste kształty są nieludzkie. Nie harmonizują ze sposobem, w jaki jest zorganizowana przyroda, ani ze sposobem, w jaki człowiek postrzega świat. Gert Eilenberger, niemiecki fizyk, specjalista od nadprzewodnictwa, który zajął się fizyką nieliniową, powiedział: „Dlaczego tak jest, że sylwetka nagich konarów drzewa,
uginających się pod naporem wiatru na tle wieczornego nieba w zimie, jest piękna, ale sylwetka wielofunkcjonalnych budynków uniwersyteckich — nie, mimo wielkich wysiłków architektów? Odpowiedź, choć nieco spekulatywna, wynika — moim zdaniem — z nowego wejrzenia w systemy dynamiczne. Nasze odczucie piękna jest inspirowane przez harmonijną zgodę między ładem i nieładem, która pojawia się w obiektach naturalnych — w chmurach, drzewach, łańcuchach górskich albo kryształkach lodu. Wszystkie te kształty są procesami dynamicznymi, które otrzymały fizyczną postać, a szczególne jej kombinacje ładu i nieładu są typowe dla nich” 39. Kształt geometryczny ma skalę i charakterystyczną wielkość. Według Mandelbrota sztuka, która napełnia satysfakcją, nie ma skali w tym sensie, że zawiera ważne elementy o wszystkich wielkościach. Seagram Building przeciwstawia architekturę Beaux-Arts, z jej rzeźbami i chimerami, jej kamieniami narożnymi i pilastrami, wolutami udekorowanymi ślimacznicami, zębatymi gzymsami. Wzorcowy Beaux-Arts, podobnie jak Opera Paryska, nie ma skali, ponieważ ma wszystkie skale. Obserwator patrzący na budynek z każdej odległości znajduje pewne szczegóły, które przyciągają oko. Kompozycja zmienia się, gdy się do niej zbliżamy, i nowe elementy struktury zaczynają pojawiać się w polu widzenia. Ocena harmonii struktury w jakiejś architekturze to jedna rzecz, podziwianie dzikości natury to sprawa zupełnie odmienna. W kategoriach wartości estetycznych nowa matematyka geometrii fraktalnej dostraja trudną naukę do osobliwie współczesnego odczuwania nieujarzmionej, nieucywilizowanej i dzikiej przyrody. Niegdyś puszcze podzwrotnikowe, pustynie, busz i nieużytki reprezentowały równocześnie wszystko to, co społeczeństwo usiłowało ujarzmić. Jeśli ludzie szukali satysfakcji estetycznej w wegetacji, patrzyli na ogród. Obraz osiemnastowiecznej Anglii przedstawił John Fowles: „Epoka ta nie darzyła uznaniem niepodporządkowanej lub
pierwotnej natury, której drapieżna żywotność przypominała o upadku człowieka, o jego wygnaniu z rajskiego ogrodu [...] nawet nauki przyrodnicze [...] pozostały w swej istocie wrogie dzikiej naturze, uważając ją za coś, co należy oswoić, sklasyfikować, używać i eksploatować” 40. W końcu dwudziestego wieku kultura zmieniała się, a teraz nauka zmienia się wraz z nią. Tak więc nauka znalazła jednak zastosowanie dla nieznanych i dziwacznych kuzynów zbioru Cantora i krzywej Kocha. Najpierw te kształty służyły jako dowody w procesie rozwodowym między matematyką i fizyką, który nastąpił na przełomie wieku; nieuchronny rozpad tego małżeństwa był dominującym tematem w nauce od czasu Newtona. Matematycy, tacy jak Cantor i Koch, radowali się swoją oryginalnością. Myśleli, że przechytrzyli przyrodę, gdy w rzeczywistości nigdy nie dogonili jej kreatywności. Prestiżowy, główny nurt badań fizycznych również odwrócił się od świata codziennego doświadczenia. Dopiero później, po tym jak Steve Smale sprowadził matematykę z powrotem do układów dynamicznych, fizycy mogli powiedzieć: „Astronomom i matematykom zawdzięczamy, że przekazali nam, fizykom, tę dziedzinę w dużo lepszym stanie, niż ją zostawiliśmy siedemdziesiąt lat temu” 41. Jednak oprócz Smale’a i Mandelbrota również fizycy kładli podwaliny pod nową naukę o chaosie. Mandelbrot dostarczył niezbędnego języka i katalogu zaskakujących obrazów przyrody. Wtedy przyznał sam, że jego program lepiej opisywał niż wyjaśniał. Mógł katalogować elementy natury według ich wymiaru fraktalnego — wybrzeża, sieci rzek, korę drzew, galaktyki — a naukowcy powinni zastosować te liczby do stawiania hipotez. Ale fizycy chcieli wiedzieć więcej 42. Chcieli wiedzieć — dlaczego. Były takie formy w naturze, formy niewidzialne, ale wryte w fakturę ruchu, wciąż czekające na
odkrycie.
1
B. Mandelbrot, R.E. Gomory, R. Voss, M. Barnsley, P.H. Richter, D. Mumford, J.H. Hubbard, M.F. Shlesinger. Biblią Benoita Mandelbrota jest The Fractal Geometry of Nature (Freeman, New York 1977). Wywiad przeprowadzony przez Anthony’ego Barcellosa ukazał się w Mathematical People, red. Donald J. Albers, G.L. Alexanderson, Birkhäuser, Boston 1985. Dwa eseje Mandelbrota, które są mniej znane, ale niezwykle interesujące, to: On Fractal Geometry and a Few of the Mathematical Questions It Has Raised, „Proceedings of the International Congress of Mathematicians”, 14-16 sierpnia 1983, Warszawa, s. 1661-1675; Towards a Second Stage of Indeterminism in Science, preprint, IBM Thomas J. Watson Research Center, Yorktown Heights, New York. Artykuły przeglądowe na temat zastosowań fraktali są zbyt liczne, aby je wymienić, ale warto przytoczyć dwa użyteczne przykłady: Leonard M. Sander, Fractal Growth Processes, „Nature” 1986, 322, s. 789-793; Richard Voss, Random Fractal Forgeries: From Mountains to Music, w: Science and Uncertainty, red. Sara Nash, IBM United Kingdom, London 1985. 2 H. Houthakker, B. Mandelbrot. 3 B. Mandelbrot, Fractal Geometry, s. 423. 4 Woods Hole Oceanographic Institution, August 1985. 5 B. Mandelbrot. 6 B. Mandelbrot, P.H. Richter. Niewiele do tej pory wspominano o Bourbakim; nieco żartobliwe wprowadzenie napisał Paul R. Halmos, Nicholas Bourbaki, „Scientific American” 1957, 196, s. 88-89. 7 S. Smale. 8 H.-O. Peitgen. 9 B. Mandelbrot, Towards a Second Stage, s. 5. 10 B. Mandelbrot, Fractal Geometry, s. 74; J.M. Berger, Benoit Mandelbrot, A New Model for the Clustering of Errors on Telephone Circuits, „IBM Journal of Research and Development” 1963, 7, s. 224-236. 11 B. Mandelbrot, Fractal Geometry, s. 248. 12 Pismo Święte Starego i Nowego Testamentu, Rdz 41, 29-30, Księgarnia św. Wojciecha, Poznań 1982. 13 B. Mandelbrot, Fractal Geometry, s. 1. 14 Tamże, s. 27. 15 Tamże, s. 17. 16 Tamże, s. 18.
17
B. Mandelbrot. Wacław Sierpiński (1882-1969) — matematyk, profesor Uniwersytetu Lwowskiego (1910-1918) i Uniwersytetu Warszawskiego (od 1918), był jednym z głównych przedstawicieli słynnej szkoły lwowskiej. Szczególnie duże zasługi położył w teorii mnogości (przyp. tłum.). 19 B. Mandelbrot, Fractal Geometry, s. 131, tenże, On Fractal Geometry, s. 1663. 20 F. Hausdorff i A.S. Besicovich. 21 B. Mandelbrot. 22 C. Scholz; C. Scholz i C.A. Aviles, The Fractal Geometry of Faults and Faulting, preprint, Lomont-Doherty Geophysical Observatory; C. Scholz, Scaling Laws for Large Earthquakes, „Bulletin of the Seismological Society of America” 1982, 72, s. 1-14. 23 B. Mandelbrot, Fractal Geometry, s. 24. 24 C. Scholz. 25 William Bloom, Don W. Fawcett, A Textbook of Histology, W.B. Saunders, Philadelphia 1975. 26 Przegląd tych zagadnień można znaleźć w pracy Ary’ego L. Goldbergera, Nonlinear Dynamics, Fractals, Cardiac Physiology and Sudden Death, w: Temporal Disorder in Human Oscillatory Systems, red. L. Rensing, U. An der Heiden, M. Mackey. Springer Verlag, New York 1987. 27 A.L. Goldberger, B.J. West. 28 Ary L. Goldberger, Valmik Bhargava, Bruce J. West, Arnold J. Mandell, On a Mechanism of Cardiac Electrical Stability: The Fractal Hypothesis, „Biophysics Journal” 1985, 48, s. 525. 29 Barnaby J. Feder, The Army May Have Matched the Goose, „The New York Times”, 30 November 1986, 4:16. 30 B. Mandelbrot. 31 I. Bernard Cohen, Revolution in Science, Belknap, Cambridge Mass. 1985, s. 46. 32 D. Mumford. 33 P.H. Richter. 34 Tak samo Mandelbrot mógł później unikać powszechnego uznania dla Mitchella Feigenbauma w odniesieniu do liczb Feigenbauma i uniwersalności Feigenbauma. Mandelbrot notorycznie odwoływał się do P.J. Myrberga, matematyka, który badał iteracje odwzorowania kwadratowego we wczesnych latach sześćdziesiątych. 35 P.H. Richter. 36 B. Mandelbrot. 37 J. Klafter. 38 Według relacji B. Hubermana. 18
39
Freedom, Science, and Aesthetics, w: Schönheit im Chaos, s. 35. John Fowles, Larwa, Zysk i S-ka Wydawnictwo, Poznań 1995 (przeł. Irena DoleżalNowicka), s. 16. 41 Robert H.G. Helleman, Self-Generated Behavior in Nonlinear Mechanics, w: Fundamental Problems in Statistical Mechanics, 5, red. E.G.D. Cohen, North-Holland, Amsterdam 1980, s. 165. 42 Leo Kadanoff, na przykład, pytał: „Gdzie jest fizyka fraktali?” na łamach „Physics Today” (February 1986, s. 6), a następnie odpowiedział na to pytanie nowym „multifraktalnym” podejściem zaprezentowanym w „Physics Today” (April 1986, s. 17), które sprowokowało odpowiedź poirytowanego Mandelbrota („Physics Today”, September 1986, s. 11). „Teoria Kadanoffa — napisał Mandelbrot — napełnia mnie dumą ojca, który wkrótce ma zostać dziadkiem”. 40
Dziwne atraktory Duże wiry mają małe wirki, Które żyją z ich prędkości, A te małe wirki mają mniejsze wirki, I tak do lepkości. Lewis F. Richardson (przeł. Jolanta Kozak)
Turbulencja była problemem z rodowodem. Najwięksi fizycy myśleli o niej oficjalnie i nieoficjalnie 1. Gładki przepływ rozrywa się nagle na wiry i zawirowania. Bezładna struktura rozrywa granice pomiędzy cieczą a ciałem stałym. Energia odpływa gwałtownie z ruchów w wielkiej skali do małej. Dlaczego? Najlepszego wyjaśnienia dostarczyli matematycy; dla większości fizyków turbulencja była zbyt niebezpieczna, aby tracić na nią czas. Wydawała się niedostępna badaniom. Opowiadano anegdotę o Wernerze Heisenbergu 2, twórcy teorii kwantów, który podobno na łożu śmierci oświadczył, że będzie miał dwa pytania do Pana Boga: dlaczego względność i dlaczego turbulencja. Ale zaraz dodał: „Naprawdę myślę, że On może odpowiedzieć tylko na pierwsze pytanie”. Fizyka teoretyczna przypatrywała się zjawisku turbulencji z dystansu. W efekcie nauka przeprowadziła linię demarkacyjną i powiedziała: poza tę linię nie możemy się zapuszczać. Zresztą i po bliższej stronie tej granicy, gdzie płyny zachowują się w sposób uporządkowany, jest mnóstwo do roboty. Na szczęście gładko płynące ciecze nie działają tak, jak gdyby składały się z prawie nieskończonej liczby niezależnych molekuł i każda z nich jest zdolna do niezależnego ruchu. Raczej jest tak, że jeśli jakieś
objętości cieczy zaczynają ruch blisko siebie, pozostają blisko siebie jak konie w zaprzęgu. Inżynierowie dysponują solidną techniką do obliczenia przepływów tak długo, jak długo pozostają spokojne. Stosują oni wiedzę, która swymi korzeniami sięga dziewiętnastego wieku, kiedy zrozumienie ruchów cieczy i gazów było problemem nie z pierwszej linii frontu badań fizycznych. Współcześnie jednak kwestia ta przestała już być głównym problemem fizyki. Dla teoretyków dynamika płynów wydawała się nie kryć już żadnej tajemnicy z wyjątkiem tej, która była nierozwiązywalna nawet w niebie. Praktyczna strona była tak bardzo zrozumiała, że można było ją zostawić inżynierom. Dynamika płynów przestała już być częścią fizyki — powiedzieliby fizycy. Była raczej dyscypliną z obszaru nauk technicznych. Wspaniali młodzi fizycy mieli lepsze rzeczy do zrobienia. Dynamikę płynów wykładano na wydziałach technicznych uniwersytetów. Praktyczne zainteresowanie turbulencją zawsze było na pierwszym planie, a praktyczne zainteresowanie jest zwykle jednostronne: jak się pozbyć turbulencji. W pewnych aplikacjach turbulencja jest pożądana — na przykład wewnątrz silnika odrzutowego, gdzie wydajne spalanie zależy od szybkiego mieszania. Ale w większości przypadków oznacza ona nieszczęście. Turbulentny przepływ powietrza nad skrzydłem niszczy siłę nośną. Turbulentny przepływ w rurociągu naftowym tworzy zdumiewający opór. Potężne sumy rządowych i prywatnych pieniędzy przeznaczono na projektowanie samolotów, silników turbinowych, śmigieł, kadłubów łodzi podwodnych i innych kształtów, które poruszają się w płynach. Badacze muszą martwić się o płyny w naczyniach krwionośnych i zastawkach serca. Zmagali się z problemem kształtów i ewolucji wybuchów. Badali wiry i zawirowania, płomienie i fale uderzeniowe. W teorii projekt budowy bomby atomowej w czasie drugiej wojny światowej był zagadnieniem z zakresu fizyki jądrowej.
W rzeczywistości został on w większości rozwiązany przed rozpoczęciem realizacji przedsięwzięcia i sprawa, którą zajmowali się naukowcy zgromadzeni w Los Alamos, dotyczyła kwestii z zakresu dynamiki płynów. Czym jest zatem turbulencja? Jest to nieład we wszystkich skalach, małe wiry wewnątrz wielkich. Jest zjawiskiem niestabilnym i wysoce dysypatywnym, co oznacza, że turbulencja wysysa energię i wytwarza opór. Jest to ruch przekształcony w przypadek. Ale jak przepływ zmienia się z gładkiego w turbulentny? Załóżmy, że mamy idealnie gładki przewód z idealnym zbiornikiem wody, idealnie chronionym przed wibracjami. Jak taki przepływ może tworzyć coś przypadkowo? Wszystkie reguły wydają się zawodzić. Kiedy przepływ jest gładki, czyli laminarny, małe zaburzenia zanikają. Ale po pojawieniu się turbulencji zaburzenia narastają w sposób katastrofalny. To pojawienie się — to przejście — staje się krytyczną tajemnicą w nauce. Rowek pod skałą w strumieniu staje się obracającym się wirem, który rośnie, rozszczepiając się i przyspieszając wraz z nurtem strumienia. Pióropusz dymu z papierosa podnosi się laminarnie z popielniczki, wciąż przyspieszając, aż przekroczy krytyczną prędkość i rozszczepi się na bezładne wiry. Pojawienie się turbulencji może być oglądane i mierzone w warunkach laboratoryjnych; może być testowane eksperymentalnie w tunelach aerodynamicznych przy projektowaniu nowych skrzydeł i śmigieł; ale jego natura pozostaje nieuchwytna. Tradycyjnie zgromadzona wiedza ma zwykle charakter specjalny, nie uniwersalny. Badania metodą prób i błędów nad skrzydłem Boeinga 707 nie wniosły niczego nowego do badań (też metodą prób i błędów) nad skrzydłem myśliwca F-16. Nawet superkomputery są prawie bezsilne w obliczu nieregularnych ruchów cieczy. Potrząśnij płynem, powodując jego wzburzenie. Płyn jest lepki, tak że energia wypływa z niego i jeśli przestaniesz potrząsać, ciecz oczywiście
w naturalny sposób się uspokoi. Kiedy ją potrząsasz, dodajesz energii o niskich częstotliwościach albo dużych długościach fal i pierwsza rzecz godna zanotowania to fakt rozkładania się długich fal na krótkie. Tworzą się wiry, mniejsze wiry wewnątrz nich, z których każdy rozprasza energię i wytwarza własny charakterystyczny rytm. W latach trzydziestych A.N. Kołmogorow przedstawił opis matematyczny, który dostarczył pewnej idei dotyczącej tego, jak działają te wiry. Wyobraził sobie całą kaskadę poziomów energii schodzących w dół do coraz mniejszej skali, aż osiągną granicę, kiedy wiry stają się tak drobne, że zaczynają dominować relatywnie duże efekty lepkościowe. Ze względu na czystość opisu Kołmogorow wyobraził sobie, że te wiry wypełniają całą przestrzeń przez płyn, co powodowało, że płyn był wszędzie taki sam. To założenie 3, założenie jednorodności, okazało się nieprawdziwe i nawet Poincaré zrozumiał to czterdzieści lat wcześniej, podczas obserwacji niespokojnej powierzchni rzeki, w której wiry zawsze mieszają się z obszarami gładkiego przepływu. Wirowość jest miejscowa. Energia faktycznie rozprasza się tylko w części przestrzeni. W każdej skali, jeśli przyjrzeć się bliżej turbulentnemu wirowi, nowe regiony ciszy pojawiają się w polu widzenia. Zatem założenie jednorodności ustępuje założeniu o przerywalności, czyli intermitencji. Obraz intermitencji, gdy ją trochę wyidealizować, wygląda bardzo „fraktalnie”, z obszarami wzburzonymi i gładkimi na przemian zarówno w dużej, jak i małej skali. Ten obraz jednak również nie jest całkiem zgodny z rzeczywistością. Pokrewnym problemem było pytanie o to, co się dzieje, kiedy zaczyna się turbulencja. Jak przepływ przekracza granicę pomiędzy laminarnym i turbuletnym? Jakie pośrednie stany mogą zaistnieć, zanim turbulencja rozwinie się w pełni? Dla tych problemów istniała mocniejsza teoria. Ortodoksyjny paradygmat w tej kwestii pochodzi od Lwa D. Landaua,
wielkiego uczonego rosyjskiego, którego praca na temat dynamiki płynów jest uznawana za wzorcową 4. Według Landaua turbulencja jest nagromadzeniem się współzawodniczących rytmów. Kiedy do układu dostarczana jest energia, pojawiają się stopniowo nowe częstości, z których każda nie przystaje do ostatniej, jak gdyby struna skrzypiec odpowiadała na mocniejsze pociągnięcie smyczkiem poprzez wibrację z częstością dysonansową, potem drugą, trzecią i czwartą, aż dźwięk przemieniłby się w niezrozumiałą kakofonię. Ciecz czy gaz jest zbiorem indywidualnych drobin, tak wielu, że równie dobrze mogłoby ich być nieskończenie wiele. Jeśli wszystkie poruszałyby się niezależnie, to płyn miałby nieskończenie wiele możliwości — w żargonie naukowym mówi się, że miałby nieskończenie wiele „stopni swobody”, a równania opisujące ruch zawierałyby nieskończenie wiele zmiennych. Ale każda cząstka nie porusza się niezależnie — jej ruch uwarunkowany jest bardzo mocno ruchem sąsiadów — i przy przepływie laminarnym jest niewiele stopni swobody. Potencjalnie skomplikowane ruchy zostają sprzężone. Pobliskie drobiny pozostają w pobliżu siebie albo dryfują w laminarny, liniowy sposób, który wytwarza uporządkowane linie na zdjęciach z tuneli aerodynamicznych. Cząsteczki w kolumnie dymu papierosowego podnoszą się przez chwilę wszystkie w ten sam sposób. Następnie pojawia się nieład, menażeria tajemniczo dzikich ruchów. Czasami one otrzymywały nazwy: oscylacyjny, skośny żylakowaty (ang. skewed varicose), skrzyżowane rolki (ang. cross-roll), węzeł (ang. knot), zygzak (ang. zigzag) 5. Według Landaua te niestabilne ruchy po prostu akumulują się jeden na drugim, produkując rytmy, których prędkości i wielkości się pokrywają. Konceptualnie ta ortodoksyjna idea turbulencji zdawała się pasować do faktów i jeśli teoria była z matematycznego punktu widzenia bezużyteczna — a tak właśnie było — uznano, że dobrze, niech tak
będzie. Paradygmant Landaua był sposobem zachowania twarzy, gdy opadają ręce. Woda przepływa przez rurę albo wokół cylindra, wydając słaby, łagodny syk. Podnieśmy w wyobraźni ciśnienie. Powstają oscylacje. Tak jak fale zaczną stukać wolno w rurę. Podkręcamy regulator ciśnienia jeszcze raz. Skądś pojawia się druga częstość, niezsynchronizowana z pierwszą. Rytmy nakładają się, współzawodniczą i przeszkadzają sobie wzajemnie. Wytwarzają tak skomplikowany ruch — fale uderzające o ściany, interferujące ze sobą — że prawie nie można ich obserwować. Teraz znowu podkręcamy regulator. Pojawia się trzecia częstotliwość, potem czwarta, piąta i szósta, wszystkie niezgodne. Przepływ stał się ekstremalnie skomplikowany. Być może to jest turbulencja. Fizycy akceptowali taki opis, ale nikt nie miał pojęcia, jak przewidzieć, kiedy wzrost energii wytworzy nową częstość ani jaka ona będzie. Nikt nie dostrzegał tych tajemniczo pojawiających się częstości w eksperymencie, ponieważ w rzeczywistości nikt nie sprawdzał teorii Landaua w kwestii przejścia do turbulencji. Teoretycy przeprowadzają doświadczenia za pomocą swoich mózgów. Doświadczalnicy muszą również używać rąk. Teoretycy są myślicielami, doświadczalnicy rzemieślnikami. Teoretyk nie potrzebuje wspólników. Doświadczalnik musi gromadzić studentów, przypochlebiać się mechanikom, przymilać do laborantów. Teoretyk pracuje w szacownej miejscowości, bez hałasu, wibracji i brudu. Doświadczalnik jest w zażyłym kontakcie z materią jak rzeźbiarz z gliną, walcząc z nią, kształtując i formując. Teoretyk wymyśla swoich towarzyszy, jak naiwny Romeo wyobrażał sobie swoją idealną Julię. Kochanki doświadczalnika pocą się, klną i pierdzą. Choć potrzebują siebie nawzajem, teoretycy i eksperymentatorzy uznali pewne nierówności we wzajemnych stosunkach, i to już od starożytności, kiedy każdy uczony był zarówno teoretykiem, jak i doświadczalnikiem.
Chociaż najlepsi doświadczalnicy wciąż mają w sobie trochę z teoretyka, relacja nie zachodzi. Ostatecznie prestiż akumuluje się po stronie teoretyka. Szczególnie w fizyce wysokich energii chwała przypada głównie teoretykom, podczas gdy doświadczalnicy stali się wysoko wyspecjalizowanymi technikami zarządzającymi drogą i skomplikowaną aparaturą. W latach po drugiej wojnie światowej, kiedy słowo „fizyk” oznaczało fizyka zajmującego się cząstkami elementarnymi, najchętniej publikowanymi eksperymentami były doświadczenia wykonywane za pomocą akceleratorów. Spin, symetria, kolor, powab — to były najbardziej pasjonujące abstrakcje. Dla większości laików śledzących rozwój nauki i więcej niż kilku naukowców fizyka to było badanie cząstek atomowych. Ale badanie mniejszych cząstek, w krótszej skali czasowej oznaczało wyższe poziomy energii. Tak więc maszyneria potrzebna do dobrego doświadczenia rosła w miarę upływu lat, a natura pracy eksperymentalnej w fizyce cząstek elementarnych zmieniała się na dobre. Dziedzina była zatłoczona, a wielki eksperyment zachęcał do tworzenia zespołów. Prace z zakresu fizyki cząstek elementarnych wyróżniały się w „Physical Review Letters”: typowa lista autorów zajmowała blisko jedną czwartą strony. Niektórzy doświadczalnicy woleli jednak pracować w pojedynkę albo parami. Pracowali z bardziej poręcznymi materiałami. Podczas gdy takie dziedziny jak hydrodynamika straciły swój status, fizyka ciała stałego go zyskała, ostatecznie rozszerzając swoje terytorium dostatecznie mocno, aby zażądać bardziej rozległej nazwy: fizyka fazy skondensowanej, fizyka materiałów. W fizyce fazy skondensowanej maszyneria była prostsza, przestrzeń dzieląca teoretyków i doświadczalników węższa. Teoretycy byli mniejszymi snobami, doświadczalnicy byli trochę mniej w defensywie. Pomimo to perspektywy się różniły. Typowy teoretyk przerywał wykład doświadczalnika pytaniami: Czy większa liczba punktów pomiarowych nie
byłaby bardziej przekonywająca? Czy ten wykres nie jest zbyt nieporządny? Czy te liczby nie powinny rozciągać się dalej w górę i w dół skali o kilka rzędów wielkości? I odwrotnie, całkowicie w charakterze Harry’ego Swinneya leżało rzucenie z wysokości swoich 165 cm wzrostu stwierdzenia: „To prawda — mówił z mieszaniną wrodzonego czaru mieszkańca Luizjany i nabytej wybuchowości nowojorczyka 6. — To prawda pod warunkiem, że ma pan nieskończoną ilość bezszumowych danych. — I toczył się spokojnie ku tablicy, dodając: — W rzeczywistości, oczywiście, ma pan ograniczoną ilość zaszumionych danych”. Swinney eksperymentował z materiałami. Punktem zwrotnym w jego życiu był okres studiów na John Hopkins University. Ekscytacja fizyką cząstek była oczywista. Pewnego razu przybył z wykładem Murray GellMann i Swinney został urzeczony. Ale kiedy przyjrzał się, co robią doktoranci w tej dziedzinie, stwierdził, że wszyscy piszą programy komputerowe albo lutują komory iskrowe. Podjął więc rozmowy z pewnym starszym fizykiem, który rozpoczynał swoją pracę nad przejściami fazowymi — przejściami od ciała stałego do ciekłego, od niemagnetyka do magnetyka, od przewodnika do nadprzewodnika. Niedługo potem Swinney miał pokój do pracy — niewiele większy od ubikacji, ale do własnej dyspozycji. Posiadał też katalog wyposażenia laboratoryjnego i zaczął zamawiać sprzęt. Wkrótce otrzymał stół i laser, trochę urządzeń chłodzących oraz probówek. Przygotował aparaturę do mierzenia, jak dwutlenek węgla przewodzi ciepło w pobliżu punktu krytycznego, w którym przechodzi od pary do cieczy. Większość zainteresowanych myślała, że przewodnictwo cieplne zmienia się w niewielkim stopniu. Swinney stwierdził, że zmienia się tysiąckrotnie. To było podniecające — sam w malutkim pokoiku odkrywa coś, czego nikt przedtem nie wiedział. Widział nieziemskie światło, jakim świeciła para,
każdy rodzaj pary, blisko punktu krytycznego, światło nazywane „opalescencją”, ponieważ delikatne rozproszenie promieni dawało biały opalizujący blask. Podobnie jak wiele aspektów zjawiska chaosu z przejściami fazowymi jest związany rodzaj makroskopowego zachowania, który wydaje się trudny do przewidzenia, gdy patrzeć na mikroskopowe szczegóły. Kiedy ciało stałe jest podgrzewane, jego molekuły oscylują na skutek wzrostu energii. Oscylacje powodują, że cząsteczki odpychają się wbrew siłom wiążącym i substancja się rozszerza. Im więcej ciepła, tym większe rozszerzenie. Jednak przy pewnej temperaturze i ciśnieniu zmiany stają się nagłe i nieciągłe. Lina dotąd napinała się; teraz pękła. Krystaliczne formy rozpuszczają się, a molekuły odsuwają się od siebie. Podlegają teraz prawom dotyczącym cieczy, które nie mogą być wywnioskowane z żadnego aspektu ciała stałego. Średnia energia atomowa zmieniła się nieznacznie, ale materiał — teraz ciecz albo magnetyk, albo nadprzewodnik — wszedł do nowej dziedziny. Günter Ahlers z AT&T Bell Laboratories w New Jersey zbadał tzw. nadciekłe przejście w ciekłym helu, w którym, kiedy spada temperatura, materiał staje się pewnego rodzaju magicznie płynącą cieczą z niedostrzegalną lepkością i tarciem. Inni studiowali nadprzewodniki. Swinney badał punkt krytyczny, w którym materia przechodzi od cieczy w parę. W połowie lat siedemdziesiątych Swinney, Ahlers, Pierre Bergé, Jerry Gollub, Marzio Giglio i inni — w Stanach Zjednoczonych, Francji i Włoszech — wszyscy wyrośli z młodej tradycji badań przejść fazowych, szukali nowych problemów. Tak jak listonosz przyswaja sobie rozkład klatek schodowych i ulic, a później swojego obwodu, uczyli się szczególnych drogowskazów w substancjach zmieniających fundamentalnie stan. Badali ową krawędź, nad którą balansuje materia. Rozwój badań przejść fazowych podąża wzdłuż kamieni milowych
analogii: przejście fazowe niemagnetyk–magnetyk jest takie jak przejście ciecz–para. Przejście fazowe ciecz–nadciecz jest takie jak przejście przewodnik–nadprzewodnik. Matematykę stosowaną w jednym eksperymencie stosuje się również w wielu innych. W latach siedemdziesiątych problem został w dużym stopniu rozwiązany. Jednak pozostała otwarta kwestia: Na jak dalekie obszary można rozciągnąć teorię? Jakie inne zmiany w świecie, gdy je dokładniej zbadamy, okażą się przejściami fazowymi? Nie była to ani najbardziej oryginalna idea, ani oczywistość, by zastosować techniki przejść fazowych do przepływu płynów. Nie najoryginalniejsza, ponieważ wielcy pionierzy hydrodynamiki: Reynolds i Rayleigh oraz ich następcy we wczesnych latach dwudziestych zauważyli, że w dokładnie kontrolowanym eksperymencie z płynami wytwarzają się zmiany w jakości ruchu, które w języku matematyki nazywane są bifurkacjami. Na przykład w danej komórce ciecz podgrzewana od spodu gwałtownie przechodzi od spoczynku do ruchu. Fizyków kusiło założenie, że charakter fizyczny tej bifurkacji przypomina zmiany w materiale, które mieszczą się w rubryce: przejścia fazowe. Nie był to najbardziej oczywisty rodzaj eksperymentu, ponieważ — inaczej niż w normalnych przejściach fazowych — te bifurkacje w płynach nie pociągają za sobą żadnych zmian w substancji jako takiej. Zamiast tego dodawały nowy element: ruch. Jednak ciecz stawała się płynącą cieczą. Dlaczego matematyka takiej zmiany powinna korespondować z matematyką skraplającej się pary? W roku 1973 Swinney uczył w City College w Nowym Jorku 7. Jerry Gollub — poważny, chłopięco wyglądający absolwent Harvardu — uczył w Haverford. Ten miły, sielankowy college sztuk wyzwolonych w pobliżu Filadelfii nie wydawał się idealnym miejscem na zwieńczenie kariery fizyka.
Nie było tam studentów, którzy by mogli pomóc w pracach laboratoryjnych i przejąć inne obowiązki w ważnym partnerskim układzie między mentorem i protegowanym. Gollub jednak lubił uczyć i zaczął rozwijać zakład fizyki w ramach college’u, szeroko znanego z jakości pracy eksperymentalnej. Tego roku wziął urlop semestralny i udał się do Nowego Jorku, aby rozpocząć współpracę ze Swinneyem.
Przepływ wody pomiędzy rotującymi cylindrami. Przepływ o widocznej strukturze między dwoma cylindrami pozwolił Harry’emu Swinneyowi i Jerry’emu Gollubowi obserwować przejście do turbulencji. Kiedy szybkość obrotu wzrasta, struktura staje się coraz bardziej złożona. Najpierw woda tworzy charakterystyczny układ przypominający stos obwarzanków. Potem obwarzanki zaczynają falować. Fizycy stosowali lasery do mierzenia zmian prędkości wody w chwili pojawiania się kolejnych niestabilności.
Pamiętając o analogii pomiędzy przejściami fazowymi i niestabilnością płynów, dwaj mężczyźni zdecydowali się zbadać klasyczny układ cieczy zamkniętej pomiędzy dwoma pionowymi cylindrami. Jeden cylinder obracał się, ciągnąc ciecz wokół siebie. Strumień był ograniczony do przestrzeni między cylindrami. Zatem, inaczej niż w przypadku strumieni i wirów w otwartym zbiorniku wodnym, ograniczony był również możliwy ruch cieczy w przestrzeni. Rotujące cylindry wytwarzały to, co znamy pod nazwą przepływu Couette’a-Taylora. Na ogół wewnętrzny cylinder, dla uproszczenia, obraca się wewnątrz stacjonarnej powłoki. Kiedy zaczyna się rotacja i nabiera prędkości, pojawia się pierwsza niestabilność: ciecz tworzy piękną strukturę przypominającą stos dętek na stacji obsługi. Pasy w kształcie obwarzanków ułożonych jeden na drugim okrążają cylinder. Dowolna plamka w cieczy nie tylko rotuje ze wschodu na zachód, ale również w górę i do wnętrza oraz w dół i na zewnątrz obwarzanka. Tyle już wiedziano.
W 1923 roku zaobserwował niniejsze zjawisko G.I. Taylor. Aby badać przepływ Couette’a, Swinney i Gollub zbudowali aparaturę, która mieściła się na biurku; zewnętrzy cylinder szklany miał wymiary puszki po piłeczkach do tenisa, tj. około 30 cm wysokości i 5 cm średnicy. Wewnętrzny cylinder ze stali wsuwał się gładko do wnętrza, pozostawiając tylko trzymilimetrową szparę na wodę. ,,To był aparat za parę groszy — powiedział Freeman Dyson, jeden z wielu niespodziewanych turystów odwiedzających to miejsce w ciągu kilkunastu następnych miesięcy. — Tych dwóch dżentelmenów w ciasnym laboratorium, zupełnie bez pieniędzy wykonuje absolutnie piękne doświadczenie. Był to początek porządnych, ilościowych badań nad turbulencją”. Swinney i Gollub uznawali tylko porządną pracę naukową, która przyniosłaby im uznanie. Obaj postanowili potwierdzić domysł Landaua dotyczący pojawiania się turbulencji. Nie mieli oni żadnych powodów, aby w niego wątpić. Wiedzieli, że naukowcy zajmujący się dynamiką cieczy wierzą w tę teorię. Jako fizykom podobała im się, ponieważ pasowała do ogólnego obrazu przejść fazowych, a sam Landau opracował najbardziej realne ramy dla badania przejść fazowych, oparte na pomyśle, że takie zjawiska mogą spełniać uniwersalne prawa z regularnościami, które niwelują różnice w tych substancjach. Harry Swinney, badając punkt krytyczny przejścia cieczy w parę dla dwutlenku węgla, wierzył, w zgodzie z koncepcją Landaua, że może przenieść swoje odkrycia na zagadnienie punktu krytycznego przejścia cieczy w parę dla ksenonu — i tak było faktycznie. Dlaczego turbulencja nie miałaby być stacjonarną akumulacją konkurencyjnych rytmów w poruszającym się płynie? Zamierzając zaatakować problem ruchu cieczy, Swinney i Gollub przygotowali cały arsenał świetnych technik eksperymentalnych, które były rozwijane w badaniach nad przejściami fazowymi w najbardziej subtelnych
warunkach. Dysponowali oni metodami laboratoryjnymi i urządzeniami pomiarowymi, o jakich znawcom dynamiki płynów się nie śniło. Aby próbkować rotujące prądy, używali światła laserowego. Wiązka przechodząca przez wodę uginała się albo rozpraszała, a to mogło być mierzone. Jest to technika zwana laserową interferometrią dopplerowską. A informacje o strumieniu danych mogły być magazynowane i przetwarzane przez komputer — urządzenie, które w 1975 roku było raczej rzadkim wyposażeniem w eksperymentach laboratoryjnych przeprowadzanych na jednym stole. Landau stwierdził, że nowe częstości będą się pojawiać pojedynczo, gdy będzie wzrastać prędkość przepływu. „Przeczytaliśmy to — opowiadał Swinney 8 — i powiedzieliśmy sobie: w porządku, będziemy obserwować przejścia, przy których pojawiają się te częstości. Więc obserwowaliśmy głęboko przekonani, że tam było bardzo dobrze określone przejście fazowe. Przeszliśmy w tę i z powrotem przez przejście, zwiększając i zmniejszając prędkość cylindra. Było ono faktycznie dobrze określone”. Kiedy zaczęli ogłaszać swoje wyniki, natrafili na socjologiczną barierę między strefą wpływów fizyki a dynamiki płynów 9. Bariera ta miała pewne szczególne cechy. Przede wszystkim określała, który wydział wewnątrz Komisji Badań Naukowych (National Science Foundation) finansował takie badania. W latach osiemdziesiątych doświadczenie Couette’a-Taylora było znowu fizyką, ale w 1973 roku mieściło się wyraźnie w dynamice płynów. Dla ludzi orientujących się w dynamice płynów pierwsze wyniki, które nadeszły z małego laboratorium z City College, były podejrzanie czyste. Znawcy zagadnienia po prostu w nie nie uwierzyli. Nie byli przyzwyczajeni do eksperymentów wykonanych w stylu precyzyjnych doświadczeń z fizyki przejść fazowych. Ponadto z perspektywy dynamiki płynów teoretyczna intencja takiego doświadczenia była trudno dostrzegalna. Gdy Swinney
i Gollub po raz drugi zwrócili się do Komisji Badań Naukowych o dofinansowanie swoich badań, ich prośba została odrzucona. Jacyś recenzenci nie dali wiary osiągnięciom naukowców, a inni powiedzieli, że nie ma w tym nic nowego. Ale doświadczenie nie zostało przerwane. „Znaleźliśmy dobrze określone przejście fazowe — powiedział Swinney 10. — To było wspaniałe. Zatem kontynuowaliśmy prace, aby znaleźć następne”. Jednak spodziewana sekwencja Landaua załamała się. Eksperyment nie potwierdził teorii 11. Przy następnym przejściu przepływ wpadł w skomplikowany stan bez rozróżnialnych cykli. Żadnej nowej częstotliwości, żadnego stopniowego budowania złożoności. „To, co znaleźliśmy, okazało się chaotyczne”. Kilka miesięcy później pojawił się w drzwiach pracowni szczupły, czarujący Belg. David Ruelle czasami mawiał, że są dwa rodzaje fizyków 12. Jedni dorastali, rozbierając radioodbiorniki: przed erą półprzewodników mogli oglądać przewody i żarzące się lampy próżniowe, wyobrażając sobie coś na temat przepływu elektronów. Drudzy bawili się zestawami chemicznymi. Ruelle bawił się zestawami chemicznymi, ale nie zestawami w dzisiejszym znaczeniu, lecz odczynnikami, wybuchowymi i trującymi, wspaniale sporządzanymi w jego rodzinnej, północnej Belgii przez miejscowego aptekarza, a potem mieszanymi, podgrzewanymi, krystalizowanymi i odpalanymi przez Ruelle’a we własnej osobie. Urodził się w Ghent w roku 1935 jako syn nauczycielki gimnastyki i profesora lingwistyki. Chociaż karierę zrobił w abstrakcyjnej dziedzinie nauki, zawsze miał zamiłowanie do niebezpiecznych stron przyrody, które ukrywały się pod postacią grzybów, saletry potasowej, siarki i węgla drzewnego. Jednak trwały wkład do badań nad chaosem Ruelle wniósł do fizyki matematycznej. W roku 1970 rozpoczął pracę w Institut des Hautes Études
Scientifiques pod Paryżem, wzorowanym na Institute for Advanced Study w Princeton. Już wtedy miał przyzwyczajenia, które trwały przez całe życie: co jakiś czas porzucał instytut i rodzinę, aby udać się na samotne, ciągnące się tygodniami wycieczki, niosąc swój plecak przez puste i dzikie miejsca Islandii albo Meksyku. Często nie widywał nikogo. Kiedy przechodził przez siedziby ludzkie i korzystał z gościnności — był to posiłek z płatków kukurydzianych, bez tłuszczu, mięsa czy warzyw — czuł, że widzi świat taki, jaki był dwa tysiące lat temu. Kiedy wracał do instytutu i zaczynał od nowa swoją działalność naukową, jego twarz była trochę bardziej wychudzona, a skóra na czole i policzkach trochę bardziej naciągnięta. Ruelle słuchał wykładów Steve’a Smale’a o jego podkowie i chaotycznych możliwościach układów dynamicznych. Myślał również o turbulencjach w cieczach i o klasycznej koncepcji Landaua. Podejrzewał, że te dwie idee pozostają we wzajemnym związku ale sobie przeczą. Ruelle nie miał żadnego doświadczenia w zakresie dynamiki cieczy, ale to go nie przerażało, tak jak i jego poprzedników. „Nowe rzeczy znajdują zwykle niespecjaliści — powiedział 13. — Nie ma żadnej naturalnej, wyczerpującej teorii turbulencji. Wszystkie pytania, jakie możesz zadać o turbulencji, mają bardziej ogólny charakter, a zatem są dostępne dla niespecjalistów”. Łatwo zauważyć, dlaczego turbulencja opiera się analizie. Równania na przepływ cieczy są nieliniowymi, cząstkowymi równaniami różniczkowymi, nierozwiązywalnymi poza szczególnymi przypadkami. Jednak Ruelle wypracował abstrakcyjną alternatywną teorię w stosunku do modelu Landaua, zredagowaną w języku Smale’a, z obrazami przestrzeni „wykonanej” z podatnego materiału, który można ściskać, napinać i wyginać, nadając jej kształt podkowy. Wraz z duńskim matematykiem, Florisem Takensem, który w tym czasie gościł w jego instytucie, napisał pracę 14, która ukazała się w 1971 roku. Praca była niewątpliwie napisana
w matematycznym stylu — fizycy strzeżcie się! — co znaczy, że każdy ustęp zaczynał się od słów: Definicja, Twierdzenie lub Dowód, po których nieuchronnie pojawiał się zwrot: Niech... Na przykład: „Twierdzenie (5.2). Niech Xμ będzie jednoparametrową rodziną pól wektorowych Ck na przestrzeni Hilberta taką, że...” Jednak tytuł dowodził powiązań z realnym światem: „O naturze turbulencji” — echo tytułu znanej pracy Landaua „O problemie turbulencji”. Przejrzysty cel dowodu Ruelle’a i Takensa wykracza poza matematykę; zamierzali oni zmienić tradycyjne poglądy na pojawianie się turbulencji. Zamiast nagromadzania częstości, prowadzącego do niezliczonej liczby niezależnych, nakładających się ruchów, zaproponowali, że tylko trzy niezależne ruchy generują pełną złożoność turbulencji. Z punktu widzenia matematyki ich logika okazała się niejasna, zła, zapożyczona, albo wszystko razem — jeszcze piętnaście lat później opinie na ten temat wciąż ulegały zmianom 15. Ale idea, komentarz, marginalia i fizyczna nadbudowa dzieła spowodowały, że miało ono trwałą wartość. Najbardziej kuszący był obraz, który autorzy nazwali dziwnym atraktorem. To wyrażenie było psychologicznie „sugestywne”, stwierdził później Ruelle 16. Jego ważność była tak duża, że Ruelle i Takens potykali się później na ubitej ziemi o to, kto wybrał to słowo. Naprawdę nikt nie pamiętał dokładnie, ale Takens, wysoki, rumiany, gwałtowny Nordyk, powiedział 17: „Czy pytałeś kiedyś Boga, czy to on stworzył ten cały cholerny wszechświat?[...] Nie pamiętam niczego... Często tworzę coś, a potem o tym zapominam”. Tymczasem Ruelle, pierwszy autor pracy, zauważa miękko: „Tak się stało, że Takens odwiedził IHES. Różni ludzie mają różne sposoby pracy. Pewni ludzie próbują napisać pracę całkowicie samodzielnie i później do nich tylko należą zaszczyty”. Dziwny atraktor — jeden z najpotężniejszych wynalazków współczesnej
nauki — żyje w przestrzeni fazowej. Przestrzeń ta jest sposobem na przekształcenie liczb w wykresy, przenoszącym każdy bit istotnej informacji z układu poruszających się elementów mechanicznych lub cząstek cieczy na elastyczną mapę wszystkich jego możliwości. Fizycy już pracowali z dwoma prostszymi rodzajami „atraktorów”: punktami stałymi i cyklami granicznymi reprezentującymi zachowanie, które osiąga stan stacjonarny lub powtarza się bez końca. W przestrzeni fazowej pełna wiedza o układzie dynamicznym w danej chwili zawiera się w pojedynczym punkcie. Ten punkt jest układem dynamicznym w tej chwili. W następnej chwili jednak system zmieni się bardzo nieznacznie, a punkt się przesunie. Historia układu może być przedstawiona przez poruszający się punkt, który wraz z upływem czasu kreśli orbitę w przestrzeni fazowej. Jak wszystkie informacje o skomplikowanym układzie mogą być zmagazynowane w jednym punkcie? Jeśli system opisują tylko dwie zmienne, odpowiedź jest prosta. Wynika bezpośrednio z geometrii analitycznej nauczanej w szkołach średnich — jedna zmienna na osi poziomej, druga na pionowej. Jeśli układ jest drgającym wahadłem poruszającym się bez tarcia, jedną zmienną jest położenie, drugą prędkość. Obie zmienne zmieniają się w sposób ciągły, przy czym punkt kreśli pętlę, taką samą wciąż od nowa. Ten sam układ na wyższym poziomie energetycznym — poruszający się szybciej i dalej — tworzy pętlę w przestrzeni fazowej podobną do pierwszej, ale większą. Jeśli dodamy trochę rzeczywistości w postaci tarcia, wykres się zmienia. Nie musimy znać równań ruchu, aby znać los wahadła poddanego tarciu. Każda orbita musi ostatecznie dotrzeć do tego samego punktu, do centrum: położenie 0, prędkość 0. Ten centralny punkt „przyciąga” orbity 18. Zamiast poruszać się po kole w nieskończoność, porusza się po spirali w kierunku
środka. Tarcie powoduje dysypację (rozproszenie) energii układu, a w przestrzeni fazowej dysypacja wygląda jak przyciąganie w kierunku centrum, od obszarów o wyższej do regionów o niższej energii. Atraktor — w swojej najprostszej formie — działa tak jak maleńki magnes wbudowany w gumowy arkusz: wszystkie poruszające się metalowe przedmioty spotykają się ostatecznie w tych punktach. Zaletą rozważania stanów układu jako punktów w przestrzeni jest to, że upraszcza ono obserwację zmian układu. Układ, którego zmienne zmieniają się w sposób ciągły w górę lub w dół, staje się poruszającym się punktem jak mucha latająca wokół pokoju. Jeśli pewne kombinacje zmiennych nigdy nie występują, to naukowiec może po prostu wyobrazić sobie, że część pokoju jest poza obszarem określoności. Mucha nigdy tam nie leci. Jeśli system zachowuje się okresowo, dochodząc do tego samego stanu wciąż od nowa, mucha porusza się w pętli, przechodząc wciąż od nowa przez ten sam punkt przestrzeni fazowej. Portrety przestrzeni fazowej układów ukazują strukturę ruchu, inaczej niewidoczną, tak jak fotografia krajobrazu w podczerwieni może ujawnić szczegóły, które istnieją poza zasięgiem wzroku. Gdy badacz patrzy na przestrzeń fazową, może w myślach wrócić do układu jako takiego. Ta pętla koresponduje z taką okresowością. Ten zakręt odpowiada takiej zmianie. To puste miejsce odpowiada fizycznej niemożliwości. Już w dwóch wymiarach portrety fazowe przyniosły wiele niespodzianek i nawet za pomocą osobistego mikrokomputera było możliwe zademonstrowanie pewnych z nich, w formie przekształcenia równań w kolorowe ruchome trajektorie. Niektórzy fizycy zaczęli nagrywać filmy wideo, aby pokazać to swoim kolegom, a kilku matematyków z Kalifornii 19 opublikowało książeczki zawierające szereg zielonych, niebieskich i czerwonych rysunków jak z filmów animowanych, czyli tzw. chaotyczne komiksy, jak je nazywali ich koledzy nie bez cienia złośliwości. Dwa
wymiary to za mało, aby opisać takie układy, które interesowałyby fizyków. Aby je opisać, potrzeba więcej zmiennych, a to oznacza więcej wymiarów. Każdy element układu dynamicznego, który może poruszać się niezależnie, to jedna dodatkowa zmienna, czyli tzw. stopień swobody. Każdy stopień swobody wymaga nowego wymiaru w przestrzeni fazowej, aby punkt w przestrzeni fazowej zawierał wszystkie potrzebne informacje o stanie układu. Proste równania, które studiował Robert May, były jednowymiarowe — wystarczyła zaledwie jedna liczba — liczba, która zastępowała temperaturę albo wielkość populacji — i ta liczba określała położenie punktu na jednowymiarowej linii. Okrojony układ konwekcji płynu Lorenza był trójwymiarowy nie dlatego, że ciecz poruszała się w trzech wymiarach, ale dlatego, że potrzeba było trzech liczb, aby opisać stan płynu w dowolnej chwili. Przestrzeń cztero-, pięcio- lub więcejwymiarowa poddaje próbie wzrokową wyobraźnię nawet najmądrzejszych topologów. Jednak złożone układy opisywane są wieloma zmiennymi niezależnymi. Matematycy musieli zaakceptować fakt, że układy z nieskończenie wieloma stopniami swobody — nieskrępowana natura wyrażająca się w burzliwym przepływie wody w wodospadzie albo w nieprzewidywalnym mózgu — wymagają przestrzeni fazowej o nieskończonych wymiarach. Ale kto potrafił posługiwać się taką przestrzenią? Była to hydra, bezlitosna i niekontrolowalna, i taki był właśnie obraz turbulencji Landaua: nieskończona liczba modów, nieskończona liczba stopni swobody, nieskończony wymiar.
ADOLPH E. BROTMAN
Inny sposób widzenia wahadła. Jeden punkt w przestrzeni fazowej (po prawej) zawiera wszystkie informacje o stanie układu dynamicznego w dowolnej chwili (po lewej). Dla prostego wahadła dwie liczby — prędkość i położenie — stanowią wszystko, co musisz wiedzieć.
ADOLPH E. BROTMAN
Punkt porusza się po trajektorii, która dostarcza sposobu wizualizacji ciągłego, długookresowego zachowania się układu dynamicznego. Powtarzająca się pętla reprezentuje układ, który powtarza się w regularnych odstępach w nieskończoność. Jeśli powtarzające się zachowanie jest stabilne, jak w przypadku zegara wahadłowego, to system wraca do swojej orbity po niewielkich zakłóceniach ruchu. W przestrzeni fazowej trajektorie w pobliżu orbity są wciągane do jej środka; orbita jest atraktorem.
Fizyk słusznie nie lubi modelu, który jest tak niejasny. Stosując równania nieliniowe do opisu ruchu cieczy, najszybsze komputery świata nie mogą dokładnie śledzić przepływu burzliwego jednego centymetra sześciennego cieczy przez okres dłuższy niż kilka sekund. Wina za to leży raczej po stronie przyrody, a nie Landaua, ale i tak model Landaua jest przeciwny naturze. Z braku lepszej wiedzy fizyk mógłby czuć się usprawiedliwiony, że podejrzewa, iż jakaś zasada wymyka się odkryciu. Wielki Richard Feynman, fizyk zajmujący się teorią kwantów, wyraził to uczucie w następujący sposób 20: „Zawsze mnie dręczyło to, że — zgodnie z prawami, które akceptujemy dzisiaj — maszyna licząca potrzebuje nieskończonej liczby
logicznych operacji, aby obliczyć, co się dzieje w dowolnie małym obszarze przestrzeni i dowolnie krótkim odcinku czasu. Jak to wszystko może przebiegać w tej tak małej przestrzeni? Dlaczego potrzeba nieskończenie wiele operacji logicznych do obliczenia tego, co się będzie działo z tym małym elementem przestrzeni?”.
ADOLPH E. BROTMAN
Atraktor może być pojedynczym punktem. Dla wahadła w sposób ciągły tracącego energię wskutek tarcia wszystkie trajektorie biegną spiralnie w kierunku punktu, który reprezentuje stan stacjonarny — w tym przypadku całkowity brak ruchu.
Jak wielu z tych, którzy zaczynali badania nad chaosem, David Ruelle podejrzewał 21, że widoczna struktura przepływu turbulentnego — samowikłających się linii przepływu, spiralnych wirów, zwojów, które rosną i znikają w oczach — musi odzwierciedlać struktury, które mogą wyjaśnić nieodkryte prawa. Według niego dysypacja energii w przepływie turbulentnym musi prowadzić do swego rodzaju kurczenia się przestrzeni fazowej i dążenia w kierunku atraktora. Z pewnością atraktor nie będzie punktem, ponieważ przepływ nigdy nie ustanie. Energia była wlewana, jak również odprowadzana z układu. Jaki inny rodzaj atraktora mógłby istnieć?
Zgodnie z dogmatem istnieje tylko jeszcze jeden — atraktor periodyczny albo cykl graniczny — orbita, która przyciąga wszystkie inne pobliskie orbity. Jeśli wahadło uzyskuje energię ze sprężyny i traci ją przez tarcie — czyli, jeśli wahadło jest napędzane oraz tłumione — stabilna orbita może być zamkniętą pętlą w przestrzeni fazowej, która reprezentuje regularnie wahające się wahadło staroświeckiego zegara. Nie jest ważne, gdzie wahadło wystartuje, na pewno dojdzie do tej jednej orbity. Czy tak jednak będzie? W przypadku pewnych początkowych warunków — tych z najmniejszą energią — wahadło będzie się całkowicie zatrzymywać. Tak więc będą w rzeczywistości dwa atraktory: zamknięta pętla oraz stały punkt. Każdy atraktor ma swój „basen”, tak jak dwie sąsiednie rzeki mają swoje dorzecza. W krótkim czasie każdy punkt w przestrzeni fazowej może wyobrażać możliwe zachowanie się układu dynamicznego. W długich odcinkach czasu jedyne możliwe zachowania wyznaczają atraktory. Wszystkie inne rodzaje ruchu są przejściowe. Atraktory z definicji mają ważną właściwość stabilności — w rzeczywistych układach, gdzie poruszające się części podlegają uderzeniom i wstrząsom pochodzącym z szumu rzeczywistego świata, ruch wraca do atraktora. Uderzenie może przesunąć trajektorię na krótki czas, ale ostatecznie przejściowe ruchy zanikają. Nawet jeśli kot uderzy w wahadło, zegar nie zacznie odmierzać sześćdziesięciodwusekundowych minut. Turbulencja w płynie jest zachowaniem innego rzędu: nigdy nie generuje jakiegoś wyjątkowego pojedynczego rytmu. Dobrze znana cecha turbulencji polega na tym, że całe szerokie widmo możliwych częstości jest obecne równocześnie. Turbulencja jest jak biały szum. Czy taka rzecz może powstać z prostego deterministycznego układu równań? Ruelle i Takens zastanawiali się, czy inny rodzaj atraktora mógłby mieć podobny zbiór właściwości. Stabilny — reprezentujący ostateczny stan
systemu dynamicznego w świecie pełnym szumów. Niskowymiarowy — orbita w przestrzeni fazowej, która mogłaby być prostokątem albo prostopadłościanem z kilkoma zaledwie stopniami swobody. Nieokresowy — nigdy niepowtarzające się cykle i bez wpadania w rytm staroświeckiego zegara. Geometrycznie problem był łamigłówką: jaką orbitę można wykreślić w ograniczonej przestrzeni tak, żeby nigdy nie powtórzyła się i nigdy nie przecięła — ponieważ jeśli układ choć raz wróci do jakiegoś stanu, w którym był poprzednio, będzie musiał podążać tym samym torem. Aby wygenerować każdy rytm, linia musiałaby być nieskończenie długa w skończonej powierzchni. Innymi słowy — chociaż słowo to nie było jeszcze wymyślone — linia ta powinna być fraktalem. Na podstawie rozważań matematycznych Ruelle i Takens twierdzili, że taka rzecz musi istnieć. Nigdy żadnej takiej linii nie widzieli i nie narysowali. Ale twierdzenie wystarczyło. Później podczas przemówienia na Międzynarodowym Kongresie Matematyków w Warszawie — mając za sobą pewien bagaż doświadczeń — Ruelle oświadczył 22: „Reakcja społeczności naukowej na naszą propozycję była chłodna. W szczególności pogląd, że widmo ciągłe mogłoby być związane z kilkoma stopniami swobody, było postrzegane przez wielu fizyków jako herezja”. Ale to właśnie fizycy — ściśle biorąc, ich garstka — rozpoznali ważność dzieła z 1971 roku i rozpoczęli prace nad jego implikacjami. Faktycznie już przed rokiem 1971 literatura naukowa zawierała jedną taką linię kreślącą niewyobrażalną bestię, którą Ruelle i Takens próbowali ożywić. Edward Lorenz włączył ją do swojej pracy z roku 1963 na temat deterministycznego chaosu 23: był to rysunek dwóch krzywych po prawej stronie, jedna w drugiej, i pięciu po lewej. Do wykreślenia tych siedmiu pętli potrzebował 500 kolejnych obliczeń na komputerze. Punkt poruszający się wzdłuż tej trajektorii w przestrzeni fazowej, wokół pętli, ilustrował powolną,
chaotyczną rotację płynów zgodnie z modelem, który za pomocą trzech równań Lorenza opisywał konwekcję. Ponieważ układ miał trzy zmienne niezależne, ten atraktor leżał w trójwymiarowej przestrzeni fazowej. Chociaż Lorenz wykreślił tylko jej fragment, widział więcej, niż narysował: rodzaj podwójnej spirali przypominającej parę skrzydeł motyla, posplatanych ze sobą z nieskończoną zręcznością. Kiedy ciepło dostarczane do układu pchało płyn dookoła w jednym kierunku, trajektoria znajdowała się na prawym skrzydle; kiedy toczenie się zatrzymywało i odwracało, trajektoria przeskakiwała na drugie skrzydło. Atraktor był stabilny, o niskim wymiarze i nieokresowy. Nigdy się nie przecinał, ponieważ gdyby to uczynił, wróciłby do punktu, przez który już przechodził i od tego momentu kontynuowałby ruch periodyczny. To się nigdy nie zdarzyło: na tym polega piękno atraktora. Te pętle i spirale były nieskończenie głębokie, zawsze niezupełne, nigdy nieprzecinające się. Jednak pozostawały wewnątrz skończonej przestrzeni dającej się zamknąć w prostopadłościanie. Jak to możliwe? Jak to możliwe, że nieskończenie wiele linii leży w skończonej przestrzeni?
EDWARD N. LORENZ
Pierwszy dziwny atraktor. W roku 1963 Edward Lorenz był w stanie obliczyć tylko kilka pierwszych nici atraktora dla swojego prostego układu równań. Ale dostrzegł, że wzajemne przeplatanie się dwóch spiralnych skrzydeł musi mieć niezwykłą strukturę w niedostrzegalnie małej skali.
W okresie, zanim fraktale Mandelbrota zalały rynek naukowy, szczegóły konstruowania takiego kształtu były trudne do wyobrażenia i Lorenz przyznał, że widzi w tym „jawną sprzeczność”. „Trudno pogodzić połączenie dwóch powierzchni, z których jedna zawiera drugą, z niezdolnością dwóch trajektorii do łączenia się” — napisał 24. Ale wiedział, że odpowiedź jest zbyt delikatnej natury, aby mogła się ujawnić po kilku cyklach obliczeń będących
w zasięgu jego komputera. „Tam, gdzie spirale wydają się łączyć, powierzchnie muszą się dzielić — stwierdził, tworząc dwie oddzielne warstwy w taki sposób jak łuskowate ciastka francuskie. — Widać, że każda powierzchnia jest w rzeczywistości parą powierzchni, tak że tam, gdzie wydają się łączyć, są w istocie cztery powierzchnie. Kontynuując ten proces dla kolejnego obiegu, widzimy, że jest w rzeczywistości osiem powierzchni itd., i wreszcie stwierdzamy, że jest to nieskończona złożoność powierzchni, każda ekstremalnie blisko jednej albo drugiej z dwóch łączących się powierzchni”. Nie można się dziwić, że meteorologowie w 1963 roku pozostawili w spokoju takie spekulacje i że Ruelle dziesięć lat później czuł zaskoczenie i podniecenie, kiedy wreszcie dowiedział się o pracy Lorenza. Kilka lat po tym wydarzeniu odwiedził Lorenza i wyjechał od niego z uczuciem niezadowolenia, ponieważ nie porozumieli się ze sobą co do wspólnego obszaru badań 25. Z charakterystyczną dla siebie nieśmiałością Lorenz przekształcił to spotkanie w towarzyskie i udali się ze swoimi żonami do muzeum sztuki. Prace Ruelle’a i Takensa kontynuowane były w dwu kierunkach. Jeden to teoretyczne próby wizualizacji dziwnych atraktorów. Czy atraktor Lorenza był typowy? Jakie inne rodzaje kształtu były możliwe? Drugim była praca eksperymentalna przedsięwzięta w celu potwierdzenia lub odrzucenia wysoce niematematycznej wiary sugerującej stosowalność dziwnych atraktorów do chaosu w przyrodzie. W Japonii badania obwodów elektrycznych, które imitowały zachowanie się sprężyn mechanicznych — ale dużo szybszych — doprowadziły Yoshisuke Uedę do odkrycia niezwykle pięknego zbioru dziwnych atraktorów. (Ueda zetknął się ze wschodnią wersją chłodu ze strony społeczności naukowej, która powitała poprzednio Ruelle’a 26: „To, co pan uzyskał, to po prostu oscylacja prawie okresowa. Proszę nie tworzyć własnej
koncepcji stanu stacjonarnego”). W Niemczech Otto Rössler, niepraktykujący lekarz medycyny, który doszedł do teorii chaosu od strony chemii i biologii teoretycznej, posiadł zdolność rozpatrywania dziwnych atraktorów jako obiektów filozoficznych: kwestie matematyczne były dlań drugorzędne. Nazwisko Rösslera zostało przypisane do szczególnie prostego atraktora w kształcie pofałdowanej wstążki, studiowanego głównie dlatego, że można go było łatwo wykreślić, ale Rössler również pokazał, jak wyglądają atraktory w wyższych wymiarach. „Kiełbasa w kiełbasie w kiełbasie w kiełbasie — powiedział — weź ją, zegnij, ściśnij i odłóż”. Rzeczywiście, zginanie i ściskanie przestrzeni było kluczem do konstruowania dziwnych atraktorów, a może i kluczem do dynamiki rzeczywistych układów, które dają im początek. Rössler przeczuwał, że te kształty ucieleśniają zasadę samoorganizacji świata. Wyobrażał sobie coś na kształt rękawa na lotnisku: „otwarty wąż z otworem na końcu i wiatr wpada do jego wnętrza. Następnie wiatr zostaje uwięziony. Wbrew swojej woli energia robi coś pożytecznego jak diabeł w średniowiecznej historii. Zasada polega na tym, że przyroda robi coś przeciw własnej woli i przez samopoplątanie tworzy piękno”. Wykonywanie rysunków dziwnych atraktorów nie było zajęciem banalnym. Na ogół orbity zwijają swoje coraz bardziej skomplikowane tory w trój- albo więcejwymiarowej przestrzeni, tworząc ciemne gryzmoły w przestrzeni z wewnętrzną strukturą, która nie mogła być widoczna z zewnątrz. Aby przekształcić te trójwymiarowe motki w płaskie rysunki, naukowcy najpierw stosowali metody projekcji, w których wykres przedstawiał cień, jaki atraktor rzucałby na płaszczyznę. Ale w przypadku skomplikowanych dziwnych atraktorów projekcja tylko rozmazuje szczegóły w nieodcyfrowywalną masę. Bardziej właściwą techniką było sporządzanie odwzorowania powrotu albo inaczej przekroju Poincarégo: należy wziąć
dwuwymiarowy plaster z poplątanego serca atraktora, tak jak patolog przygotowuje przekrój tkanki w formie preparatu mikroskopowego. Przekrój Poincarégo usuwa jeden wymiar z atraktora i przekształca linię ciągłą w zbiór punktów. Przy redukowaniu atraktora do jego przekroju Poincarégo uczony zakłada, że zachowuje wiele informacji na temat zasadniczego ruchu. Może, na przykład, wyobrazić sobie dziwny atraktor latający przed jego oczyma: jego orbita to podnosi się, to opada, przelewa się z lewej na prawą i z powrotem, przechodzi na wskroś ekranu jego komputera. Za każdym razem, gdy orbita przecina ekran, zostawia świecący punkt w miejscu przecięcia, a punkty albo tworzą przypadkową plamkę, albo zaczynają kreślić jakiś kształt na monitorze.
JAMES P. CRUTCHFIELD, ADOLPH E. BROTMAN
Struktura dziwnego atraktora. Dziwny atraktor — najpierw jedna orbita, następnie dziesięć, potem sto — przedstawia chaotyczne zachowanie się wirnika, wahadła zakreślającego pełne koło, które napędzane jest impulsami energii podawanymi w regularnych odstępach czasu. Po wykreśleniu tysiąca orbit (poniżej) atraktor stał się niepenetrowalnie pogmatwanym motkiem. Aby zobaczyć jego strukturę wewnętrzną, komputer może wziąć plaster wycięty z atraktora, tzw. przekrój Poincarégo. Technika ta redukuje trójwymiarowy obraz do dwóch wymiarów. Za każdym razem, gdy trajektoria przebija płaszczyznę,
zaznacza punkt i stopniowo wynurza się dokładna struktura. Ten przykład ma ponad 8 tysięcy punktów, każdy zastępuje pełną orbitę wokół atraktora. W efekcie układ jest „próbkowany” w regularnych odstępach czasu. Traci się jeden rodzaj informacji; inny jest przedstawiany z ogromną rozdzielczością.
Proces ten odpowiada próbkowaniu stanu układu nie w sposób ciągły, lecz co jakiś czas. Kiedy wziąć próbkę — skąd wziąć plaster dziwnego atraktora — jest kwestią, która daje badaczowi pewną elastyczność. Odcinek z największą ilością informacji może odpowiadać pewnej fizycznej cesze układu dynamicznego, na przykład przekrój Poincarégo może próbkować prędkość końca wahadła za każdym razem, gdy przechodzi ono przez najniższy punkt. Albo badacz może wybrać pewne regularne odstępy czasu, zamrażając kolejne stany w błyskach wyimaginowanej lampy stroboskopowej. W każdym razie takie obrazki ostatecznie ujawniają subtelną strukturę fraktalną, której domyślał się Edward Lorenz. Najbardziej olśniewający (ze względu na swoją prostotę) atraktor został odkryty przez człowieka, którego zainteresowania były bardzo odległe od tajemnic turbulencji i dynamiki płynów 27. Michel Hénon z obserwatorium w Nicei, na południowym wybrzeżu Francji, był astronomem. Z jednej strony oczywiście astronomia dała początek badaniom układów dynamicznych: precyzyjny ruch planet, który ugruntował tryumf Newtona i zainspirował Laplace’a, ale z drugiej — mechanika nieba różniła się od większości ziemskich układów w pewnym zasadniczym punkcie. Układy, które tracą energię w wyniku tarcia, są układami dysypatywnymi. Układy astronomiczne nie są: są zachowawcze, czyli hamiltonowskie. W rzeczywistości w niemal nieskończenie małej skali nawet astronomiczne układy trafiają na rodzaj oporu: gwiazdy wypromieniowują energię, a tarcie pływowe zmniejsza moment pędu ciał na orbicie. Ale praktycznie w obliczeniach
astronomicznych można zaniedbać tarcie. A bez dysypacji przestrzeń fazowa nie może się fałdować i kurczyć w sposób konieczny do wytworzenia nieskończonego rozwarstwienia fraktalnego. Dziwny atraktor nie mógłby nigdy powstać. A chaos? Wielu astronomów żyło długo i szczęśliwie, robiąc świetne kariery, nie poświęciwszy ani jednej myśli układom dynamicznym, ale Hénon do takich nie należał. Urodził się w Paryżu w 1931 roku, był zatem kilka lat młodszy od Lorenza, ale podobnie jak on był naukowcem z niespełnioną miłością do matematyki. Hénon lubił małe konkretne problemy, które byłyby związane z sytuacjami fizycznymi — „nie tak jak czyni dzisiaj wielu matematyków” — mawiał. Kiedy komputery osiągnęły wymiary stosowne dla hobbystów, Hénon zdobył jeden, firmy Heathkit, który sam polutował i którym bawił się w domu. Na długo przedtem zajął się szczególnie kłopotliwym problemem z zakresu dynamiki. Dotyczył on gromad kulistych — tłumnych kul składających się z wielu (czasem miliona) gwiazd, które tworzą najstarsze i najbardziej zapierające dech obiekty nocnego nieba. Gromady kuliste zawierają zaskakujące zagęszczenia gwiazd. Kwestia, jak utrzymują się razem i jak się rozwijają, wprawiała dwudziestowiecznych astronomów w zakłopotanie. Mówiąc w kategoriach dynamiki, gromada kulista jest to wielki problem wielu ciał. Problem dwóch ciał jest prosty. Newton rozwiązał go w pełni. Każde ciało — Ziemia i Księżyc na przykład — porusza się po torze w kształcie idealnej elipsy wokół wspólnego środka ciężkości. Jeśli jednak doda się tylko jeden dodatkowy obiekt grawitacyjny, wszystko się zmieni. Problem trzech ciał jest trudny, a nawet — jak to pokazał Poincaré — najczęściej jest nierozwiązywalny. Orbity mogą być obliczone numerycznie dla danej chwili i z pomocą wielkich komputerów mogą być wytyczane dla długich okresów, zanim nie zacznie dominować niepewność obliczeniowa.
Ale równania nie mogą być rozwiązane analitycznie, co oznacza, że nie można odpowiedzieć na długofalowe kwestie dotyczące układów trzech ciał. Czy Układ Słoneczny jest stabilny? 28 Z pewnością na taki wygląda w krótkim okresie, ale nawet dzisiaj nikt nie wie z całą pewnością, czy pewne orbity planetarne nie staną się coraz bardziej wydłużone, aż planety ulecą z Układu na zawsze. System taki jak gromada kulista jest zbyt skomplikowany, aby mógł być traktowany bezpośrednio jako problem wielu ciał, ale można badać jego dynamikę po wprowadzeniu pewnych uproszczeń. Rozsądnie będzie przyjąć, że pojedyncze gwiazdy szybują po torach w średnim polu grawitacyjnym posiadającym pewny środek ciężkości. Jednak co jakiś czas dwie gwiazdy zbliżają się do siebie dostatecznie blisko i wtedy ich wzajemne oddziaływanie musi zostać uwzględnione. Astronomowie więc uświadomili sobie, że gromady kuliste ogólnie nie mogą być stabilne. Wewnątrz nich tworzą się podwójne układy gwiazd; gwiazdy łączą się w pary poruszające się po małych orbitach, a kiedy trzecia gwiazda napotka układ podwójny, jedna z trzech gwiazd dozna gwałtownego „kopnięcia”. Co jakiś czas gwiazda taka będzie uzyskiwać dosyć energii z takiego oddziaływania, aby osiągnąć prędkość ucieczki i opuścić gromadę na zawsze; reszta gromady skurczy się nieco. Kiedy Hénon podjął ten problem w swojej pracy doktorskiej pisanej w Paryżu w 1960 roku, uczynił raczej arbitralne założenie, że gdy gromada zmienia skalę, pozostaje samopodobna. Przeprowadziwszy obliczenia, doszedł do zaskakującego wyniku: jądro gromady zapadnie się, uzyskując energię kinetyczną i dążąc do stanu o nieskończonej gęstości. Trudno to sobie wyobrazić i ponadto nie zostało to potwierdzone w wyniku obserwacji dotąd znanych gromad. Ale powoli teoria Hénona, która później została nazwana teorią „kolapsu grawitermicznego”, przyjęła się.
I tak Hénon wprawiony w stosowaniu matymatyki do starych problemów i do tropienia niespodziewanych i nieprawdopodobnych wyników zaczął pracować nad dużo prostszym problemem dynamiki gwiazd. W tym czasie, w roku 1962, będąc w Princeton University, uzyskał dostęp do komputerów. Było to wtedy, gdy Lorenz w MIT po raz pierwszy zastosował komputery w meteorologii. Hénon rozpoczął prace nad modelowaniem orbit gwiazd podążających wokół środka galaktyki. W rozsądnie prostej formie orbity galaktyczne mogą być traktowane jak orbity planet obiegających Słońce z jednym wyjątkiem: centralne źródło pola grawitacyjnego nie jest punktem, ale trójwymiarowym dyskiem o pewnej grubości. Jeśli chodzi o równania różniczkowe, zaproponował pewien kompromis. „Aby mieć więcej swobody eksperymentalnej — zaproponował 29 — zapomnijmy na moment o astronomicznym pochodzeniu tego problemu”. Chociaż nie powiedział tego wprost, „swoboda eksperymentalna” oznaczała, po części, swobodę zabawy z tym problemem na prymitywnym komputerze. Jego maszyna miała mniej niż jedną tysięczną część pamięci komputera osobistego z okresu dwadzieścia pięć lat później, a ponadto była bardzo powolna. Ale tak jak późniejsi eksperymentatorzy w dziedzinie chaosu Hénon stwierdził, że duże uproszczenia się opłacają. Ekstrahując tylko istotę swojego układu, dokonał odkryć, które stosowały się również do innych, dużo ważniejszych układów. Wiele lat później orbity galaktyczne stanowiły wciąż przedmiot zabawy dla teoretyków, ale dynamika takich układów była intensywnie i szeroko badana przez tych, którzy interesowali się cząstkami w akceleratorach wysokich energii, i tych, którzy interesowali się utrzymaniem plazmy w polu magnetycznym dla potrzeb fuzji jądrowej. Orbity gwiezdne w galaktykach w skali czasowej rzędu 200 milionów lat są raczej krzywymi w trzech wymiarach niż idealnymi elipsami. Orbity eliptyczne w trzech wymiarach są równie trudne do przedstawienia
w przypadku rzeczywistych orbit, jak i wtedy, gdy są one wyimaginowanymi konstrukcjami w przestrzeni fazowej. Zatem Hénon użył techniki podobnej do tworzenia przekrojów Poincarégo. Wyobraził sobie płaski arkusz umieszczony pionowo z jednej strony galaktyki, tak że każda orbita przechodziłaby przez niego jak konie podczas wyścigu przebiegają linię mety. Następnie zaznaczał punkt tam, gdzie orbita przekraczała tę płaszczyznę, i śledził ruch punktu od orbity do orbity 30. Hénon musiał wykreślić te punkty odręcznie, ale ostatecznie wielu naukowców, używając jego techniki, obserwowało je później na ekranie komputera jak odległe latarnie uliczne zapalające się o zmierzchu jedna po drugiej. Typowa orbita mogła się zacząć od punktu w dolnym lewym rogu strony. Potem, przy drugim obiegu, pojawiała się kilka cali na prawo. Następnie bardziej na prawo i nieco ku górze itd. W pierwszym momencie nie wyłania się z tego żaden wzór, ale po dziesięciu albo dwudziestu obiegach punkty przyjmują formę owalnej krzywej. Kolejne punkty faktycznie krążą po tej krzywej, ale ponieważ nie przechodzą za każdym razem przez arkusz w tym samym miejscu, po kilkuset lub kilku tysiącach obiegów krzywa jest wykreślona linią ciągłą. Takie orbity nie są całkowicie regularne, ponieważ nigdy nie powtarzają się idealnie, ale z pewnością są przewidywalne i dalekie od chaotycznych. Punkty nie wchodzą do wnętrza krzywej ani nie wychodzą poza nią. Jeśli ją przetransformujemy z powrotem do oryginalnego trójwymiarowego obiektu, orbity wyrysują torus, a zatem odwzorowanie Hénona jest przekrojem poprzecznym torusa. Jak dotąd Hénon tylko ilustrował to, co jego poprzednicy przyjmowali z góry. Orbity były okresowe. W obserwatorium w Kopenhadze 31 od roku 1910 do 1930 pokolenie astronomów pracowicie obserwowało i obliczało setki takich orbit — ale zainteresowani oni byli tylko takimi, które wykazywały okresowość. „Również byłem przekonany,
jak każdy inny w tym czasie, że wszystkie orbity powinny być regularne jak ta” — powiedział Hénon 32. Ale wraz ze swoim doktorantem w Princeton, Carlem Heilesem, kontynuowali obliczenia różnych orbit, stopniowo zwiększając poziom energii w swoich abstrakcyjnych układach. Wkrótce obaj zobaczyli coś absolutnie nowego. Najpierw owalna krzywa skręciła się w coś bardziej skomplikowanego, krzyżując się w ósemkę i rozszczepiając na dwie oddzielne pętle. Wciąż jednak orbita znajdowała się na jakiejś pętli. Następnie — przy jeszcze większych energiach — zupełnie nagle nastąpiła nowa zmiana. „Tutaj pojawiła się niespodzianka” — napisali Hénon i Heiles 33. Pewne orbity stały się tak niestabilne, że punkty rozpraszały się przypadkowo na papierze. W pewnych miejscach można było jeszcze wykreślić krzywe; w innych żadna krzywa nie pasowała do punktów. Sytuacja stała się dramatyczna: całkowity nieporządek wymieszany z ewidentnymi pozostałościami porządku, tworzący kształty, które astronomom przywodziły na myśl „wyspy” i „łańcuchy wysp”. Spróbowali dwóch różnych komputerów i dwóch różnych metod całkowania, ale wyniki były takie same. Mogli tylko dalej je badać i spekulować. Opierając się wyłącznie na eksperymentach numerycznych, postawili hipotezę dotyczącą głębokiej struktury takich wykresów. Przy dużym powiększeniu — sugerowali — więcej wysp pojawi się w coraz mniejszej skali i tak w nieskończoność. Potrzebny był dowód matematyczny — „ale matematyczne podejście do tego problemu nie wydawało się proste” 34. Hénon zajął się innym zagadnieniem, ale czternaście lat później, kiedy wreszcie usłyszał o dziwnych atraktorach Davida Ruelle’a i Edwarda Lorenza, był gotów powrócić. W roku 1976 przeniósł się do obserwatorium w Nicei, zawieszonym wysoko nad Morzem Śródziemnym na Grande Corniche, i tam wysłuchał wykładu o atraktorze Lorenza, wygłoszonego
przez pewnego zaproszonego fizyka 35. Uczony ten bez większego powodzenia próbował różnych technik w celu wyjaśnienia „mikrostruktury” atraktora. Hénonowi, chociaż układy dysypatywne nie były jego dziedziną („czasami astronomowie są przerażeni układami dysypatywnymi — są one nieporządne” 36), przyszło jednak coś do głowy. Znowu zdecydował się odrzucić wszystkie odniesienia do fizycznej genezy układu i skoncentrować się tylko na geometrycznej istocie, którą chciał drążyć. Tam, gdzie Lorenz i inni przylgnęli do równań różniczkowych — strumieni w sposób ciągły zmieniających się w przestrzeni i czasie — Hénon zwrócił się ku równaniom różnicowym, dyskretnym w czasie. Wierzył, że kluczem jest powtarzające się rozciąganie i zaginanie przestrzeni fazowej w taki sposób, w jaki piekarz wałkuje ciasto, zagina je, rozwałkowuje, znowu zagina, tworząc strukturę, która ostatecznie będzie stosem cienkich warstw. Hénon wykreślił płaski owal na kawałku papieru. Aby go rozciągnąć, wybrał prostą numeryczną funkcję, która przeniosła każdy punkt wewnątrz owalu w nowe miejsce wewnątrz obiektu, który kształtem przypominał rogalik albo łuk. To było odwzorowanie — punkt po punkcie — całego owalu na łuk. Potem wybrał nowe odwzorowanie, tym razem ściskanie, które skurczyło łuk tak, że stał się węższy. A następnie trzecie odwzorowanie, które obróciło węższy łuk na bok [obrót o 90° — przyp. tłum.], tak że leżał elegancko w początkowym owalu. Te trzy odwzorowania mogą być dla wygody obliczeń połączone w jedną funkcję. W istocie postępował zgodnie z ideą podkowy Smale’a. Numerycznie cały proces był tak prosty, że mógł być śledzony na kalkulatorze. Dowolny punkt ma współrzędne x i y do określenia jego poziomej i pionowej pozycji. Aby znaleźć nową wartość x, należało wziąć starą wartość y, dodać 1 i odjąć 1,4 razy starą wartość x podniesioną do kwadratu. Aby znaleźć nową wartość y, należało pomnożyć starą wartość x przez 0,3. Czyli xnowa = y+1 – 1,4x 2
i ynowa = 0,3x. Hénon wybrał punkt początkowy w sposób mniej lub bardziej przypadkowy, wziął swój kalkulator i rozpoczął wykreślanie jeden po drugim nowych punktów, aż wykreślił ich tysiąc. Potem zastosował prawdziwy komputer, IBM 7040, i szybko wykreślił pięć milionów. Każdy, kto ma komputer osobisty i monitor graficzny, może łatwo dokonać tego samego.
MICHEL HÉNON
Orbity wokół środka galaktyki. Aby zrozumieć trajektorie gwiazd wewnątrz galaktyki, Michel Hénon obliczył przecięcia się orbity z jakąś płaszczyzną. Powstała struktura zależała od ogólnej energii systemu. Punkty pochodzące ze stabilnych orbit stopniowo tworzyły ciągłą krzywą (po lewej). Przy innych
poziomach energii jednak powstawała skomplikowana mieszanina stabilności i chaosu reprezentowanego przez obszary rozproszonych punktów.
Początkowo punkty wydają się skakać przypadkowo po ekranie. Efekt jest tego samego rodzaju co w przypadku przekroju Poincarégo trójwymiarowego atraktora falującego dziwacznie w przód i w tył w poprzek ekranu. Ale szybko zaczyna się wynurzać kształt przypominający banana. Im dłużej pracuje program, tym więcej pojawia się szczegółów. Część szkicu wydaje się mieć jakąś grubość, ale potem grubość rozkłada się na dwie różne linie, potem te dwie na cztery, jedna para bliżej, a druga dalej od siebie. Przy większej rozdzielczości każda z czterech linii okazuje się złożona z dwóch kolejnych linii — i tak dalej, ad infinitum. Podobnie jak atraktor Lorenza, figura Hénona cofa się w nieskończoność, jak nieskończona sekwencja rosyjskich matrioszek umieszczonych jedna w drugiej. Zagnieżdżone szczegóły, linie wewnątrz linii, mogą być przedstawione w finalnej formie na serii rysunków ze stopniowo wzrastającym powiększeniem. Ale tajemniczy wpływ dziwnego atraktora może zostać doceniony w inny sposób, kiedy jego kształt wyłania się w czasie, punkt po punkcie. Wynurza się jak duch z mgły. Nowe punkty rozpraszają się tak przypadkowo na ekranie, że wydaje się nieprawdopodobne, iż jest w tym ukryta jakaś struktura, nie mówiąc już o jej subtelnej budowie i skomplikowaniu. Każde dwa kolejne punkty są tak dowolnie daleko od siebie, jak dwa punkty są początkowo blisko siebie w przepływie turbulentnym. Przy zadanej dowolnej liczbie punktów niemożliwe jest odgadnięcie, gdzie się pojawią następne, pod warunkiem oczywiście, że są gdzieś na atraktorze. Punkty wędrują tak przypadkowo, struktura wydaje się tak eteryczna, że trudno uwierzyć, iż figura jest atraktorem. To nie jest po prostu trajektoria układu dynamicznego. To jest trajektoria, na której zbiegają się wszystkie
inne. Z tego powodu wybór warunków początkowych nie ma znaczenia. Dopóki punkt początkowy leży wewnątrz atraktora, następnych kilka punktów będzie gwałtownie do niego dążyć.
JAMES P. CRUTCHFIELD
Atraktor Hénona. Prosta kombinacja fałdowania i rozciągania stwarza atraktor, który łatwo obliczyć, ale trudno zrozumieć matematycznie. Kiedy pojawią się tysiące, miliony punktów, wyłania się coraz więcej szczegółów. To, co wydawało
się pojedynczą linią ciągłą, w powiększeniu jest parą linii, potem parą par itd. Jednak to, czy dwa kolejne punkty pojawią się blisko siebie czy daleko, jest nieprzewidywalne.
* Na długo przedtem, zanim David Ruelle przybył w 1974 roku do laboratorium w City College, w którym pracowali Gollub i Swinney, tych trzech fizyków znajdowało tylko słaby związek pomiędzy teorią a eksperymentem. Tylko trochę matematyki, zuchwałej filozoficznie, ale technicznie niepewnej. Jeden cylinder z turbulentną cieczą, niezbyt dużo, ale w niezgodzie ze starą teorią. Ludzie ci spędzili popołudnie na rozmowie, a następnie Swinney i Gollub wyjechali na wakacje ze swoimi żonami do górskiej chaty, którą Gollub miał w Adirondack Mountains. Nie widzieli dziwnego atraktora i nie zmierzyli wiele z tego, co mogło się zdarzyć przy pojawieniu się turbulencji. Ale wiedzieli, że Landau nie miał racji i podejrzewali, że Ruelle jest jej bliższy. W świecie badań komputerowych dziwny atraktor był wyłącznie jedną z możliwości wyznaczających miejsce, do którego nie mogło dojść wiele wielkich umysłów dwudziestego wieku. Krótko potem, gdy naukowcy zobaczyli, co pokazują komputery, dziwny atraktor stał się czymś w rodzaju twarzy, którą dostrzega się wszędzie, w muzyce turbulentnych strumieni albo w chmurach rozproszonych na niebie jak welony. Przyroda jest skrępowana. Nieporządek był pocięty kanałami we wzory mające pewien wspólny motyw. Później idea dziwnych atraktorów doprowadziła do rewolucji w chaosie przez dostarczenie badaczom „numerykom” przejrzystego programu do wykonania. Szukali dziwnych atraktorów wszędzie, gdzie tylko przyroda wydawała się zachowywać przypadkowo. Wielu twierdziło, że pogoda na Ziemi może się opierać na dziwnym atraktorze. Inni gromadzili miliony danych z giełd papierów wartościowych i tam zaczynali szukać dziwnych
atraktorów, patrząc na przypadkowość przez zmiennoogniskową soczewkę komputera 37. W połowie lat siedemdziesiątych odkrycia te należały do przyszłości. Nikt faktycznie nie widział dziwnego atraktora w doświadczeniu i nikt nie wiedział, jak go szukać. W teorii dziwny atraktor mógł dostarczyć matematycznej substancji do zasadniczych, nowych właściwości chaosu. Wrażliwość na warunki początkowe to jedna właściwość, „mieszanie” — to druga; w pewnym sensie mogłoby to być wartościowe dla projektantów silników odrzutowych, na przykład przy poszukiwaniu wydajnej mieszanki paliwa i tlenu. Ale nikt nie wiedział, jak mierzyć te właściwości, jak przypisywać im liczby. Dziwne atraktory wydawały się fraktalne, co nasuwało przypuszczenie, że ich prawdziwy wymiar jest ułamkowy, ale nikt nie wiedział, jak mierzyć wymiar albo jak zastosować takie pomiary w kontekście problemów technicznych. Najważniejsze, że nikt nie wiedział, czy dziwne atraktory mówią cokolwiek na temat najgłębszych problemów układów nieliniowych. Inaczej niż w przypadku układów liniowych, łatwych do rozwiązania i łatwych w klasyfikacji, układy nieliniowe wciąż wydawały się w swojej istocie poza wszelką klasyfikacją — jeden zupełnie różny od drugiego. Naukowcy mogli zacząć podejrzewać, że mają pewne wspólne właściwości, ale kiedy nadchodził czas wykonania pomiarów i obliczeń, każdy układ nieliniowy był światem dla siebie. Zrozumienie jednego nie dostarczało żadnej pomocy w zrozumieniu następnego. Atraktor, taki jak Lorenza, ilustrował stabilność i ukrytą strukturę systemu, który skądinąd wydawał się bezstrukturalny. Ale jak ta osobliwa podwójna spirala mogła pomóc badaczom w eksploracji niespokrewnionych układów? Nikt nie wiedział. Na razie problem wyszedł poza czystą naukę. Naukowcy, którzy widzieli te kształty, pozwolili sobie na zapomnienie na moment o regułach dyskursu
naukowego. Ruelle, na przykład, napisał: „Nie mówiłem o estetycznym uroku dziwnego atraktora. Te układy krzywych, te chmury punktów przypominają czasami fajerwerki albo galaktyki, czasami dziwne i niespokojne gąszcze roślinności. Jest to królestwo form, które trzeba badać, i harmonii, którą trzeba odkryć” 38.
1
D. Ruelle, H. Hénon, O. Rössler, Y.G. Sinai, M.J. Feigenbaum, B. Mandelbrot, J. Ford, Kraichnan. Istnieje wiele historycznych opracowań dotyczących spojrzenia na turbulencję z punktu widzenia teorii chaosu. Wartościowym wprowadzeniem jest praca Johna Milesa, Strange Attractors in Fluid Dynamics, „Advances in Applied Mechanics” 1984, 24, s. 189214. Najbardziej dostępnym artykułem przeglądowym Ruelle’a jest praca Strange Attractors, „Mathematical Intelligencer” 1980, 2, s. 126-137; jego katalizującą propozycją była praca Davida Ruelle’a i Florisa Takensa On the Nature of Turbulence, „Communications in Mathematical Physics” 1971, 20, s. 167-192; do jego najistotniejszych prac należą: Turbulent Dynamical Systems, „Proceedings of the International Congress of Mathematicians”, Warszawa 16-24 sierpnia 1983, s. 271-286; Five Turbulent Problems, „Physica” 1983, 7D, s. 40-44; The Lorenz Attractor and the Problem of Turbulence, „Lecture Notes in Mathematics”, No. 565, Springer Verlag, Berlin 1976, s. 146-158. 2 Istnieje wiele wersji tego opowiadania. Orzag cytuje czterech zastępców Heisenberga — von Neumanna, Lamba, Sommerfelda i von Karmana — i dodaje: „Wyobrażam sobie, że jeśli Bóg faktycznie odpowiedziałby tym czterem osobom, byłaby to odpowiedź inna dla każdego z nich”. 3 D. Ruelle; patrz również tegoż, Turbulent Dynamical Systems, s. 281. 4 L.D. Landau, E.M. Lifšic, Fluid Mechanics, Pergamon, Oxford 1959. 5 P. Malkus. 6 H. Swinney. 7 H. Swinney, J.P. Gollub. 8 H. Swinney. 9 H. Swinney, J.P. Gollub. 10 H. Swinney. 11 J.P. Gollub, H.L. Swinney, Onset of Turbulence in a Rotating Fluid, „Physical Review Letters” 1975, 35, s. 927. Te pierwsze doświadczenia dały możliwość zrozumienia złożonych zachowań przestrzennych układów, które mogły być generowane przez zmianę kilku parametrów przepływu pomiędzy rotującymi cylindrami. W ciągu następnych kilku
lat zidentyfikowano różnorodne schematy, poczynając od „falek korkociągowych” (ang. corckscrew wavelets) poprzez „falowy przypływ i odpływ” (ang. wavy inflow and outflow) aż do „wzajemnie przenikających się spiral” (ang. interpenetrating spirals). Podsumowanie tych badań można znaleźć w pracy C. David Andereck, S.S. Liu, Harry L. Swinney, Flow Regimes in a Circular Couette System with Independently Rotating Cylinders, „Journal of Fluid Mechanics” 1986, 164, s. 155-183. 12 D. Ruelle. 13 D. Ruelle. 14 D. Ruelle, F. Takens, On the Nature of Turbulence. 15 Szybko odkryli, że pewne z ich idei ukazały się już w literaturze rosyjskiej; „z drugiej strony matematyczna interpretacja, którą nadaliśmy turbulencji, wydaje się naszym własnym odkryciem!” — napisali w Note Concerning Our Paper «On the Nature of Turbulence», „Communications in Mathematical Physics” 1971, 23, s. 343-344. 16 D. Ruelle. 17 D. Ruelle, Strange Attractors, s. 131. 18 W języku angielskim słowo „attract” znaczy przyciągać (przyp. tłum.). 19 Ralph H. Abraham, Christopher D. Shaw, Dynamics: The Geometry of Behavior, Aerial, Santa Cruz 1984. 20 Richard P. Feynman, The Character of Physical Law, The M.I.T. Press, Cambridge Mass. 1967, s. 57; wyd. pol.: Charakter praw fizycznych przeł. Piotr Amsterdamski, Prószyński i S-ka, Warszawa 2000. 21 D. Ruelle. 22 D. Ruelle, Turbulent Dynamical Systems, s. 275. 23 E. Lorenz, Deterministic Nonperiodic Flow, „Journal of the Atmosphere Sciences” 1963, 20, s. 137. 24 Tamże, s. 140. 25 D. Ruelle. 26 Y. Ueda daje przegląd swoich wczesnych odkryć z punktu widzenia teorii obwodów elektrycznych w pracy Random Phenomena Resulting from Nonlinearity in the System Described by Duffing’s Equation, „International Journal of Non-Linear Mechanics” 1985, 20, s. 481-491 i przedstawia tam osobistą relację dotyczącą jego motywacji, a w uzupełnieniu opowiada o chłodnej reakcji kolegów. Mówi o tym również H.B. Stewart (wiadomość prywatna). 27 M. Hénon; swój pomysł opisuje w pracy A Two-Dimensional Mapping with a Strange Attractor, „Communications in Mathematical Physics” 1976, 50, s. 69-77; także: Michel Hénon, Yves Pomeau, Two Strange Attractors with a Simple Structure, także: Turbulence and the Navier-Stokes Equations, red. R. Teman, Springer Verlag, New York 1977. 28 W. Wisdom.
29
Michel Hénon, Carl Heiles, The Applicability of the Third Integral of Motion: Some Numerical Experiments, „Astronomical Journal” 1964, 69, s. 73. 30 Autor opisuje istotę postępowania Hénona i Heilesa w sposób, oględnie mówiąc, nieścisły. Model Hénona-Heilesa ma rzeczywiście związek z ruchem gwiazdy w polu grawitacyjnym galaktyki, ale jest to związek zupełnie innego rodzaju, niż sugerowałby ten opis. W rzeczywistości Hénon i Heiles badali ruch punktu w przestrzeni fazowej o czterech wymiarach. Zmiennymi w tej przestrzeni były dwie współrzędne oraz dwie związane z nimi prędkości. Chociaż model był dość abstrakcyjny i nie nawiązywał do żadnego konkretnego pola grawitacyjnego galaktyki, współrzędne te miały swój pierwowzór w odchyleniach toru gwiazdy od orbity kołowej leżącej w płaszczyźnie galaktyki. Jedna współrzędna określała odległość gwiazdy od płaszczyzny galaktyki, a druga jej odległość od orbity kołowej w tej płaszczyźnie. Drugą parę zmiennych w przestrzeni fazowej stanowiła prędkość zmian tych odległości (przyp. K.S.). 31 M. Hénon. 32 M. Hénon. 33 M. Hénon, C. Heiles, The Applicability, s. 76. 34 Tamże, s. 79. 35 Yves Pomeau. 36 M. Hénon. 37 J. Ramsey. 38 D. Ruelle, Strange Attractors, s. 137.
Uniwersalność Powtarzając te słowa, otrzymasz złoto, Rysując krąg na ziemi, Rozpętasz wichurę, burzę, grzmoty i błyskawice. Marlowe, Dr Faustus (przeł. Marek Obarski)
Kilkadziesiąt metrów w górę od wodospadu potok zaczyna „domyślać się”, że zbliża się uskok. Woda zaczyna przyspieszać i burzyć się. W oczy rzucają się pojedyncze strumyczki przypominające grube, pulsujące żyłki. Na brzegu stoi Mitchell Feigenbaum. Poci się nieco w sportowej kurtce i sztruksach i wypuszcza dym z papierosa. Spacerował z przyjaciółmi, ale oni poszli naprzód, do spokojniejszych stawów znajdujących się powyżej wodospadu. Nagle zaczyna przekrzywiać głowę z lewa na prawo i z prawa na lewo, jak ktoś parodiujący kibica na meczu tenisa. „Skup się na czymś, na odrobinie piany albo na czymś w tym rodzaju. Jeśli ruszasz głową dostatecznie szybko, możesz raptem dostrzec całą strukturę powierzchni i możesz poczuć ją w żołądku”. Zaciągnął się papierosem 1. „Ale dla każdego z przygotowaniem matematycznym, kto patrzy na to albo widzi chmury ze wszystkimi kłębkami na kłębkach, albo stoi nad morzem w czasie sztormu, staje się oczywiste, że naprawdę nic nie wie”. Porządek w chaosie. To jest najstarszy frazes naukowy. Idea ukrytej jedności i powszechnych podstawowych form w przyrodzie ma wewnętrzny powab i nieszczęśliwą historię inspiracji pseudonaukowców i dziwaków. Kiedy w roku 1974 — roku swoich trzydziestych urodzin — Feigenbaum przybył do National Laboratory w Los Alamos 2, wiedział, że jeśli fizycy
mają robić coś dotyczącego tej idei, potrzebują praktycznych ram sposobu przekształcenia idei na obliczenia. Wcale nie było oczywiste, jak należało podejść do tego problemu. Feigenbaum został zaangażowany przez Petera Carruthersa, cichego i na pozór dobrotliwego fizyka, który przybył z Cornell w 1973 roku, aby przejąć oddział teoretyczny. Jego pierwszym posunięciem było zwolnienie pół tuzina starszych naukowców — Los Alamos daje bezterminowe zatrudnienie, bez uniwersyteckiej „rotacji” — i zastąpienie ich według swego uznania kilkoma świetnymi, młodymi badaczami. Jako dyrektor naukowy miał wielkie ambicje, ale wiedział z doświadczenia, że dobra nauka nie może być planowana. „Jeśli człowiek założy jakiś komitet w laboratorium albo w Waszyngtonie i mówi: «Turbulencja jest rzeczywiście dla nas ważna, musimy ją zrozumieć. Niemożliwość zrozumienia jej mocno ogranicza nasze szanse na osiągnięcie postępu w wielu dziedzinach», oczywiście, tworzy zespół. Kupuje wielki komputer. Uruchamia wielkie programy. I nigdy niczego nie osiąga. Zamiast tego wszystkiego mamy bystrego faceta siedzącego cicho, rozmawiającego z ludźmi, ale głównie pracującego samotnie” 3. Rozmawiali o turbulencji, ale czas upływał i nawet Carruthers nie był już pewien, dokąd kierował się Feigenbaum. „Myślałem, że poniechał tego i znalazł inny problem. Nie miałem pojęcia, że ten inny problem był tym samym problemem. Wydawało się, że to była kwestia, na której koncentrowało się wiele różnych dyscyplin nauki — wszystkie one zbiegają się na tym aspekcie nieliniowego zachowania się układów. Otóż nikt nie pomyślałby, że aby mieć właściwe tło dla tego problemu, należało coś wiedzieć o fizyce cząstek, coś o kwantowej teorii pola i coś o tym, że w kwantowej teorii pola te struktury są znane jako grupy renormalizacyjne. Nikt nie wiedział, że należało zrozumieć ogólną teorię procesów stochastycznych, a także struktury fraktalne. Mitchell miał
właściwe podstawy. On robił właściwe rzeczy we właściwym czasie i wykonywał je bardzo dobrze. Niczego nie robił powierzchownie. Uporządkował cały problem”. Feigenbaum przywiózł ze sobą do Los Alamos przekonanie, że jego nauka nie jest w stanie zrozumieć trudnych, nieliniowych problemów. Chociaż jako fizyk nie stworzył nic, akumulował w sobie niezwykły ładunek intelektualny. Posiadał ogromną wiedzę praktyczną dotyczącą większości prowokujących analiz matematycznych, poznał nowe rodzaje technik obliczeniowych, które spychały większość naukowców z ich ugruntowanych pozycji. Nie próbował oczyszczać nauki z pewnych nienaukowych idei wywodzących się z romantyzmu. Chciał tworzyć zupełnie nową naukę. Zaczął odkładać na bok wszystkie myśli o zrozumieniu rzeczywistej złożoności, a zamiast tego zwrócił się ku najprostszym równaniom nieliniowym, jakie mógł znaleźć. * Tajemnica wszechświata objawiła się po raz pierwszy czteroletniemu Mitchellowi Feigenbaumowi wkrótce po wojnie, za pośrednictwem radia Silvertone, kiedy siedział w pokoju swoich rodziców na Brooklynie 4. Myśl o muzyce docierającej do niego bez uchwytnej przyczyny przyprawiała go o zawrót głowy. Mitchell czuł jednak, że wie, jak działa fonograf. Babka dała mu specjalne zezwolenie na nakładanie na niego 78 s. Jego ojciec był chemikiem, pracował dla zarządu portu nowojorskiego, a później dla Clairol, matka zaś uczyła w miejskich szkołach publicznych. Mitchell najpierw zdecydował się zostać inżynierem elektrykiem; był to zawód, o którym na Brooklynie mówiono, że zapewnia życie na dobrym poziomie. Później stwierdził, że aby wiedzieć to, co chciałby wiedzieć o radiu, powinien raczej zostać fizykiem. Był jednym z pokolenia naukowców wyrosłych na przedmieściach Nowego Jorku, którzy znaleźli
swoją drogę do wspaniałej kariery, ucząc się w wielkich państwowych szkołach średnich — w jego przypadku w Samuel J. Tilden, a później w City College. Dorastanie na Brooklynie było w jakiejś mierze sprawą wyważenia pomiędzy światem umysłu a światem innych ludzi. Mitchell był ogromnie towarzyski za młodu, co, jak uważał, przyczyniło się do tego, że nie był bity przez rówieśników. Ale coś przełączyło mu się w mózgu, kiedy stwierdził, że potrafi się uczyć. Coraz bardziej odsuwał się od swoich przyjaciół. Zwykłe rozmowy go nie interesowały. Kiedyś — w ostatnich latach nauki w college’u — uderzyło go, że stracił swoją młodość i postanowił odzyskać kontakt z ludźmi. Siedział cicho w barze, słuchając studentów gawędzących o goleniu albo jedzeniu i stopniowo uczył się na nowo, jak rozmawiać z ludźmi. College ukończył w roku 1964 i wstąpił do Massachusetts Institute of Technology, gdzie otrzymał stopień doktora z zakresu fizyki cząstek elementarnych w roku 1970. Następnie spędził cztery bezowocne lata w Cornell i w Virginia Polytechnic Institute — bezowocne w sensie liczby publikacji na temat rozwiązywalnych problemów, rzecz istotna dla młodego pracownika uczelni. Zakłada się, że pracownicy po doktoracie ogłaszają publikacje. Czasami promotor pytał Feigenbauma, co się stało z jakimś problemem, a on odpowiadał: „Och, zrozumiałem go” 5. Nowo przyjęty na etat w Los Alamos, Carruthers, groźny, bo kompetentny naukowiec, był dumny ze swojej zdolności do wyszukiwania talentów. Nie szukał ludzi inteligentnych, ale posiadających pewnego rodzaju zdolności twórcze, które zdawały się wypływać z jakiegoś magicznego gruczołu. Zawsze pamiętał przypadek Kennetha Wilsona, innego fizyka o łagodnym głosie, który, jak się zdawało, absolutnie nic nie tworzył. Ktoś, kto rozmawiał z Wilsonem przez dłuższy czas, stwierdzał, że posiada zdolność do
wnikliwego spojrzenia w głąb fizyki. Tak że kwestia zatrudnienia Wilsona stała się przedmiotem poważnej debaty. Zwyciężyli fizycy skłonni zaakceptować jego niedowiedzione potencjalne zdolności — i było to jak przerwanie tamy. Nie jedna, ale strumień prac wyszedł spod pióra Wilsona, w tym taka praca, dzięki której zdobył Nagrodę Nobla w 1982 roku. Największy wkład Wilsona do fizyki wraz z dwoma innymi fizykami, Leo Kadanoffem i Michaelem Fisherem, stał się ważnym wstępem do teorii chaosu. Ci ludzie, pracujący niezależnie, myśleli w różny sposób na temat tego, co się dzieje podczas przejść fazowych. Badali zachowanie się materii w pobliżu punktów, w których przechodzi ona z jednego stanu do drugiego — od cieczy do gazu, od nienamagnesowanego do namagnesowanego. Przejścia fazowe, jako osobliwe granice między dwoma krańcami istnienia, są wysoce nieliniowymi procesami w swoim matematycznym opisie. Gładkie i przewidywalne zachowanie się materii w każdej fazie dostarcza niewielkiej pomocy w rozumieniu przejść. Czajnik wody na piecyku podgrzewa się w regularny sposób, aż osiągnie punkt wrzenia. Ale wtedy temperatura przestaje rosnąć, a zamiast tego dzieje się coś bardzo interesującego na molekularnym łączu pomiędzy cieczą i gazem. Kiedy Kadanoff rozpatrywał ten problem w latach sześćdziesiątych, przejścia fazowe wyglądały bardzo intrygująco 6. Rozważmy przykład magnetyzowanego bloku metalu. Kiedy przechodzi on w stan uporządkowania, musi niejako „podjąć decyzję”. Magnes może być zorientowany na dwa sposoby. Ma wolny wybór. Ale każdy maleńki kawałek metalu musi dokonać tego samego wyboru. Jak? W jakiś sposób w procesie wyboru atomy metalu muszą komunikować się między sobą: idea Kadanoffa polegała na tym, że komunikacja może być najprościej opisana w kategoriach skalowania. W efekcie wyobraził sobie, że metal podzielony jest na kostki. Każda kostka komunikuje się z najbliższym
sąsiadem. Sposób opisu tej komunikacji jest taki sam jak sposób opisu komunikacji między atomem a jego otoczeniem. Stąd użyteczność skalowania: najlepiej metal wyobrażać sobie w kategoriach modeli fraktalopodobnych z kostkami wszelkich możliwych wielkości. By ugruntować pozycję idei skalowania, potrzeba było niemało matematyki i doświadczenia z rzeczywistymi układami. Kadanoff czuł, że zabrał się za kłopotliwą sprawę i stworzył świat o niezmiernym pięknie i samozawieralności. Część tego piękna bierze się z jego uniwersalności. Idea Kadanoffa dała podstawę uderzającym faktom dotyczącym zjawisk krytycznych, mianowicie temu, że zjawiska na pozór niespokrewnione — wrzenie cieczy, magnetyzowanie metali — wszystkie spełniają te same reguły. Potem Wilson dokonał dzieła, które skupiło całą teorię jedno. Stworzył teorię grupy renormalizacyjnej, dostarczając tym samym doskonałego sposobu wykonywania obliczeń dotyczących rzeczywistych układów. Renormalizacja weszła do fizyki w latach czterdziestych jako część teorii kwantowej i umożliwiła obliczenie oddziaływania między elektronami i protonami. Problem z takimi obliczeniami, podobnie jak z obliczeniami, którymi zajmowali się Kadanoff i Wilson, polegał na tym, że pewne wyrażenia wydawały się wymagać traktowania jako wielkości nieskończonych: rzecz kłopotliwa i nieprzyjemna. Renormalizacja układu na sposób wymyślony przez Richarda Feynmana, Juliana Schwingera, Freemana Dysona i innych fizyków pozwalała na uwolnienie się od tych nieskończoności. Dopiero dużo później, w latach sześćdziesiątych, Wilson dokopał się do fundamentów sukcesu renormalizacji. Podobnie jak Kadanoff myślał o zasadach skalowania. Pewne wielkości, takie jak masa cząstki, zawsze były rozważane jako stałe — ponieważ masa dowolnego obiektu w codziennym
doświadczeniu jest stała. Renormalizacja dawała tak dobre rezultaty, ponieważ traktowała takie wielkości jak masa jako niestałe. Takie wielkości wydawały się pływać w górę i w dół w zależności od skali, w której były oglądane. Wyglądało to absurdalnie. Jednak było to ścisłą analogią do tego, co Benoit Mandelbrot ustalił na temat kształtów geometrycznych i linii brzegowej Anglii. Ich długość nie mogła być mierzona niezależnie od skali. Występowała jakaś względność, w której pozycja obserwatora, bliżej lub dalej, na plaży czy w satelicie, wpływała na pomiar. Mandelbrot zauważył również, że zmiany wielkości przy zmianach skali nie były arbitralne; spełniały pewne reguły. Zmienność w standardowych miarach masy albo długości oznaczała, że innego rodzaju wielkość pozostawała stała. W przypadku fraktali był to wymiar fraktalny — stała, która mogłaby być obliczona i używana jako narzędzie do dalszych obliczeń. Zgoda na zmiany masy w zależności od skali oznaczała, że matematycy potrafili rozpoznać podobieństwo w różnych skalach. Więc dla trudnych obliczeń teoria grup renormalizacyjnych Wilsona dostarczyła innego sposobu podejścia do problemów nieskończonej gęstości. Przedtem jedynym podejściem do wysoce nieliniowych zagadnień był rachunek zaburzeń. Dla celów rachunkowych zakłada się, że problem nieliniowy jest rozsądnie bliski jakiemuś rozwiązywalnemu problemowi liniowemu, z niewielkim odstępstwem od liniowości. Rozwiązuje się problem liniowy i wykonuje skomplikowane oszustwo z pozostałą częścią, rozszerzając ją na tzw. diagramy Feynmana. Im większej potrzebujesz precyzji, tym więcej musisz wyprodukować tych męczących diagramów. Jeśli masz trochę szczęścia, twoje obliczenia będą zbieżne z jakimś rozwiązaniem. Szczęście znika jednak, ilekroć problem jest szczególnie interesujący. Feigenbaum, jak każdy młody fizyk zajmujący się fizyką cząstek w latach sześćdziesiątych, przyłapał się na niekończącym się
obliczaniu diagramów Feynmana. Nabrał przekonania, że rachunek zaburzeń jest nudny i głupi. Pokochał więc nową teorię grupy renormalizacyjnej Wilsona. Ponieważ potwierdzała ona samopodobieństwo, dawała sposób stopniowego zmniejszenia złożoności. W praktyce grupa renormalizacyjna nie była metodą dla głupców. Wymagała pomysłowości przy wyborze właściwych obliczeń do znalezienia samopodobieństwa. Jednak działała na tyle dobrze i na tyle często, że zainspirowała kilku fizyków, w tym Feigenbauma, by zastosować ją do problemu turbulencji. Ostatecznie samopodobieństwo wydawało się znakiem turbulencji: fluktuacje na fluktuacjach, wiry na wirach. Ale co z włączaniem turbulencji, z tajemniczym momentem, kiedy uporządkowany układ przekształca się w chaotyczny. Nie było żadnego dowodu na to, że grupa renormalizacyjna ma cokolwiek do powiedzenia na temat tego przejścia. Nie było żadnego dowodu na to, na przykład, że przejście spełnia prawa skalowania. Jako doktorant w MIT Feigenbaum doświadczył czegoś, czego wspomnienie towarzyszyło mu przez wiele lat. Spacerował z przyjaciółmi wokół Lincoln Reservoir w Bostonie. Zwykł wówczas chodzić na cztero-, pięciogodzinne spacery, dostrajając się do wrażeń i idei, które płynęły przez jego umysł. Tego dnia odłączył się od ludzi i wędrował sam. Minął jakąś grupę osób, które urządziły sobie piknik, i kiedy szedł dalej, oglądał się od czasu do czasu, słuchając ich głosów i obserwując ruchy rąk podczas gestykulacji albo gdy sięgały po jedzenie. Nagle poczuł, że ten żywy obraz przekroczył jakiś próg niezrozumiałości. Postacie były zbyt małe, aby można je było pojąć. Czynności wydawały się nieciągłe, arbitralne, przypadkowe. Zanikające dźwięki, które go dobiegały, traciły sens. „Nieustanny ruch i niezrozumiała krzątanina życia 7” — Feigenbaum przypomniał sobie słowa Gustava Mahlera opisujące wrażenie, które
próbował utrwalić w trzeciej frazie swojej II Symfonii. „Jak ruchy tańczących postaci we wspaniale oświetlonej sali balowej, na którą patrzysz z ciemności nocy, a z takiej odległości, że muzyka jest niesłyszalna […] Życie może wydać ci się bezsensowne”. Feigenbaum słuchał Mahlera i czytał Goethego, zanurzając się w ich głęboko romantyczne dusze. Niewątpliwie delektował się Faustem Goethego, chłonąc połączenie najbardziej namiętnych idei dotyczących świata z ideami najbardziej intelektualnymi. Bez pewnych skłonności do romantyzmu z pewnością odrzucałby takie wrażenia jak to, którego doznał przy Lincoln Reservoir. Ostatecznie dlaczego zjawiska nie mogłyby tracić znaczenia, kiedy ogląda się je z większych odległości? Prawa fizyczne dostarczają banalnego wyjaśnienia ich zaniku. Po zastanowieniu się związek między pomniejszaniem się i zanikiem znaczenia nie jest tak oczywisty. Dlaczego miałoby tak być, że rzeczy, gdy stają się mniejsze, stają się również niezrozumiałe? Próbował całkiem serio analizować to doznanie przy użyciu narzędzi dostarczanych przez fizykę teoretyczną, zastanawiając się, co mógłby powiedzieć o mózgowej maszynerii percepcyjnej. Widzisz jakieś ludzkie działanie i wyciągasz na jego temat wnioski. Twoim zmysłom dostępna jest ogromna ilość informacji. W jaki więc sposób twój aparat percepcyjny dokonuje ich porządkowania? Jasne — albo prawie jasne — że mózg nie ma żadnej bezpośredniej kopii realnych rzeczy. Nie ma żadnej biblioteki form i idei, według których porównuje obrazy percepcyjne. Informacje są przechowywane w plastyczny sposób pozwalający na fantastyczne zestawienia i skoki wyobraźni. Jakiś chaos istnieje wokół nas i mózg wydaje się bardziej elastyczny niż klasyczna fizyka w odszukiwaniu w nim porządku. W tym samym czasie Feigenbaum myślał o barwie. Jedną z mniejszych potyczek w nauce w pierwszych latach dziewiętnastego stulecia stoczyli
zwolennicy Newtona w Anglii i Goethego w Niemczech w sprawie różnicy w pojmowaniu natury koloru. Dla fizyki newtonowskiej idee Goethego były tylko pseudonaukowymi meandrami. Goethe natomiast nie zgadzał się, aby rozpatrywać kolor jako wielkość statyczną mierzoną w spektrometrze i przyszpilaną do tektury jak motyl. Twierdził, że barwa jest sprawą percepcji. ,,W swobodnej równowadze Natura oscyluje w wyznaczonych jej granicach — pisał — i w ten sposób powstaje całe bogactwo rozmaitych zjawisk, które postrzegamy w czasie i przestrzeni” 8 [przeł. Marek Obarski]. Kamieniem probierczym teorii Newtona było jego słynne doświadczenie z pryzmatem. Pryzmaty rozszczepiają wiązkę białego światła na tęczę kolorów obejmującą całe widmo widzialne. Newton uświadomił sobie, że te czyste barwy muszą być elementarnymi komponentami, które dodają się, aby wytworzyć barwę białą. Ponadto, dokonując pewnego skoku myślowego, zasugerował, że barwy odpowiadają częstotliwościom. Wyobraził sobie, że jakieś drgające ciała — „korpuskuły”, słowo pochodzące z łaciny — muszą wytwarzać barwy w proporcji do szybkości drgań. Biorąc pod uwagę, jak niewiele dowodów potwierdzało ten pogląd, był on równie nieuzasadniony jak wspaniały. Co to jest czerwień? Dla fizyka jest to światło o długości fali pomiędzy 620 a 800 miliardowych części metra. Optyka Newtona dowiodła swojej prawdziwości tysiące razy, podczas gdy traktat o kolorach Goethego zblakł w litościwym mroku. Kiedy Feigenbaum poszedł, aby go przeczytać, odkrył, że jedyny egzemplarz w harwardzkiej bibliotece uniwersyteckiej został usunięty. Ostatecznie wynalazł jakiś i stwierdził, że Goethe w rzeczywistości wykonał niezwykły zestaw eksperymentów podczas swoich badań nad barwami. Goethe zaczął tak jak Newton — od pryzmatu. Newton trzymał jednak pryzmat przed promieniem światła, rzutując rozszczepioną wiązkę na białą płaszczyznę. Goethe umieszczał pryzmat przed okiem i patrzył przez
niego. Nie postrzegał żadnych barw: ani tęczy, ani indywidualnych kolorów. Oglądanie czystej, białej powierzchni albo czystego błękitu nieba poprzez pryzmat prowadziło do takiego samego efektu — do jednorodności. Ale jeśli mała plamka zasłoniła białą powierzchnię albo chmura pojawiła się na niebie, mógł zobaczyć wybuch koloru. Goethe doszedł do wniosku, że kolor został wywołany przez „wymianę światła i cienia”. W dalszym ciągu badał sposób, w jaki ludzie postrzegają cienie rzucane przez różne źródła kolorowego światła. W swoich doświadczeniach używał świec, ołówków, zwierciadeł i kolorowych szkieł, światła księżycowego i dziennego, kryształów, cieczy i kolorowych kół. Na przykład zapalił świecę przed kawałkiem białego papieru o zmroku i podniósł ołówek. Jego cień w świetle świecy był jaskrawoniebieski. Dlaczego? Sam biały papier jest postrzegany jako biały zarówno wtedy, gdy słońce chyli się ku zachodowi, jak i wtedy, gdy doda się światło świecy. Jak cień dzieli białe na obszar niebieski i obszar czerwonawożółty? Kolor to „stopień ciemności — twierdził Goethe — spokrewniony z cieniem”. W języku współczesnym powiedzielibyśmy, że barwa jest wynikiem warunków brzegowych i osobliwości. Tam, gdzie Newton był redukcjonistą, Goethe był holistą. Newton rozszczepił światło i znalazł najbardziej elementarne fizyczne wyjaśnienie koloru. Goethe, szukając wielkiego, wszechobejmującego wyjaśnienia, spacerował przez ogrody pełne kwiatów i studiował malarstwo. Newton, tworząc swoją teorię, dopasował ją do matematycznego schematu całej fizyki. Goethe, na szczęście albo na swoją zgubę, czuł wstręt do matematyki. Feigenbaum przekonał się, że Goethe miał rację w sprawie kolorów. Idee Goethego przypominały powierzchowny pogląd, popularny wśród psychologów, dokonujący rozróżnienia pomiędzy twardą fizyczną rzeczywistością a zmienną percepcją subiektywną. Barwy, które postrzegamy, zmieniają się z chwili na chwilę i od osoby do osoby — bardzo
łatwo tego dowieść. Ale według Feigenbauma idee Goethego zawierają w sobie więcej prawdziwej nauki. Dają się udowodnić i są oparte na doświadczeniu. Goethe wiele razy podkreślał powtarzalność swoich eksperymentów. Według niego to właśnie percepcja barwy była uniwersalna i obiektywna. Jaki dowód naukowy został przedstawiony na definiowalną w realnym świecie jakość o nazwie czerwień, niezależną od naszej percepcji? Feigenbaum zaczął pytać siebie, jaki rodzaj formalizmu matematycznego mógłby odpowiadać ludzkiej percepcji, szczególnie percepcji, która przedarła się przez sito kłopotliwej różnorodności doznań i znalazła uniwersalne właściwości. Czerwień niekoniecznie jest światłem ze szczególnego przedziału długości fal, jak chcieliby newtoniści. Jest ona terytorium chaotycznego wszechświata, a granice tego terytorium niełatwo opisać — jednak nasze umysły znajdują czerwień z regularną i weryfikowalną spójnością. To były myśli młodego fizyka, na pozór daleko odbiegające od takich problemów jak turbulencja płynów. Jednak aby zrozumieć, jak ludzki umysł sortuje informacje mimo chaosu percepcji, z pewnością należałoby wyjaśnić, jak nieporządek może produkować uniwersalność. Kiedy w Los Alamos Feigenbaum zaczynał myśleć o nieliniowości, uświadomił sobie, że jego edukacja nie dała mu niczego użytecznego. Rozwiązanie układu nieliniowych równań różniczkowych było niemożliwe, chociaż w podręcznikach konstruowano specjalne przypadki. Rachunek zaburzeń tworzący kolejne poprawki do rozwiązywalnego problemu, które — jak liczono — leżą gdzieś w pobliżu rzeczywistego rozwiązania, wydawał się głupi. Przeczytał podręczniki dotyczące przepływów nieliniowych i oscylacji i uznał, że to niewiele pomaga rozsądnemu fizykowi. Ponieważ do obliczeń wyposażony był tylko w papier i ołówek, Feigenbaum zdecydował się rozpocząć od odpowiednika prostego równania, które Robert May badał w kontekście biologii populacji.
Tak się zdarzyło, że równania tego uczniowie szkół średnich używają w geometrii do wykreślania paraboli. Można je napisać w formie y = r(x–x 2). Każda wartość x generuje wartość y, i krzywa, która powstaje w wyniku tego, wyraża relację pomiędzy dwiema liczbami. Jeśli x (populacja w danym roku) jest małe, to y (populacja w następnym roku) jest małe, ale większe niż x 9; krzywa rośnie stromo. Jeśli x jest w środku rozważanego zakresu, to y jest duże. Ale krzywa osiąga maksimum i zaczyna spadać, tak że jeśli x będzie duże, y będzie znowu małe. To właśnie daje odpowiednik załamań populacji w modelowaniu ekologicznym, zapobiegających nierzeczywistemu nieograniczonemu wzrostowi. Dla Maya, a potem dla Feigenbauma zasadniczą sprawą było użycie tych prostych obliczeń nie jeden raz, ale nieskończenie wiele razy z pętlą sprzężenia zwrotnego. Wynik jednego etapu obliczeń stawał się argumentem funkcji w następnym. Aby graficznie przedstawić to, co się stało, niezwykle pomocna jest parabola. Wybierz początkową wartość na osi x. Narysuj linię w górę do miejsca, w którym przecina ona parabolę. Odczytaj odpowiadającą mu wartość na osi y. I zacznij od nowa z nową wartością. Sekwencja początkowo skacze z miejsca na miejsce wzdłuż paraboli, a następnie, być może, kończy się stabilną równowagą, gdzie x i y są równe, a zatem wartość się nie zmienia. W istocie nic nie mogłoby być dalsze od złożonych obliczeń fizyki standardowej: zamiast zawiłych schematów, które kiedyś byłyby warte rozwiązania, mamy proste obliczenia wykonywane wciąż na nowo. Matematyk eksperymentator mógłby obserwować swoje doświadczenie jak chemik przyglądający się reakcji bąbelkującej w zlewce. Tutaj produktem jest jedynie łańcuch liczb, który nie zawsze dąży do stabilnego stanu końcowego. Mógłby skończyć się oscylacjami pomiędzy dwiema wartościami. Albo, jak May wyjaśnił ekologom, może utrzymywać
chaotyczne zmiany tak długo, jak długo ktokolwiek chciałby go obserwować. Wybór pomiędzy tymi różnymi możliwymi zachowaniami zależy od wartości parametru strojenia. Feigenbaum wykonywał swoje obliczenia numerycznie i jednocześnie próbował bardziej tradycyjnego podejścia do analizy funkcji nieliniowych. Jednak nawet w ten sposób nie potrafił zobaczyć wszystkiego, do czego to równanie było zdolne. Ale uświadomił sobie, że te możliwości były już i tak złośliwie skomplikowane i ich analiza stała się bardzo trudna. Wiedział również, że trzech matematyków z Los Alamos — Nicholas Metropolis, Paul Stein i Myron Stein — studiowało takie odwzorowania w roku 1971, a teraz Paul Stein ostrzegał, że złożoność ich była rzeczywiście przerażająca. Jeśli takie najprostsze z równań okazuje się nierozwiązywalne, to co z daleko bardziej skomplikowanymi równaniami, niż naukowcy mogliby napisać dla rzeczywistych układów? Feigenbaum odłożył całą sprawę na półkę. W krótkiej historii chaosu to jedno niewinnie wyglądające równanie dostarcza najbardziej zwięzłego przykładu, w jak różnorodny sposób naukowcy patrzą na problem 10. Dla biologów było to równanie z przesłaniem: proste układy mogą zachowywać się w skomplikowany sposób. Dla Metropolisa, Steina i Steina problem polegał na skatalogowaniu zbioru struktur topologicznych bez odnoszenia się do jakichkolwiek wartości liczbowych 11. Mogliby zacząć proces iteracyjny w jakimś szczególnym punkcie i obserwować kolejne wartości skaczące z miejsca na miejsce po paraboli. Kiedy wartości przesuwały się na prawo albo na lewo, pisali sekwencję liter P lub L. Sekwencja numer jeden: P. Sekwencja numer dwa: PLP. Sekwencja numer 193: PLLLLLPPLL. Te sekwencje miały pewną interesującą matematyczną właściwość — zawsze wydawały się powtarzać w pewnym specjalnym porządku. Ale dla fizyka wyglądały mętnie i nudnie. Nikt wówczas nie zdawał sobie sprawy z tego, że Lorenz badał to samo
równanie w roku 1964 jako metaforę głębokiego problemu klimatycznego. Problem był tak głęboki, że prawie nikt nie pytał wcześniej: Czy istnieje klimat? 12 To znaczy, czy pogoda na Ziemi ma długookresową średnią? Większość meteorologów, tak wtedy jak i teraz, przyjmowała to za pewnik. Wiadomo, że każde wymierne zachowanie, niezależnie od tego, jak fluktuuje, musi mieć średnią. Jednak po zastanowieniu przestaje to być oczywiste. Jak zauważył Lorenz, średnia pogoda przez ostatnie 12 tysięcy lat była zauważalnie różna niż średnia za poprzednie 12 tysięcy lat, kiedy większość Ameryki Północnej była przykryta lodem. Czy jeden klimat przekształcił się w drugi z jakichś fizycznych przyczyn? Czy też nawet długookresowy klimat jest tylko fluktuacją jakiegoś nadklimatu? A może taki układ jak pogoda nigdy nie dąży do jakiejś średniej? Lorenz postawił drugie pytanie. Załóżmy, że możesz faktycznie napisać kompletny układ równań, które rządzą pogodą. Innymi słowy, załóżmy, że znasz boski kod. Czy mógłbyś użyć tych równań do obliczenia średnich dla temperatury czy ilości opadów? Jeśli równania byłyby liniowe, odpowiedź brzmiałaby po prostu: tak. Ale one są nieliniowe. Ponieważ Bóg nie udostępnił nam rzeczywistych równań, Lorenz zamiast nich sprawdził kwadratowe równanie różnicowe. Podobnie jak May, Lorenz najpierw zbadał, co stałoby się, gdyby iterować to równanie z pewnym parametrem. Stwierdził, że gdy parametr ten ma małą wartość, równanie osiąga pewien stabilny punkt. Wtedy z pewnością układ generuje „klimat” w najbardziej trywialnym sensie — „pogoda” nigdy się nie zmienia. Dla wyższych wartości parametru znalazł możliwość oscylacji pomiędzy dwoma punktami i w tym przypadku również układ zdążał do prostej średniej. Ale poza pewnym punktem Lorenz stwierdził, że pojawia się chaos. Ponieważ myślał o klimacie, pytał nie tylko o to, czy stałe sprzężenie zwrotne daje zachowanie okresowe, ale również, jaki jest wynik średni.
I stwierdził, że średnia również fluktuuje niestabilnie. Kiedy wartość parametru zostaje zmieniona nieznacznie, średnia może zmienić się dramatycznie. Przez analogię — klimat Ziemi mógłby nigdy nie dotrzeć do równowagi ze średnim długookresowym zachowaniem. Publikacja Lorenza o klimacie jako praca matematyczna nie była sukcesem — nie udowodnił niczego w sensie aksjomatycznym. Jako praca z zakresu fizyki również miała poważne braki, ponieważ nie potrafił uzasadnić użycia tak prostego równania do wyciągnięcia wniosków dotyczących klimatu na Ziemi. Lorenz zdawał sobie z tego sprawę: „Autor czuje, że to podobieństwo nie jest tylko przypadkowe i że równanie różnicowe oddaje istotę jeśli nie fizyki, to matematyki, opisującej przejścia od jednych warunków przepływu do drugich i również całego zjawiska niestabilności”. Nawet dwadzieścia lat później nikt nie mógł zrozumieć, jaka intuicja usprawiedliwiała takie zuchwałe stwierdzenie opublikowane w „Tellusie”, szwedzkim czasopiśmie meteorologicznym. („«Tellus»! Nikt nie czyta «Tellusa»” — wykrzyknął gorzko pewien fizyk). Lorenz doszedł tam do jeszcze głębszego zrozumienia tych osobliwych możliwości układów chaotycznych — głębszego, niż potrafił wyrazić w języku meteorologii. Kontynuując badania nad zmieniającym się obliczem układów dynamicznych, Lorenz uświadomił sobie, że układy trochę bardziej skomplikowane niż to odwzorowanie kwadratowe mogłyby stwarzać inne rodzaje niespodziewanych struktur. Wewnątrz danego układu mogłoby być ukryte więcej niż jedno stabilne rozwiązanie. Obserwator widziałby wówczas jeden rodzaj zachowania przez bardzo długi czas, jednak całkowicie różne zachowanie mogłoby być równie naturalne dla tego układu. Taki układ jest nazywany nietranzytywnym. Może on pozostawać w jednym stanie albo drugim, ale nie w obu jednocześnie. Tylko uderzenie z zewnątrz może wymusić zmianę stanów. Banalnym układem nietranzytywnym jest zwykły
zegar wahadłowy. Stały strumień energii dociera z nakręconej sprężyny albo z baterii poprzez mechanizm wychwytowy. Jest on odprowadzany przez tarcie. Oczywistym stanem równowagi jest regularny ruch wahadła. Jeśli osoba przechodząca obok uderzy zegar, wahadło może przyspieszyć albo zwolnić, ale szybko wróci do swojej równowagi. Jednak zegar ma również drugi punkt równowagi — drugie poprawne rozwiązanie jego równania ruchu — i jest to stan, w którym wahadło wisi, nie poruszając się. Mniej trywialnym układem nietranzytywnym — może z kilkoma oddzielnymi obszarami krańcowo różnych zachowań — mógłby być klimat. Klimatolodzy, którzy używają komputerowych modeli globalnych do symulowania długookresowego zachowania się ziemskiej atmosfery i oceanów, wiedzieli od kilku lat, że ich modele dopuszczają co najmniej jeden dramatycznie różny stan równowagi. Podczas całej przeszłości geologicznej ten alternatywny klimat nigdy nie zaistniał, ale mógłby być równie poprawnym rozwiązaniem układów równań rządzących Ziemią. Jest to klimat nazywany przez niektórych klimatologów Białą Ziemią 13: Ziemia, której kontynenty są przykryte śniegiem, a oceany skute lodem. Ziemia pokryta lodowcem odbijałaby siedemdziesiąt procent docierającego do niej promieniowania słonecznego i w rezultacie pozostawałaby skrajnie zimna. Najniższa warstwa atmosfery, troposfera, byłaby dużo cieńsza. Burze, które przechodziłyby nad zamarzniętą powierzchnią Ziemi, byłyby dużo słabsze niż burze, które znamy. W ogólności, klimat byłby mniej sprzyjający życiu niż znany nam. Modele komputerowe mają tak silną tendencję do wpadania w równowagę Białej Ziemi, że klimatolodzy sami zastanawiają się, dlaczego sytuacja taka nigdy nie zaistniała. Może jest to tylko sprawą przypadku? Aby wprowadzić klimat Ziemi w stan zlodowacenia, potrzebny byłby potężny bodziec z zewnątrz. Ale Lorenz opisał jednak inny możliwy rodzaj zachowania, nazwany układem „prawie nietranzytywnym”. Układ ten
charakteryzuje się jednym rodzajem zachowania trwającym przez bardzo długi czas i fluktuującym w pewnych granicach. Potem bez żadnej przyczyny przechodzi w inny rodzaj zachowania, wciąż fluktuując, ale wokół innych średnich. Ludzie, którzy projektują modele komputerowe, są świadomi odkrycia Lorenza, ale próbują za wszelką cenę uniknąć prawie nietranzytywności. Taki model jest zbyt nieprzewidywalny. Naturalną skłonnością jest budowanie modeli z silną tendencją do powracania do równowagi, którą mierzymy codziennie na realnej planecie. Zatem, aby wyjaśnić wielkie zmiany klimatyczne, szuka się zewnętrznych przyczyn — na przykład zmiany orbity ziemskiej wokół Słońca. Jednak nie trzeba wielkiej wyobraźni, aby dojść do wniosku, że prawie nietranzytywność mogłaby lepiej wyjaśnić, dlaczego klimat Ziemi wchodził i wychodził z okresów zlodowaceń w tajemniczych, nieregularnych przedziałach czasowych. Skoro tak, nie potrzeba żadnej fizycznej przyczyny wyjaśnienia tych przebiegów czasowych. Zlodowacenia mogą być po prostu poproduktem chaosu. Tak jak zbieracz broni w erze broni automatycznej tęsknie wspomina colt kaliber .45, tak współcześni naukowcy pielęgnują pewną nostalgię do kalkulatora HP-65. W ciągu kilku lat swego panowania maszyna ta na trwałe zmieniła przyzwyczajenia wielu naukowców. Dla Feigenbauma był to pomost pomiędzy metodą „papier i ołówek” a stylem pracy z komputerami, do których nie był jeszcze przekonany. Nie wiedział nic o Lorenzu 14, ale w lecie 1975 roku podczas zjazdu w Aspen, w stanie Kolorado, wysłuchał referatu Steve’a Smale’a o pewnych matematycznych właściwościach tego samego kwadratowego równania różnicowego. Wydawało się, że Smale myśli, iż istnieją pewne interesujące otwarte kwestie dotyczące dokładnego punktu, w którym odwzorowanie zmienia się z okresowego na chaotyczne. Jak zwykle, Smale miał dobrego
nosa co do kwestii, które warto badać. Feigenbaum zdecydował się spojrzeć na to raz jeszcze. Wyposażony w swój kalkulator zaczął stosować kombinację algebry analitycznej i metod numerycznych, aby gruntownie zrozumieć odwzorowania kwadratowe, koncentrując się na obszarze granicznym pomiędzy porządkiem i chaosem. Metaforycznie — ale tylko metaforycznie — wiedział, że ten obszar przypominał granicę pomiędzy przepływem laminarnym i turbulentnym w cieczy. Na ten obszar zwrócił uwagę ekologów Robert May. Pierwotnie w zmianach populacji zwierząt nie zauważyli oni innej możliwości niż uporządkowane cykle. Na drodze do chaosu w tym obszarze występowała kaskada bifurkacji, rozszczepiających dwucykle na czterocykle, czterocykle na ośmiocykle itd. Te rozszczepienia tworzą fascynującą strukturę. Są one punktami, w których niewielka zmiana w płodności, może przeprowadzić populację bródnicy nieparki od czteroletniego do ośmioletniego cyklu. Feigenbaum postanowił zacząć od obliczenia dokładnych wartości parametru, przy których następuje rozszczepienie. Powolność jego kalkulatora doprowadziła go owego sierpnia do pewnego odkrycia. Do obliczenia dokładnej wartości parametru każdego podwojenia okresu potrzebował wieków (w rzeczywistości minut). Im wyżej szedł w górę łańcucha, tym dłużej to trwało. Gdyby Feigenbaum miał szybki komputer z drukarką, mógłby nie zauważyć żadnej struktury. A tak musiał zapisywać liczby ręcznie, musiał o nich myśleć, kiedy czekał, a następnie — aby zaoszczędzić czas — musiał zgadywać, gdzie pojawi się następna. W pewnej chwili jednak dostrzegł, że nie trzeba zgadywać. W tym układzie ukryta była niespodziewana regularność: liczby zbiegały się geometrycznie, tak jak linia słupów trakcji telefonicznej narysowana w perspektywie zbiega się na horyzoncie. Jeśli wiesz, jak duże musisz narysować dwa kolejne słupy, wiesz już wszystko; stosunek pierwszego do
drugiego będzie równy stosunkowi trzeciego do drugiego itd. Podwojenia okresu pojawiają się coraz szybciej, szybkość ich pojawiania się narasta jednostajnie. Dlaczego tak jest? Zwykle obecność zbieżności geometrycznej sugeruje, że coś gdzieś powtarza się w innej skali. Ale jeśli w tym równaniu była struktura skalowania, to nikt jej nigdy nie widział. Feigenbaum obliczył ten stosunek zbieżności z największą dokładnością, na jaką pozwalała mu jego maszyna — trzy miejsca po przecinku: w ten sposób doszedł do liczby 4,669. Czy ta szczególna liczba coś znaczy? Feigenbaum zrobił to, co zrobiłby każdy, kto przywiązuje wagę do liczb. Spędził resztę dnia, próbując dopasować tę liczbę do różnych standardowych stałych — п, e itp. Nic nie znalazł. Dziwne, że Robert May uświadomił sobie później 15, iż również widział tę zbieżność geometryczną. Ale tak szybko o niej zapomniał, jak szybko ją zauważył. Z ekologicznej perspektywy Maya była to numeryczna osobliwość, nic więcej. W rzeczywistych układach, które rozważał, w układach populacji zwierząt albo nawet w modelach ekonomicznych, nieunikniony szum przytłoczy każdy tak drobny szczegół. Gmatwanina, która doprowadziła Maya tak daleko, zatrzymała go w punkcie o kolosalnym znaczeniu. May był zafascynowany ogólnym zachowaniem się równania. Nigdy nie przyszło mu jednak do głowy, że numeryczne szczegóły mogą okazać się tak ważne. Feigenbaum wiedział, co posiadał, ponieważ zbieżność geometryczna oznaczała, że coś w tym równaniu było skalowane, i wiedział, że skalowanie jest ważne. Cała teoria renormalizacji zależy od tego. W jaskrawo niesfornym układzie skalowanie oznacza, że pewne właściwości zostały zachowane, gdy inne się zmieniały. Pewne regularności leżą pod turbulentną powierzchnią równania. Ale gdzie? Niełatwo było ustalić, co z tym dalej robić.
W rozrzedzonym powietrzu Los Alamos lato nagle przeszło w jesień i październik prawie się kończył, kiedy Feigenbauma uderzyła dziwna myśl. Wiedział, że Metropolis, Stein i Stein badali również inne równania i odkryli, iż pewne struktury przenoszą się z jednego rodzaju funkcji na inny. Pojawiała się ta sama kombinacja liter P i L 16 i ukazywała się w tym samym porządku. Jedna funkcja zawierała sinus jakiejś liczby, aspekt, który spowodował, że troskliwie wypracowane podejście Feigenbauma do równania paraboli okazało się niewczesne. Musiałby zacząć od nowa. Wziął więc swój HP-65 i zaczął obliczać podwajacze okresu dla funkcji xi+1 = r sin п xi. Obliczenie funkcji trygonometrycznej jest procesem dużo wolniejszym i Feigenbaum zastanawiał się, czy używając prostszej wersji równania, mógłby to skrócić. Badając liczby, Feigenbaum niezawodnie doszedł do stwierdzenia, że znowu zbiegają się geometrycznie. Stosunek zbieżności dla tego nowego równania był jedynie sprawą obliczeń. Znowu precyzja obliczeń była ograniczona, ale uzyskał wynik z dokładnością do trzech miejsc po przecinku: 4,669. Była to ta sama liczba. Niezwykłe, że ta funkcja trygonometryczna ukazywała nie tylko zgodną, geometryczną regularność. Ukazywała regularność, która była numerycznie identyczna jak regularność dużo prostszej funkcji. Żadna istniejąca matematyczna ani fizyczna teoria nie wyjaśniała, dlaczego te dwa równania tak różne w formie i treści powinny prowadzić do tego samego wyniku. Feigenbaum zadzwonił do Paula Steina. Stein nie był przygotowany, by zaakceptować tę zbieżność na podstawie tak niewystarczającego dowodu. Ostatecznie precyzja była niewielka. Niemniej Feigenbaum zadzwonił również do swoich rodziców w New Jersey i powiedział im, że natknął się na coś bardzo głębokiego. Powiedział matce, że to uczyni go sławnym. Potem rozpoczął sprawdzanie innych funkcji, o których przypuszczał, że przechodzą przez sekwencję bifurkacji na drodze do nieporządku. Każda generowała tę
samą liczbę. Feigenbaum bawił się liczbami przez całe życie. Kiedy był nastolatkiem, wiedział, jak obliczyć logarytmy i sinusy, gdy inni musieli szukać ich w tablicach. Ale nigdy nie nauczył się używać komputera większego niż ręczny kalkulator — postawa taka była typowa dla fizyków i matematyków, którzy pogardzali mechanicznym myśleniem komputera. Teraz jednak nadszedł czas. Poprosił kolegę, aby nauczył go Fortranu, i pod wieczór dla wielu odmian funkcji obliczył swoją stałą z dokładnością do pięciu miejsc po przecinku: 4,66920. Tej nocy przeczytał w podręczniku Fortranu o podwójnej precyzji i następnego dnia otrzymał: 4,6692016090 — dokładność wystarczającą, aby przekonać Steina. Feigenbaum nie był jednak pewien, czy przekonał samego siebie. Zaczął szukać regularności — matematycy nazywają to zrozumieniem — ale również zaczęło do niego docierać, że poszczególne rodzaje równań, podobnie jak poszczególne układy fizyczne, zachowują się w specjalny, charakterystyczny sposób. Te równania jednak były proste — matematyka była trywialna. Jednak coś w sercu tych równań, tak różnych od siebie, powtarzało się wciąż od nowa, tworząc jedną liczbę. Natknął się na coś: może tylko ciekawostkę, może nowe prawo przyrody. Wyobraźmy sobie, że jakiś starożytny zoolog ustalił, iż pewne rzeczy są cięższe niż inne — mają pewną abstrakcyjną jakość, którą nazwał ciężarem — i postanowił zbadać tę hipotezę naukowo. Nigdy faktycznie nie mierzył ciężaru, ale uważał, że posiadał pewne zrozumienie problemu. Patrzył na wielkie węże i małe węże, wielkie niedźwiedzie i małe niedźwiedzie i przypuszczał, że waga tych zwierząt jest w tej samej relacji do ich wielkości. Zbudował skalę i rozpoczął ważenie węży. Ku jego zaskoczeniu każdy wąż miał ten sam ciężar. Gdy stwierdził, że ciężar każdego misia jest również taki sam, wpadł w konsternację. Jeszcze bardziej był zdumiony, gdy się okazało, że waga węży i misiów jest taka sama. Wszystkie one ważyły
4,6692016090. Widocznie ciężar jest czymś innym, niż zakładał. Cała koncepcja wymaga ponownego przemyślenia. Wirujące strumienie, wahające się wahadła, oscylatory elektroniczne — wiele fizycznych układów przechodzi przez jakiś stan przejściowy na drodze do chaosu i te stany przejściowe są zbyt skomplikowane do analizy. Są to wszystko układy, których mechanika wydawała się całkowicie zrozumiała. Fizycy znali wszystkie właściwe równania; jednak przejście od równań do zrozumienia globalnego, długookresowego zachowania się, wydawało się niemożliwe. Niestety, równania na ciecze, nawet wahadła były daleko bardziej wyzywające niż proste jednowymiarowe odwzorowanie logistyczne. Ale z odkrycia Feigenbauma wynikało, że te równania nie mają związku ze sprawą. Kiedy pojawia się porządek, znika pamięć o tym, jak wyglądało oryginalne równanie. Kwadratowe czy trygonometryczne — wynik jest ten sam. „Cała tradycja fizyki mówi, że wystarczy wyizolować mechanizmy, a reszta już sama przyjdzie — powiedział Feigenbaum 17. — To całkowicie odpada. Tutaj znasz właściwe równania, ale niewiele to pomaga. Dodajesz wszystkie mikroskopowe fragmenty i stwierdzasz, że nie możesz rozszerzyć ich na długie okresy. Nie są one tym, co jest ważne w problemie. Całkowicie zmienia się to, co oznacza wiedzieć coś”. Chociaż związek między obliczeniami numerycznymi a fizyką był słaby, Feigenbaum znalazł dowód na to, że trzeba wypracować nowy sposób obliczania złożonych nieliniowych problemów. Jak dotąd wszystkie dostępne techniki zależały od szczegółów funkcji. Jeśli funkcja była funkcją sinusoidalną, szczegółowe obliczenia Feigenbauma były obliczeniami sinusa. Jego odkrycie uniwersalności oznaczało, że wszystkie te techniki mogłyby być odrzucone. Regularność nie ma nic wspólnego z sinusami. Nie ma nic wspólnego z parabolami. Nie ma nic wspólnego z żadną szczególną funkcją. Ale dlaczego? To było frustrujące. Przyroda podniosła kurtynę tylko na
moment, ukazując przebłysk nieoczekiwanego porządku. Co jeszcze było za kurtyną? Inspiracja przyszła w formie rysunku, rysunku dwóch małych falistych form i jednej większej. To wszystko — jasne, ostre wyobrażenie wyryte w jego umyśle, nie więcej może niż widoczny szczyt wielkiej góry lodowej myślowego przetwarzania, które dokonuje się poniżej poziomu świadomości. To miało coś wspólnego ze skalowaniem, i otworzyło przed Feigenbaumem drogę, której potrzebował.
H. BRUCE STEWART, J.M. THOMPSON, NANCY STERNGOLD
„Feigenbaumologia” w chaosie. Proste równanie wielokrotnie iterowane: Mitchell Feigenbaum zogniskował swoją uwagę na prostych funkcjach, biorąc jedną liczbę jako daną i produkując drugą jako wynik. Dla populacji zwierząt funkcja taka mogłaby wyrażać relację pomiędzy wielkością populacji w tym i w następnym roku. Jednym ze sposobów obrazowania takich funkcji jest wykonanie wykresu: na osi poziomej odkłada się wynik, a na osi pionowej daną. Dla każdej możliwej danej, x, jest dokładnie jeden wynik, y, i tworzą one kształt reprezentowany przez grubą
linię. Następnie, aby przedstawić długookresowe zachowanie się układu, Feigenbaum wykreślił trajektorię, która zaczynała się od pewnego dowolnego x. Ponieważ każde y było sprzężone zwrotnie z tą samą funkcją jako następna dana, mógł użyć pewnego rodzaju schematycznego uproszczenia: trajektoria będzie odbijała się od linii nachylonej do osi pod kątem 45°, linii, na której x równa się y. Dla ekologa najbardziej oczywistym rodzajem funkcji dla wzrostu populacji jest funkcja liniowa — scenariusz maltuzjański — stały, nieograniczony wzrost o stały procent każdego roku (po lewej). Bardziej realistyczną funkcją jest łuk wymuszający zmniejszenie się populacji, gdy rozrośnie się za bardzo. Wykreślono „przekształcenie logistyczne”, idealną parabolę, określoną funkcją y = rx (1 – x), gdzie wartość r, od 0 do 4, określa stromość paraboli. Ale Feigenbaum odkrył, że nie ma znaczenia, jakiego rodzaj łuku używał; szczegóły równania były nieważne. Ważne było, żeby funkcja posiadała garb. Zachowanie się układu było wrażliwe jednak na stromość — stopień nieliniowości albo — jak to nazwał Robert May — „czynnik rozmnażania i wymierania” (ang. boom-and-bustiness). Zbyt płytka funkcja powoduje wygaśnięcie procesu: dowolnie wielka populacja początkowa dochodziłaby ostatecznie do zera. Wzrastająca stromość stwarzałaby stabilną równowagę, której spodziewaliby się tradycyjni ekologowie; punkt wciągający wszystkie trajektorie jest jednowymiarowym „atraktorem”. Poza pewnym punktem bifurkacja daje populację oscylującą z okresem dwa. Potem pojawia się więcej podwojeń okresu i ostatecznie (u dołu po prawej) trajektoria nie jest zbieżna wcale. Takie rysunki były punktem wyjściowym rozważań Feigenbauma, kiedy próbował skonstruować teorię. Zaczął myśleć w kategoriach rekursji: funkcje funkcji i funkcje funkcji funkcji itd.; odwzorowania z dwoma garbami, potem z czterema...
Badał atraktory. Stabilna równowaga osiągnięta przez jego odwzorowanie jest punktem stałym, który przyciąga wszystkie inne — nie jest ważne, jaka „populacja” wyjściowa będzie zmierzać pewnie ku atraktorowi. Następnie przy pierwszym podwojeniu okresu atraktor rozszczepi się na dwa jak dzieląca się komórka. Najpierw te dwa punkty są praktycznie razem; jednak kiedy parametr się zwiększa, odpływają od siebie. Z kolei następuje nowy punkt dwojący: każdy punkt atraktora dzieli się znowu w tym samym
momencie. Liczba Feigenbauma pozwalała mu przewidzieć, kiedy wystąpi podwojenie. Teraz odkrył, że mógłby również przewidzieć precyzyjne wartości każdego punktu na tym nawet bardziej skomplikowanym atraktorze — dwa punkty, cztery punkty, osiem punktów... Mógłby przewidzieć faktyczne populacje osiągane w corocznych oscylacjach. Była to jeszcze inna geometryczna zbieżność. Te liczby również spełniały prawo skalowania. Feigenbaum badał zapomnianą ziemię niczyją pomiędzy matematyką i fizyką. Jego praca była trudna do sklasyfikowania. Nie była to matematyka: nie udowodnił niczego. Badał liczby, to prawda, ale liczby dla matematyka są tym, czym worki z pieniędzmi dla bankiera inwestora: nominalnie była to sprawa jego profesji, ale faktycznie była zbyt izolowana i specyficzna, aby marnować na nią czas. Idee są rzeczywistą walutą matematyków. Feigenbaum wykonał program w fizyce, i co dziwniejsze, był to program z zakresu fizyki doświadczalnej. Liczby i funkcje zamiast mezonów i kwarków były jego obiektami badań. Mają one trajektorie i orbity. Musiał wniknąć w ich zachowanie. Musiał — zgodnie z modnym w nowej nauce frazesem — stworzyć intuicję. Jego akceleratorem i jego komorą mgłową był komputer. Opierając się na swojej teorii, budował metodologię. Zwykle użytkownik komputera konstruowałby problem, wprowadzał go do niego i czekał, aż maszyna znajdzie rozwiązanie — jeden problem, jedno rozwiązanie. Feigenbaum i inni badacze chaosu potrzebowali czegoś więcej. Musieli robić to, co czynił Lorenz, musieli tworzyć miniaturowe wszechświaty i obserwować ich ewolucję. Następnie mogli zmieniać tę albo inną cechę i obserwować zmienione tory. Zostali oni jednak wyposażeni w nowe przekonanie, że drobne zmiany pewnych cech mogą prowadzić do istotnych zmian w ogólnym zachowaniu. Feigenbaum szybko odkrył, jak nieodpowiednie dla jego stylu pracy z komputerem były urządzenia komputerowe w Los Alamos. Mimo
ogromnych zasobów, dużo większych niż w większości uniwersytetów, Los Alamos miało tylko kilka terminali zdolnych do wyświetlania wykresów i rysunków, a i te były w Weapon Division (oddział zbrojeń). Feigenbaum chciał wykreślić pewne liczby jak punkty na mapie. Musiał uciec się do najbardziej prymitywnej metody — używać długich rolek papieru do drukarki wierszowej z liniami sporządzonymi za pomocą znaków gwiazdki albo plusa. Władze Los Alamos uważały, że właściwsze jest posiadanie jednego wielkiego komputera zamiast wielu małych — polityka ta wyrosła na gruncie tradycji: jeden problem, jedno rozwiązanie. Ponadto każdy zakup komputera dla oddziału musiał odpowiadać surowym wytycznym rządu i uzyskać formalną zgodę. Nieco później, mimo budżetowych komplikacji w oddziale teoretycznym, Feigenbaum stał się użytkownikiem „kalkulatora biurkowego” za 20 tysięcy dolarów. Odtąd mógł zmieniać swoje równania i rysunki w biegu, podkręcać je i dostrajać, grać na komputerze jak na instrumencie muzycznym. Do tej pory jedyne terminale umożliwiające poważną grafikę były w ściśle tajnym obszarze, w lokalnym żargonie — „za płotem”. Feigenbaum musiał używać terminalu podłączonego linią telefoniczną do komputera centralnego. Praca w takim systemie utrudniała wykorzystanie mocy obliczeniowej komputera znajdującego się po drugiej stronie linii. Nawet najprostsze zadania trwały minuty. Aby dokonać edycji linii programu, należało nacisnąć klawisz Return i czekać: terminal buczał nieprzerwanie, a centralny komputer grał swoją elektroniczną rundę z innymi użytkownikami w laboratorium. Kiedy Feigenbaum czekał na wyniki, myślał. Jaka nowa matematyka mogłaby wytwarzać wielokrotnie skalowalne struktury, które obserwował? Uświadamiał sobie, że coś w tych funkcjach musi być rekursywne, że samoodnoszące zachowanie jednego jest sterowane przez zachowanie drugiego ukrytego wewnątrz pierwszego. Falujący obraz, który przyniosła
mu chwila natchnienia, wyrażał coś na temat tego, jak jedna funkcja mogłaby być przeskalowana, aby pasować do drugiej. Zastosował matematykę teorii grupy renormalizacyjnej z jej właściwością skalowania umożliwiającą przekształcanie nieskończoności w posłuszne liczby. Na wiosnę 1976 roku jego tryb życia stał się dużo bardziej intensywny niż dotychczas. Był tak skoncentrowany, że przypominało to trans: programował z furią, gryzmolił ołówkiem, znowu programował. Nie mógł zatelefonować do oddziału C po pomoc, ponieważ oznaczałoby to odłączenie komputera od telefonu, a wznowienie połączenia było niepewne. Nie mógł przerwać pracy na dłużej niż pięć minut, ponieważ komputer automatycznie odłączał jego linię. Mimo wszystko komputer zawieszał się od czasu do czasu, pozostawiając Feigenbauma z wysokim poziomem adrenaliny. Pracował przez dwa miesiące bez przerwy. Jego dzień pracy miał dwadzieścia dwie godziny. Szedł spać w stanie pewnego rodzaju zamroczenia i budził się dwie godziny później z myślami ustawionymi w tym miejscu, gdzie je przerwał. Jego posiłki składały się wyłącznie z kawy. (Nawet kiedy był zdrowy i nie męczyła go gorączka pracy, Feigenbaum podtrzymywał swe siły witalne wyłącznie najkrwistszym mięsem, kawą i czerwonym winem. Jego przyjaciele twierdzili, że jego organizm musiał przyswajać witaminy z papierosów 18). W końcu upomniał go lekarz. Przepisał mu niewielą ilość valium, spokojny tryb życia i wymusił wzięcie urlopu. Ale do tego czasu Feigenbaum stworzył teorię uniwersalności. Uniwersalność pozwala odróżnić piękne od użytecznego. Matematycy w pewnym momencie przestają dbać o to, czy dostarczają techniki do obliczeń. Fizycy w pewnym momencie potrzebują liczb. Uniwersalność stwarza nadzieję na to, że przez rozwiązanie pewnego prostego problemu fizycy mogą rozwiązać dużo trudniejsze problemy. Odpowiedzi są te same.
Dalej — umieszczając swoją teorię w ramach grupy renormalizacyjnej — Feigenbaum dał jej oprawę, którą fizycy uznają za narzędzie obliczeniowe, prawie coś standardowego. Ale w to, co czyni uniwersalność użyteczną, fizykom trudno uwierzyć. Uniwersalność oznacza, że różne układy zachowują się identycznie. Oczywiście, Feigenbaum badał tylko proste funkcje numeryczne. Ale wierzył, że jego teoria wyraża prawo przyrody mówiące o punkcie przejścia od porządku do turbulencji. Każdy wiedział, że turbulencja oznaczała ciągłe widmo różnych częstości i każdy zastanawiał się, skąd pochodzą te różne częstości. Nagle można było dostrzec częstości pojawiające się sekwencyjnie 19. Wynikał z tego wniosek, że układy w fizycznym świecie zachowują się w ten sam rozpoznawalny sposób i że ponadto jest on wymiernie taki sam. Uniwersalność Feigenbauma była nie tylko jakościowa, była również ilościowa; nie tylko strukturalna, ale również metryczna. Nie rozciągała się tylko na struktury, ale również na liczby. Fizykowi trudno było w to uwierzyć. Wiele lat później Feigenbaum trzymał w szufladzie swojego biurka, aby zawsze mieć je pod ręką, listy od redaktorów informujące o odrzuceniu jego prac. Do tego czasu zdobył już uznanie, którego potrzebował. Jego praca w Los Alamos uzyskała nagrody i wyróżnienia 20, które przyniosły mu prestiż i pieniądze. Ale wciąż go drażniło, że redaktorzy najlepszych akademickich czasopism uważali, iż jego praca nie nadawała się do publikacji. Trwało to przez dwa lata od jej złożenia w redakcji. Pogląd o naukowym przełomie tak oryginalnym i nieoczekiwanym, że nie może być upowszechniony, wydaje się nędznym mitem. Współczesna nauka, z jej potężnym strumieniem informacji i bezstronnym systemem recenzji, nie powinna być kwestią smaku. Jeden z redaktorów, którzy odesłali Feigenbaumowi manuskrypt, przyznał wiele lat później, że odrzucił pracę, która była punktem zwrotnym
w tej dziedzinie; jednak wciąż twierdził, że praca ta nie przystawała do zainteresowań odbiorców jego czasopisma z zakresu matematyki stosowanej. Tymczasem nawet bez publikacji przełom Feigenbauma stał się głośną nowością w pewnych kołach matematyków i fizyków. Istota teorii została rozpowszechniona w sposób, w jaki większość nauki jest rozpowszechniana — poprzez wykłady i odbitki prac. Feigenbaum przedstawił swoje ustalenia na konferencji i zaczęły nadchodzić prośby o fotokopie jego pracy — najpierw były ich dziesiątki, potem setki. Współczesna ekonomia opiera się mocno na teorii efektywnego rynku (ang. efficient market theory). Zakłada się, że wiedza przepływa w sposób swobodny z miejsca na miejsce. Przyjmuje się, że ludzie podejmując ważne decyzje, mają dostęp do mniej więcej tych samych informacji. Oczywiście, resztki ignorancji i informacje wewnętrzne pozostają tu i tam, ale ogólnie, gdy raz wiedza staje się publiczna, ekonomiści zakładają, że jest znana każdemu. Historycy nauki przyjmują często swoją teorię efektywnego rynku za własną. Kiedy dokonuje się odkrycie, kiedy idea zostaje wyrażona, przyjmuje się, że staje się ona wspólną własnością świata nauki. Każde odkrycie i każda nowa idea budowane są na poprzednich. Nauka rośnie jak budynek, cegła po cegle. Kroniki rozwoju intelektualnego mogą być uznane dla celów praktycznych za liniowe. Ten pogląd na naukę funkcjonuje najlepiej, kiedy dobrze określona dziedzina oczekuje rozwiązania dobrze zdefiniowanego problemu. Nikt, na przykład, nie zrozumiał opacznie odkrycia molekularnej struktury DNA. Ale historia idei nie zawsze jest tak elegancka. Kiedy powstała nieliniowa nauka w dziwnych zakamarkach różnych dyscyplin, strumień idei przestał podążać za standardową logiką historyków. Wyłanianie się chaosu jako całości było historią nie tylko nowych teorii i nowych odkryć, ale również opóźnionym zrozumieniem starych idei. Wiele elementów układanki zostało
dostrzeżonych na długo przedtem — znali je Poincaré, Maxwell, a nawet Einstein, ale wkrótce jednak o nich zapomniano. Wiele elementów początkowo było rozumianych tylko przez kilku wtajemniczonych. Matematyczne odkrycia były rozumiane przez matematyków, fizyczne przez fizyków, meteorologiczne — przez nikogo. Sposób, w jaki idee się rozprzestrzeniały, stał się tak samo ważny jak sposób ich wprowadzenia. Każdy naukowiec posiadał osobistą konstelację intelektualnych przodków. Każdy miał swój własny obraz idei, a każdy obraz był ograniczony na swój własny sposób. Wiedza była niedoskonała. Naukowcy byli obciążeni przyzwyczajeniami pochodzącymi ze swoich dyscyplin albo przypadkowymi kolejami własnej edukacji. Świat naukowy może być zaskakująco skończony. Żaden komitet naukowy nie wprowadził historii nauki na nowe tory — mogła to uczynić garstka indywidualistów z indywidualną percepcją i indywidualnymi celami. Potem zaczął się kształtować konsensus w sprawie tego, jakie innowacje i czyj wkład były najważniejsze. Ale konsensus jest związany z pewnym elementem rewizjonizmu. W gorączce poszukiwań, szczególnie w latach siedemdziesiątych, nie było dwóch fizyków ani dwóch matematyków, którzy rozumieliby chaos w dokładnie ten sam sposób. Naukowcy, przyzwyczajeni do klasycznych układów bez tarcia, czyli dysypacji, wywodzili się z linii spadkobierców Rosjan, takich jak A.N. Kołmogorow i V.I. Arnold. Matematycy przyzwyczajeni do klasycznych układów dynamicznych pochodzą z linii Poincarégo, Birkhoffa, Levinsona i Smale’a. Później matematyczna konstelacja grupowała się wokół Smale’a, Guckenheimera i Ruelle’a. Albo mogła uwydatnić przodków o numerycznych inklinacjach związanych z Los Alamos: Ulama, Metropolisa, Steina. Fizyk teoretyk mógł myśleć o Ruelle’u, Lorenzu, Rösslerze i Yorke’u. Biolog pomyślałby o Smale’u, Guckenheimerze, Mayu i Yorke’u. Możliwych kombinacji było
nieskończenie wiele. Naukowiec pracujący z materiałami — geolog albo sejsmolog — zaufałby bezpośredniemu wpływowi Mandelbrota; fizyk teoretyk zaledwie przyznałby, że zna to nazwisko. Rola Feigenbauma stała się szczególnym źródłem nieporozumień. Dużo później, kiedy chodził w glorii sławy, pewna grupa fizyków dokładała starań, aby cytować inne osoby, które pracowały nad tym samym problemem w tym samym czasie. Kilku oskarżyło go, że koncentrował się zbyt wąsko na małych fragmentach szerokiego spektrum chaotycznego zachowania. „Feigenbaumologia” 21 została przechwalona — mógłby powiedzieć fizyk — z pewnością był to kawałek dobrej roboty, ale nie o tak szerokim wpływie, jak na przykład praca Yorke’a. W roku 1984 Feigenbaum został zaproszony na wykład na Sympozjum Noblowskie do Szwecji i tam kontrowersje zawirowały. Benoit Mandelbrot wygłosił nieprzyjemne, uszczypliwe przemówienie, które słuchacze później określili jako „wykład antyfeigenbaumowski”. Mandelbrotowi w jakiś sposób udało się ekshumować pracę sprzed dwudziestu pięciu lat na temat podwajania okresu, napisaną przez fińskiego matematyka, P.J. Myrberga, i nazywał sekwencję Feigenbauma „sekwencją Myrberga”. Ale Feigenbaum odkrył uniwersalność i stworzył teorię, która ją wyjaśniła. Była to oś, na której obracała się nowa nauka. Nie mogąc opublikować tak zaskakujących i przeczących intuicji wyników, rozpowszechnił je w serii wykładów wygłoszonych na konferencji w New Hampshire w sierpniu 1976 roku, na międzynarodowym spotkaniu matematyków w Los Alamos we wrześniu i w czasie cyklu wykładów na Brown University w listopadzie tego roku. Odkrycie to i teoria były zaskoczeniem i spotkały się z niedowierzaniem i podnieceniem. Im więcej jakiś naukowiec myślał o nieliniowości, tym lepiej czuł siłę uniwersalności Feigenbauma. Ktoś przedstawił to bardzo prosto 22: „To było bardzo szczęśliwe i szokujące
odkrycie, że są struktury w układach nieliniowych, które są zawsze takie same, jeśli patrzysz na nie we właściwy sposób”. Niektórzy fizycy przyswoili sobie nie tylko idee, ale również techniki. Zabawy z tymi odwzorowaniami przyprawiały ich o dreszcze. Za pomocą swoich własnych kalkulatorów mogli doświadczać zadziwienia i satysfakcji, których doznawał Feigenbaum w Los Alamos. Uszlachetniali też teorię. Wysłuchawszy jego wykładu wygłoszonego w Institute for Advanced Study w Princeton, Predrag Cvitanović, fizyk zajmujący się cząstkami elementarnymi, pomógł Feigenbaumowi uprościć jego teorię i rozszerzyć jego ideę uniwersalności, przy czym przez cały czas stwarzał pozory, że to była rozrywka 23; nie mógł pochwalić się przed kolegami tym, co robił. Wśród matematyków również przeważała postawa pełna rezerwy, głównie dlatego, że Feigenbaum nie dostarczył ścisłego dowodu. Rzeczywiście, dowód w matematycznych kategoriach pojawił się dopiero w roku 1979 w pracy napisanej przez Oscara E. Lanforda III 24. Feigenbaum często przypominał prezentację swojej teorii przed wybitnym audytorium na spotkaniu w Los Alamos. Skoro tylko zaczął przedstawiać swoją pracę, znakomity matematyk, Mark Kac, wstał i zapytał: „Sir, czy chce pan nam przedstawić numerykę czy dowód?” 25 „Więcej niż jedno i mniej niż drugie” — odpowiedział Feigenbaum. „Czy to jest to, co każdy rozsądny człowiek mógłby nazwać dowodem?” Feigenbaum stwierdził, że słuchacze musieliby osądzić to sami. Kiedy skończył mówić, zapytał o opinię Kaca. Ten odpowiedział z sardonicznie trelującym „r”: „Tak, to rzeczywiście dowód r-r-rozsądnego człowieka. Szczegóły można pozostawić bardziej r-r-rygorystycznemu matematykowi”. Zaczął się ruch. W lecie 1977 roku 26 dwóch fizyków, Joseph Ford i Giulio Casati, zorganizowało pierwszą konferencję na temat nauki nazwanej chaosem. Odbywała się ona w gościnnej willi w Como we Włoszech,
malutkim mieście na południowej stronie jeziora o tej samej nazwie, będącego oszałamiającym, ciemnoniebieskim zbiornikiem wody pochodzącej z topniejącego śniegu i spływającej z włoskich Alp. Przybyło sto osób — głównie fizyków, ale również paru ciekawych naukowców z różnych innych dziedzin. „Mitch ujrzał uniwersalność, stwierdził, jak się ona skaluje i wypracował drogę do chaosu, która jest intuicyjnie pociągająca — powiedział Ford 27. — Po raz pierwszy zyskaliśmy jasny model, który każdy mógł zrozumieć. I było to jedno z tych odkryć, na które nadszedł czas. W licznych dyscyplinach — od astronomii do zoologii — ludzie robili te same rzeczy, publikując w swoich wąskowyspecjalizowanych czasopismach, zupełnie nieświadomi tego, że wokół byli inni ludzie. Myśleli, że tworzą sami dla siebie, a w swoich dziedzinach byli uważani za ekscentryków. Wyczerpali najprostsze pytania, które można zadać, i zaczęli się martwić o problemy, które były nieco bardziej złożone. I ci ludzie cieszyli się bardzo z tego, że znaleźli się tam również inni”. * Później Feigenbaum żył w pustym mieszkaniu: łóżko w jednym pokoju, komputer w drugim, a w trzecim trzy czarne elektroniczne wieże do odtwarzania jego niemieckiej kolekcji płyt. Jedyny eksperyment Feigenbauma w meblowaniu domu — zakup drogiego, marmurowego stolika do kawy z Włoch — zakończył się niepowodzeniem; zamiast stołu otrzymał paczkę pełną marmurowego grysu. Stosy papierów i książek piętrzyły się wzdłuż ścian. Mówił gwałtownie, długie, szpakowate włosy zaczesane miał do tyłu. „Coś dramatycznego zdarzyło się w latach dwudziestych. Bez żadnej przyczyny fizycy błądzili wokół w istocie poprawnego opisu świata — ponieważ teoria mechaniki kwantowej jest w pewnym sensie poprawna.
Mówi ci, jak z błota zrobić komputer. Jest ona sposobem, którego uczyliśmy się, aby manipulować wszechświatem. Mówi o tym, jak są zbudowane związki chemiczne, plastiki i co tam jeszcze. Wiadomo, jak to obliczać. Jest to ekstrawagancko dobra teoria — poza tym, że na pewnym poziomie nie ma sensu. Czegoś brakuje. Jeśli pytasz, co równania rzeczywiście znaczą i jaki jest opis świata zgodnie z tą teorią, nie jest to opis, który pociąga za sobą twoje intuicyjne zrozumienie. Nie możesz myśleć o cząstce poruszającej się, jak gdyby posiadała trajektorię. Nie masz prawa przedstawiać sobie tego w ten sposób. Jeśli stawiasz coraz bardziej subtelne pytania — jak według tej teorii wygląda świat? — w końcu jesteś tak daleko od normalnego sposobu wyobrażania sobie rzeczy, że popadasz w konflikt. Otóż może jest to prawidłowy opis rzeczywistości. Ale nie wiesz naprawdę, czy nie istnieje inny sposób zgromadzenia tych wszystkich informacji, który nie wymaga tak radykalnego odejścia od intuicyjnego rozumienia. Istnieje fundamentalne założenie w fizyce, że sposób, w jaki pojmujesz świat, polega na rozdzielaniu jego składników tak długo, aż zrozumiesz materiał, który uważasz za prawdziwie fundamentalny. Wtedy zakładasz, że inne rzeczy, których nie możesz zrozumieć, są szczegółami. Zakłada się, że istnieje niewielka liczba zasad, które możesz odróżnić, patrząc na rzeczy w ich stanie czystym — jest to czysto analityczne podejście — a potem jakoś łączysz je razem w bardziej skomplikowany sposób, kiedy chcesz rozwiązać bardziej «brudny» problem. Jeśli możesz. W końcu, aby zrozumieć, musisz zmienić bieg. Musisz na nowo zrozumieć, jak pojmować ważne rzeczy. Mogłeś spróbować symulować płyn modelowy na komputerze. Jest to dopiero początek. Ale byłoby to marnowanie sił, ponieważ to, co się faktycznie dzieje, nie ma nic wspólnego z płynem ani ze szczególnym równaniem. Jest to ogólny opis tego, co się
dzieje w wielkiej różnorodności układów, kiedy rzeczy działają na siebie wciąż od nowa. Wymaga to innego sposobu myślenia o tym problemie. Kiedy patrzysz na ten pokój — widzisz leżące tam graty i osobę siedzącą tutaj, a tam są drzwi — zakładasz elementarne zasady materii i piszesz funkcje falowe, które je opisują. To nie jest dobry pomysł. Może Bóg mógłby to zrobić, ale nie istnieje żadna analityczna myśl, która rozwiązałaby taki problem. To, co się stanie z chmurą, nie jest już akademickim pytaniem. Ludzie chcą wiedzieć bardzo dużo — a to znaczy, że na to są przeznaczone pieniądze. Problem jest natury fizycznej i jest to problem tego samego kalibru. Weźmy coś skomplikowanego: obecny sposób rozwiązania tego problemu polega na obserwowaniu możliwie wielu punktów, dostatecznie wielu, aby można było powiedzieć, gdzie jest chmura, gdzie jest ciepłe powietrze, jaka jest jej prędkość itd. Następnie wstawiasz to do największej maszyny, jaką możesz znaleźć, i próbujesz otrzymać oszacowanie tego, co się stanie za chwilę. Ale nie jest to zbyt rozsądne” 28. Zdusił jednego papierosa i zapalił następnego. „Musisz szukać innych dróg. Trzeba szukać struktur skalujących się — jak wielkie szczegóły mają się do małych szczegółów. Obserwujesz zaburzenia w płynie, skomplikowane struktury, w których złożoność wynikała z ciągłego procesu. Na pewnym poziomie nie niepokoją cię one zbytnio, jaki jest rozmiar procesu — może być to wielkość ziarnka grochu albo piłki do koszykówki. Proces nie troszczy się o to, gdzie jest, a ponadto nie troszczy się o to, jak długo trwa. Jedynymi rzeczami, które mogą zawsze być uniwersalne, w jakimś sensie, są rzeczy skalowalne. W pewnym sensie sztuka jest teorią sposobu, w jaki świat widzi ludzkie istoty. Jest w pełni oczywiste, że nie rozeznaje się w szczegółach świata wokół nas. To, co wykonali artyści, uprzytamnia nam, że istnieje tylko
niewielka liczba rzeczy ważnych, i potem patrzy się, które to. Tak więc mogą oni wykonać dla mnie część moich poszukiwań. Kiedy patrzy się na wczesne dzieła van Gogha, widzi się miliony szczegółów, które są tam przedstawione: w jego obrazach zawsze jest ogromna ilość informacji. Oczywiście, przyszło mu na myśl, jaka jest nieredukowalna liczba szczegółów, które należy wprowadzić. Albo można badać horyzonty w holenderskich rysunkach tuszem z około 1600 roku, z małymi drzewami i krowami, które wyglądają bardzo realistycznie. Jeśli spojrzeć z bliska, drzewa mają rodzaj liściastych konturów, ale to nie działa, jeśli nie ma w tym niczego więcej — wyrastają z nich małe kawałki przypominające gałązki. Bardziej miękka tekstura współgra w określony sposób z elementami, które mają bardziej zdecydowane linie. Ta kombinacja daje jakoś prawidłową percepcję. Jeśli popatrzymy, w jaki sposób Ruysdael i Turner konstruują obraz wzburzonej wody, staje się jasne, że jest to robione iteracyjnie. Najpierw jest coś namalowane na jednym poziomie, na nim znów coś jest namalowane, a na tym są poprawki. Ciecz turbulentna dla tych malarzy zawsze zawiera w sobie ideę skalowania. Naprawdę chcę wiedzieć, jak opisać chmury. Ale myślę, że powiedzieć, iż jest tutaj kawałek z taką gęstością, a obok kawałek z taką gęstością — zebrać tak szczegółowe informacje, to nie jest właściwa droga. To z pewnością nie odpowiada temu, jak człowiek postrzega rzeczy i jak je postrzega artysta. Od pewnego momentu sprawa napisania równań różniczkowych cząstkowych nie oznacza rozwiązania problemu. Zdumiewające jest, że świat ma w sobie tyle pięknych rzeczy, rzeczy zdumiewających i nęcących, i na gruncie swojej wiedzy chcesz je zrozumieć”. Odłożył papierosa. Dym unosił się z popielniczki, najpierw cienką kolumną, a następnie (ukłon w stronę uniwersalności) w postaci postrzępionych wąsów, które wirowały w górę, do sufitu.
1
M.J. Feigenbaum. Najważniejszymi pracami Feigenbauma na temat uniwersalności są: Quantitative Universality for a Class of Nonlinear Transformations, „Journal of Statistical Physics” 1978, 19, s. 25-52; The Universal Metrie Properties of Nonlinear Transformations, „Journal of Statistical Physics” 1979, 21, s. 669-706; trochę bardziej przystępną prezentacją, chociaż także wymagającą nieco znajomości matematyki, jest jego artykuł przeglądowy: Universal Behavior in Nonlinear Systems, „Los Alamos Science” 1981, 1, s. 4-27. Opierałem się również na jego niepublikowanych wspomnieniach pt. The Discovery of Universality in Period Doubling. 2 M.J. Feigenbaum, P.A. Carruthers, P. Cvitanović, D. Campbell, J.D. Farmer, W.M. Visscher, D. Kerr, B. Hasslacher, E. Jen. 3 P.A. Carruthers. 4 M.J. Feigenbaum. 5 P.A. Carruthers. 6 L. Kadanoff. 7 Gustav Mahler, list do Maxa Marschalka. 8 Zür Farbenlehre Goethego jest obecnie dostępne w kilku wydaniach. Opierałem się na pięknie ilustrowanej Goethe’s Color Theory, red. Rupprecht Matthaei, przeł. Herb Aach, Van Nostrand Reinhold, New York 1970; bardziej dostępna jest Theory of Colors, The M.I.T. Press, Cambridge Mass. 1970, zawierająca wstęp napisany przez Deane’a B. Judda. 9 To ostatnie jest prawdziwe tylko wówczas, gdy r > 1 (przyp. K.S.). 10 W pewnym momencie Ulam i von Neumann użyli jego chaotycznych właściwości jako rozwiązania problemu generowania liczb przypadkowych za pomocą skończonego komputera cyfrowego. 11 Pracą stanowiącą jedyny łącznik pomiędzy myślą Stanisława Ulama i Johna von Neumanna a ideami Jamesa Yorke’a i Mitchella Feigenbauma jest artykuł On Finite Limit Sets for Transformations on the Unit Interval, „Journal of Combinatorial Theory” 1973, 15, s. 25-44. 12 F.N. Lorenza, The Problem of Deducing the Climate from the Governing Equations, „Tellus” 1964, 16, s. 1-11. 13 S. Manabe. 14 M.J. Feigenbaum. 15 R.M. May. 16 N. Metropolis, M. Stein, P. Stein, On Finite Limit Sets, s. 30-31. Najważniejszy fragment brzmi: „Fakt, że te schematy […] są powszechną właściwością czterech jawnie niespokrewnionych przekształceń […] sugeruje, że schemat ten jest ogólną właściwością szerokiej klasy odwzorowań. Z tej przyczyny nazwaliśmy ten schemat sekwencją U, gdzie U oznacza (z pewną przesadą) «uniwersalność»”. Ale matematycy ci nigdy nie wyobrażali sobie, że uniwersalność będzie się rozciągać na rzeczywiste liczby; sporządzili tabelę 84
różnych wartości parametrów, z których każda była podana z dokładnością do siedmiu miejsc dziesiętnych, i nie zaobserwowali geometrycznej struktury w nich ukrytej. 17 17 M.J. Feigenbaum. 18 P. Cvitanović. 19 J. Ford. 20 Stypendium MacArthura; Nagroda Wolfa z fizyki w 1986 roku. 21 F. Dyson. 22 R. Gilmore. 23 P. Cvitanović. 24 Nawet wówczas dowód był nieortodoksyjny w tym sensie, że opierał się na olbrzymiej ilości obliczeń numerycznych, tak że nie mógł być wykonany ani sprawdzony bez użycia komputera. Oscar E. Lanford, A Computer-Assisted Proof of the Feigenbaum Conjectures, „Bulletin of the American Mathematical Society” 1982, 6, s. 427; patrz również P. Collet, J.P. Eckmann, O.E. Lanford, Universal Properties of Maps on an Interval, „Communications in Mathematical Physics” 1980, 81, s. 211. 25 M.J. Feigenbaum, The Discovery of Universality, s. 17. 26 J. Ford, M.J. Feigenbaum, J. Lebowitz. 27 J. Ford. 28 M.J. Feigenbaum.
Eksperymentator Jest to doświadczenie niepodobne do żadnego innego, które mógłbym opisać, najlepsza rzecz, jaka może się przydarzyć naukowcowi, uświadomienie sobie, że coś, co się zdarzyło w jego umyśle, dokładnie odpowiada czemuś, co się dzieje w przyrodzie. Jest to zdumiewające, ilekroć się zdarzy. Zdumieniem napawa fakt, że konstrukcja powstała w czyimś umyśle i może faktycznie być zrealizowana w prawdziwym świecie. Wielki szok, i wielka, wielka radość. Leo Kadanoff
„Albert dojrzewa” 1. Tak mówiono w École Normale Supérieure, akademii, która wraz z École Polytechnique stała na szczycie francuskiej struktury edukacyjnej. Zastanawiano się tam, czy wiek wywierał negatywny wpływ na Alberta Libchabera, który wsławił swoje nazwisko w fizyce niskich temperatur, w badaniach kwantowego zachowania nadprzewodzącego helu o temperaturze bliskiej zeru bezwzględnemu. Zdobył sobie prestiż i dożywotnią posadę na wydziale. A teraz, w roku 1977, marnuje czas i zasoby finansowe uczelni na eksperyment, który wydaje się trywialny. Sam Libchaber obawiał się również, że mógłby narazić na szwank karierę jakiegoś absolwenta, którego zaangażowałby w tym projekcie, zatrudnił więc tylko zawodowego inżyniera. Pięć lat przed niemiecką napaścią na Paryż Albert urodził się w rodzinie polskich Żydów; był wnukiem rabina. Przeżył wojnę w ten sam sposób jak Benoit Mandelbrot, kryjąc się na francuskiej wsi, odzielony od rodziców, ponieważ ich akcent był zbyt niebezpieczny 2. Jego rodzicom udało się
również przeżyć; reszta rodziny została zgładzona przez nazistów. Dziwnym zrządzeniem losu Libchaber przeżył dzięki protekcji lokalnego szefa tajnej policji pétainowskiej, człowieka, którego żarliwym prawicowym przekonaniom można było przeciwstawić jego żarliwy antyrasizm. Po wojnie dziesięcioletni chłopiec odwzajemnił się dobroczyńcy. Był przesłuchiwany przez komisję badania zbrodni wojennych i jego świadectwo uratowało tego mężczyznę. W świecie francuskiej nauki sława Libchabera systematycznie rosła, a jego geniusz nigdy nie był kwestionowany. Koledzy myśleli czasami, że jest lekko niepoważny — żydowski mistyk wśród racjonalistów, zwolennik de Gaulle’a wśród naukowców przeważnie o zapatrywaniach komunistycznych. Dowcipkowali na temat jego „wielkiego człowieka” w historii dziejów, umiłowania Goethego i obsesji na punkcie starych książek. Posiadał setki oryginalnych wydań prac filozofów, z których część pochodziła z początku siedemnastego stulecia. Czytał je nie jako historyczne kurioza, lecz jako źródło świeżych idei o naturze rzeczywistości, tej samej rzeczywistości, którą badał za pomocą swoich laserów i najnowszej generacji agregatów chłodniczych. Pokrewną duszę znalazł w swoim inżynierze, Jeanie Maurerze, Francuzie, który pracował tylko wtedy, gdy miał na to ochotę. Libchaber wiedział, że Maurer uzna jego projekt za zabawny (był to jego umniejszający eufemizm słowa: intrygujący, podniecający albo głęboki). W 1977 roku obaj zaczęli przygotowywać eksperyment, który miał wyjaśnić pojawianie się turbulencji. Jako doświadczalnik Libchaber był znany ze swojego dziewiętnastowiecznego stylu: zdolny umysł, zgrabne ręce, konsekwentne przedkładanie pomysłowości nad brutalną siłę. Nie lubił wielkiej technologii i żmudnych obliczeń. Jego pojęcie dobrego doświadczenia było tym, czym dla matematyka pojęcie dobrego dowodu. Elegancja liczyła się na równi
z wynikami. Pomimo to niektórzy koledzy uważali, że posuwa się zbyt daleko w swoim eksperymencie dotyczącym pojawiania się turbulencji. Urządzenie było tak miniaturowe, że można je było przenieść w pudełku od zapałek — i Libchaber czasami nosił je ze sobą jak eksponat sztuki abstrakcyjnej. Nazywał je „hel w małym pudełku” 3. Serce eksperymentu było jeszcze mniejsze — komórka wielkości pestki cytryny, otoczona ścianami ze stali nierdzewnej o niezwykle ostrych krawędziach. Do komórki był wprowadzany ciekły hel, ochłodzony do około czterech stopni powyżej absolutnego zera, ciepły w porównaniu z materiałami nadciekłymi z dawnych doświadczeń Libchabera. Laboratorium zajmowało drugie piętro budynku instytutu fizyki École w Paryżu, zaledwie kilkaset metrów od dawnego laboratorium Ludwika Pasteura 4. Tak jak każde dobre laboratorium fizyki ogólnej pracownia Libchabera znajdowała się w stanie permanentnego nieładu, z puszkami farby, ręcznymi narzędziami oraz kawałkami metalu i plastiku dziwnej wielkości rozrzuconymi na podłodze i stołach. Wśród zamieszania aparatura, która zawierała mikroskopijną komórkę Libchabera, była uderzającym przykładem celowości. Poniżej stalowej komórki była umieszczona płytka z miedzi o wysokiej czystości. Powyżej znajdowała się górna płytka z kryształem szafiru. Materiały zostały dobrane pod względem ich przewodnictwa cieplnego. Były tam również malutkie elektryczne spirale grzejne i teflonowe uszczelki. Ciekły hel wypływał ze zbiorniczka o objętości jednego centymetra sześciennego. Cały system znajdował się w zbiorniczku, w którym utrzymywana była skrajnie wysoka próżnia. A ten zbiorniczek z kolei umieszczono w ciekłym azocie w celu stabilizowania temperatury. Wibracje zawsze niepokoiły Libchabera. Doświadczeniom, tak jak realnym układom nieliniowym, towarzyszył stały szum. Przeszkadza on w pomiarach i psuje wyniki. We wrażliwych strumieniach — a u Libchabera
był tak czuły, jak można go było uczynić — szum mógł silnie zakłócać nieliniowy przepływ, przerzucając go z jednego do drugiego sposobu zachowania. Ale nieliniowość może zarówno stabilizować, jak i destabilizować układ. Nieliniowe sprzężenie zwrotne reguluje ruch tak, że staje się on bardziej stabilny. W układzie liniowym zakłócenia mają stały efekt. W warunkach nieliniowości zaburzenie może się sprzęgać samo ze sobą, aż zaniknie, a układ wróci automatycznie do stanu stabilnego. Libchaber sądził, że układy biologiczne używają swojej nieliniowości jako ochrony przed szumem. Transfer energii przez białka, ruch falowy elektryczności serca, układ nerwowy — wszystkie te procesy wykazują niezwykłą elastyczność w świecie pełnym szumów. Libchaber miał nadzieję, że bez względu na to, jaka struktura stanowi podstawę przepływu płynu, powinna okazać się dostatecznie stabilna, aby mogła być zarejestrowana w jego eksperymencie. Jego plan polegał na tym, aby wywołać konwekcję w ciekłym helu przez podgrzanie dolnej płytki bardziej niż górnej. Był to dokładnie model konwekcji opisany przez Edwarda Lorenza — klasyczny układ znany jako konwekcja Rayleigha-Bénarda. Libchaber jeszcze nic nie wiedział o Lorenzu. Ani nie miał pojęcia o teorii Mitchella Feigenbauma. W roku 1977 Feigenbaum udał się w podróż z cyklem wykładów i jego odkrycie zostawiło swój ślad, ale tylko tam, gdzie naukowcy wiedzieli, jak je interpretować. Jednak większość fizyków nie dostrzegała oczywistego związku między strukturą i regularnością „feigenbaumologii” a rzeczywistymi układami. Te struktury wyszły spod zwykłego kalkulatora. Układy fizyczne były nieskończenie bardziej złożone. Bez dodatkowych dowodów co najwyżej można było powiedzieć, że Feigenbaum odkrył matematyczną analogię, która przypomina początek zjawiska turbulencji.
Hel w małym pudełku. Subtelny eksperyment Libchabera: jego sercem była dokładnie wykonana, prostopadłościenna komórka zawierająca ciekły hel; malutkie szafirowe „bolometry” mierzyły temperaturę cieczy. Ta mała komórka była wmontowana w oprawę, której zadaniem była ochrona przed szumem i wibracjami oraz umożliwienie precyzyjnego sterowania ogrzewaniem.
Libchaber wiedział, że eksperymenty amerykańskie i francuskie osłabiły ideę Landaua na temat pojawiania się turbulencji, pokazując, że turbulencja pojawia się jako nagłe przejście, a nie w procesie ciągłego gromadzenia różnych częstotliwości. Doświadczenia Jerry’ego Golluba i Harry’ego Swinneya z wirującymi cylindrami ukazały, że jest potrzebna nowa teoria, ale nie potrafili oni dojrzeć jasnego przejścia do chaosu. Libchaber wiedział, że
w żadnym laboratorium nie było dotąd jasnego obrazu pojawiania się turbulencji i postanowił, że jego malutka komórka da obraz o największej możliwej przejrzystości. Zawężenie pola obserwacji pomaga nauce w podtrzymaniu własnego rozwoju. Ze swojego punktu widzenia dynamicy płynów mieli rację, wątpiąc w wysoki poziom dokładności, jaki osiągnęli Swinney i Gollub w układzie Couette’a. Również matematycy ze swojego punktu widzenia mieli rację, obrażając się na Ruelle’a. On złamał reguły. Przedstawił ambitną teorię fizyczną pod płaszczykiem zwartego matematycznego stwierdzenia. Spowodował, że trudno było oddzielić to, co założył, od tego, co udowodnił. Matematyk, który odmawia swojego poparcia idei, dopóki nie napotka standardowej formy twierdzenie–dowód–twierdzenie–dowód, odgrywa rolę, jaką jego dziedzina dla niego napisała: świadomie lub nie chroni ją przed nadużyciami i mistycyzmem. Redaktor czasopisma, który odrzuca nowe idee, ponieważ są one przedstawione w nieznanym stylu, może wywoływać u swoich ofiar podejrzenie, że jest na synekurze popieranej przez jego utytułowanych kolegów, ale on również ma pewną rolę do odegrania w społeczeństwie opartym na zasadzie wystrzegania się niesprawdzonego. „Nauka została skonstruowana na przekór ogromnej liczbie nonsensów” — jak powiedział sam Libchaber. Kiedy jego koledzy nazywali go mistykiem, epitet ten nie zawsze brzmiał życzliwie. Był doświadczalnikiem uważnym i zdyscyplinowanym, znanym z precyzji, z jaką badał problem. Mimo to darzył uczuciem tę źle określoną, upiorną rzecz zwaną strumieniem. Strumień był kształtem i zmianą, ruchem i formą. Fizyk wyobrażający sobie układy równań różniczkowych będzie nazywał ich matematyczny ruch strumieniem. Strumień to platońska idea zakładająca, że zmiana w układach odzwierciedla pewną rzeczywistość niezależną od danej chwili. Libchaber skorzystał z idei Platona, że ukryte formy wypełniają
wszechświat. „Ale wiesz, że tak! Widziałeś liście. Kiedy patrzysz na wszystkie liście, czy nie uderza cię fakt, że liczba typowych kształtów jest ograniczona? Mógłbyś bez trudu narysować ogólny kształt. Próba zrozumienia tego byłaby całkiem ciekawa. Weźmy inne kształty. W pewnym eksperymencie widziałeś ciecz przenikającą ciecz” 5. Jego biurko było zarzucone rysunkami takich eksperymentów, grubych fraktalnych palców cieczy. „Otóż w swojej kuchni, jeśli włączysz gaz, widzisz, że płomień ma znowu ten kształt. Jest to bardzo typowe. Jest uniwersalne. Nie dbam o to, czy to jest płomień, czy ciecz w cieczy, czy rosnący kryształ — ja jestem zainteresowany tylko tym kształtem. Jest takie marzenie sięgające korzeniami osiemnastego wieku, że nauka pomyliła ewolucję kształtu w przestrzeni i ewolucję kształtu w czasie. Jeśli myślisz o strumieniu, możesz myśleć o nim na wiele sposobów: strumień w ekonomii albo strumień w historii. Najpierw może być laminarny, potem pojawiają się bifurkacje do bardziej złożonego stanu, może z oscylacjami. Następnie może stać się chaotyczny”. Uniwersalność kształtów, podobieństwo w różnych skalach, rekurencyjna moc strumieni wewnątrz strumieni — wszystko to znajduje się poza zasięgiem standardowego rachunku różniczkowego. Ale niełatwo jest to dostrzec. Problemy naukowe są wyrażane w dostępnym języku naukowym. Jak dotąd, najlepsze wyrażenie intuicji Libchabera o strumieniu w dwudziestym wieku wymaga języka poezji. Wallace Stevens, na przykład, głosi poczucie świata, które wyprzedza wiedzę dostępną fizykom. Ma on tajemnicze podejrzenie dotyczące strumienia, który jednocześnie powtarza się, gdy się zmienia: Plamista rzeka Nigdy nie płynie tą samą drogą, Płynąc przez tak wiele miejsc,
Wygląda, jakby stała cicho w jednym. (przeł. Marek Obarski)
Poezja Stevensa często mówi o wizji burzy w atmosferze i wodzie. Przekazuje również wiarę w niewidzialne formy, których porządek obejmuje przyrodę, wiarę że w przejrzystej atmosferze odkryjesz mądrość rzeczy niedostrzeżoną 6. (przeł. Marek Obarski)
Kiedy Libchaber i jacyś inni doświadczalnicy w latach siedemdziesiątych zaczęli przyglądać się ruchowi płynów, uczynili to zgodnie z intencją tej wywrotowej poezji. Podejrzewali związek pomiędzy ruchem i uniwersalną formą. Zgromadzili dane w jedyny możliwy sposób — zapisali liczby albo zarejestrowali je na komputerze. Ale potem szukali sposobu organizacji danych w taki sposób, żeby ujawnić kształty. Mieli nadzieję, że wyrażą kształty w terminach ruchu. Byli przekonani, że takie dynamiczne kształty jak płomienie i kształty organiczne, na przykład liście, pożyczyły swoje formy od pewnego dotąd niezrozumiałego splotu sił. Eksperymentatorom, którzy śledzili chaos najbardziej konsekwentnie, udało się to poprzez odrzucenie każdej rzeczywistości, która mogłaby być zamrożona w bezruchu. Nawet Libchaber nie poszedłby tak daleko, aby wyrazić to w takich kategoriach, ale jego koncepcja przybliżyła się do tego, co Stevens odczuwał jako „niestałe falowanie w stałym”: Moc chwały, przebłysk krwi w żyłach, Jak gdyby wszystko zanurzyło się, tonęło i rozpuściło Również w oddali, przemianie lub nicości,
Widoczne metamorfozy letniej nocy. Srebrzysta abstrakcja przyobleka kształt I nagle znika, zaprzeczając swemu istnieniu 7. (przeł. Marek Obarski)
To jednak Goethe, a nie Stevens, dostarczał Libchaberowi mistycznej inspiracji. Gdy Feigenbaum przeglądał harvardzką bibliotekę w poszukiwaniu Nauki o kolorach (Farbenlehre) Goethego, Libchaber już zdążył dodać do swojej kolekcji oryginalne wydanie nawet bardziej mrocznej monografii Metamorphose der Pflanzen (O transformacji roślin). To była napaść Goethego na fizyków, którzy — jak uważał — martwią się wyłącznie o statyczne siły, a nie o siły witalne i strumienie, które generują kształty widzialne w każdej chwili. Część spuścizny Goethego — nieznaczna część według historyków literatury — to sukcesja pseudonaukowa w Niemczech i Szwajcarii podtrzymywana przez takich filozofów jak Rudolf Steiner i Theodor Schwenk. Libchaber podziwiał również tych ludzi tak dalece, jak przystało na fizyka. „Wrażliwy chaos” — Das sensible Chaos — było wyrażeniem użytym przez Schwenka na oznaczenie relacji pomiędzy silą i formą. Użył go w tytule dziwnej małej książeczki, opublikowanej po raz pierwszy w roku 1965 i później sporadycznie ukazującej się na półkach księgarskich. Była to książka przede wszystkim o wodzie. Wydanie angielskie zawierało pełną podziwu przedmowę komendanta Jacques’a Y. Cousteau i rekomendację z „Water Resaurces Bulletin” oraz „Journal of the Institute of Water Engineers”. Niewielkie ambicje naukowe i brak matematycznych zmąciły dzieło Schwenka. Jednak jego obserwacje były bezbłędne. Okiem artysty wyłowił mnóstwo naturalnie płynących kształtów. Zgromadził fotografie i sporządził dziesiątki precyzyjnych rysunków przypominających szkice
biologa komórki spoglądającego przez swój pierwszy mikroskop. Miał on bardzo otwarty umysł i świeżość, z której Goethe byłby dumny. Strumienie płyną po stronach jego książki. Wielkie rzeki jak Missisipi czy wody zatoki Arcachon we Francji wiją się szerokimi zakolami do morza. W samym morzu Golfstrom wije się również, tworząc pętle, które obracają się na wschód i zachód. Jest to potężna rzeka ciepłej wody wśród zimnej wody — jak powiedział Schwenk — rzeka, która „buduje swoje własne brzegi z zimnej wody” 8. Kiedy strumień zniknie albo jest niewidoczny, pozostawia po sobie ślady. Rzeki powietrza pozostawiają swoje znaki na piasku pustyni w postaci fal. Strumień odpływu ryje sieci żyłek na plaży. Schwenk nie wierzył w przypadek. Wierzył w uniwersalne zasady i w więcej niż uniwersalność: wierzył w ducha przyrody, która uczyniła jego styl nieprzyjemnie antropomorficznym. Jego „zasada archetypowa” 9 mówiła, że strumień „chce zrealizować siebie niezależnie od otaczającego materiału”. Wiedział, że wewnątrz prądów są wtórne prądy. Woda, poruszając się wzdłuż meandrów strumieni rzecznych, dodatkowo opływa oś rzeki w kierunku jednego brzegu, w dół do dna, potem do drugiego brzegu, w górę na powierzchnię, jak cząstka wijąca się wokół obwarzanka. Szlak każdej cząsteczki wody tworzy nić zawiniętą wokół innych nici. Schwenk miał wyobraźnię topologiczną, jeśli chodzi o takie struktury. „Ten obraz nitek zwiniętych w spiralę oddaje dokładnie rzeczywisty ruch. Można mówić o «nitkach» wody; nie są to jednak pojedyncze nici, ale całe powierzchnie splecione przestrzennie i płynące jedna obok drugiej” 10. Widział rytmy współzawodniczące w falach, fale doganiające jedna drugą, płaszczyzny podziału i warstwy graniczne. Widział wiry, zawirowania i ciągi wirów, przy czym rozumiał je jako „zwinięcie” jednej powierzchni wokół drugiej. Jako filozof dotarł tutaj niezwykle blisko do fizycznej koncepcji dynamiki zbliżania się do turbulencji. Jego arystyczna intuicja zakładała istnienie
uniwersalności. Dla Schwenka wiry oznaczały niestabilność, a niestabilność oznaczała, że strumień zwalczał nierówność w sobie, a nierówność była „archetypowa”. Zwijanie wirów, rozwijanie się paproci, fałdowanie się łańcuchów górskich, drążenie organów zwierzęcych — wszystko to w jego mniemaniu ma ten sam fundament. To nie ma nic wspólnego z żadnym szczególnym środowiskiem ani ze szczególnym rodzajem różnicy. Nierówności mogą powstawać między wolnym lub szybkim, ciepłym albo zimnym, gęstym lub rzadkim, słonym albo słodkim, lepkim albo płynnym, kwaśnym albo alkaicznym. A na granicy kwitnie życie 11. Obszarem zainteresowań D’Arcy’ego Wentwortha Thompsona było jednak życie. Ten niezwykły przyrodnik napisał w roku 1917: „Możliwe, że wszystkie prawa energii i wszystkie właściwości materii i cała chemia koloidów są równie bezsilne przy wyjaśnianiu ciała, jak są nieudolne w pojmowaniu duszy. Jeśli o mnie chodzi, tak właśnie myślę” 12. D’Arcy Thompson wniósł do badania życia to, czego niestety brakowało Schwenkowi — matematykę. Schwenk argumentował poprzez analogię. Jego sposób wyjaśniania — duchowy, kwiecisty, encyklopedyczny — ostatecznie sprowadza się do pokazywania podobieństw. Główna praca D’Arcy’ego Thompsona On Growth and Form ma coś wspólnego z nastrojem Schwenka i coś z jego metody. Współczesny czytelnik zastanawia się, jak dalece można zaufać jego skrupulatnym rysunkom wielozębnych spadających kropel cieczy, wiszących w płynnych kosmykach, które ukazano obok zaskakująco podobnych żywych meduz. Czy jest to tylko przypadkowa zbieżność? Czy jeśli dwie formy wyglądają podobnie, musimy szukać podobnych przyczyn? D’Arcy Thompson z pewnością był najbardziej wpływowym biologiem pozostającym na obrzeżu oficjalnej nauki. Rewolucja biologiczna dwudziestego wieku, która za jego życia była przygotowywana, przeszła obok niego. Ignorował chemię, nie rozumiał komórki, a nawet nie potrafił
przewidzieć intensywnego rozwoju genetyki. Jego pisma nawet w tym czasie wyglądały zbyt klasycznie i literacko — zbyt pięknie, aby były wiarygodne naukowo. Żaden współczesny biolog nie musi czytać dzieł D’Arcy’ego Thompsona. Jednak jego książka potrafiła jakoś przyciągnąć uwagę największych spośród nich. Sir Peter Medawar powiedział 13, że jest to „niezrównanie piękna pozycja pośród wszystkich annałów naukowych, które ukazały się w języku angielskim”. Stephen Jay Gould nie znalazł lepszego intelektualnego rodowodu dla własnego narastającego poczucia, że natura krępuje kształty rzeczy. D’Arcy Thompson jest jednym z niewielu współczesnych biologów, którzy tropili niezaprzeczalną jedność żywych organizmów. „Niewielu pytało, czy wszystkie struktury mogłyby być zredukowane do pojedynczego układu sił tworzących — jak to przedstawił Gould 14. — I niewielu wydawało się odczuwać, jakie znaczenie taki dowód jedności mógłby mieć dla nauki o formach organicznych”.
THEODOR SCHWENK
Wijące się i spiralne strumienie. Theodor Schwenk przedstawiał naturalne strumienie jako nici ze złożonymi wtórnymi ruchami. „Nie są to jednak pojedyncze nici, ale całe powierzchnie splecione przestrzennie...”
Ten klasyk, poliglota, matematyk, zoolog próbował widzieć życie jako całość, gdy biologia zwróciła się ku metodom, które redukowały organizmy do ich składowych elementów funkcjonalnych. Redukcjonizm tryumfował w sposób najbardziej zatrważający w biologii molekularnej, ale również wszędzie indziej, od teorii ewolucji po medycynę. Jak inaczej zrozumieć komórki, jeśli nie przez zrozumienie błon, jąder, a w końcu białek, enzymów,
chromosomów i par zasad? Kiedy biologia ostatecznie poruszyła sprawy wewnętrznej pracy zatok, siatkówek, nerwów, tkanek mózgu, dbanie o kształt czaszki stało się szalenie niemodne. D’Arcy Thompson był ostatnim, który by tak uczynił. Był również ostatnim wielkim biologiem przez wiele lat, który poświęcił wiele energii na dokładną dyskusję nad przyczyną, szczególnie na rozróżnienie pomiędzy przyczyną ostateczną a przyczyną efektywną albo fizyczną. Przyczyna ostateczna jest przyczyną opartą na celu lub zamierzeniu: koło jest okrągłe, ponieważ ten kształt umożliwia transport. Przyczyna fizyczna jest mechaniczna: Ziemia jest kulista, ponieważ grawitacja ściąga wirującą ciecz do sferoidy. Rozróżnienie nie zawsze jest tak oczywiste. Szklanka jest okrągła, ponieważ jest to najwygodniejszy kształt do trzymania i do picia. Szklanka jest okrągła, ponieważ ten kształt w naturalny sposób pojawia się przy produkcji wyrobów garncarskich i wydmuchiwaniu szkła.
D’ARCY WENTWORTH THOMPSON
Spadające krople. D’Arcy Wentworth Thompson pokazał wiszące nitki i kolumny wytworzone przez kroplę atramentu spadającą w wodzie (po lewej) i przez meduzę (po prawej). „Jest niezwykle dziwne, jak te krople są wrażliwe na warunki fizyczne. Używając przez cały czas tej samej żelatyny i tylko zmieniając gęstość cieczy na trzecim miejscu po przecinku, otrzymujemy cały zakres konfiguracji od zwykłej wiszącej kropli do kropli o żebrowatej strukturze...”
W nauce dominuje przyczyna fizyczna. Istotnie, gdy astronomia i fizyka wyłaniały się z cienia religii, niemała część bólu podziału wynikała z odrzucenia argumentów celowościowych, teleologii przeznaczenia — Ziemia jest taka, jaka jest, więc ludzie mogą robić to, co robią. W biologii jednak Darwin mocno ugruntował teleologię jako centralny sposób myślenia o przyczynie. Świat biologiczny może nie spełniać boskiego celu, ale
wypełnia cel ukształtowany przez naturalną selekcję. Naturalna selekcja nie działa na geny ani embriony, ale na produkt końcowy. Więc adaptacjonista, chcąc wyjaśnić kształt organizmu albo funkcję organu, zawsze szuka przyczyny, nie fizycznej przyczyny, ale przyczyny ostatecznej. Przyczyna ostateczna przetrwała w nauce wszędzie tam, gdzie darwinowskie myślenie stało się przyzwyczajeniem. Współczesny antropolog spekulujący o kanibalizmie albo rytualnych mordach stawia pytanie, słuszne lub nie: Jakiemu celowi to służy? D’Arcy Thompson przewidział to. Przestrzegał, aby biologia pamiętała również o fizycznej przyczynie, o mechanizmie i teleologii. Poświęcił wiele czasu na wyjaśnianie matematycznych i fizycznych sił, które wpływają na życie. Kiedy zapanował adaptacjonizm, taki sposób wyjaśniania zaczął wydawać się niestosowny. Ważnym i płodnym problemem stało się ustalenie, w jaki sposób dobór naturalny ukształtował liść w formę płytki słonecznej. Dopiero dużo później pewni naukowcy zaczęli na nowo się zastanawiać nad niewyjaśnioną stroną przyrody. Liście występują tylko w kilku kształtach ze wszystkich możliwych; i kształt liścia nie został podyktowany jego funkcją. Matematyka dostępna D’Arcy’emu Thompsonowi nie mogła udowodnić tego, co chciał on udowodnić. Najlepszą rzeczą, jaką mógł uczynić, było narysowanie na przykład czaszek pokrewnych gatunków z naniesioną siatką współrzędnych i zademonstrowanie, że prosta geometryczna transformacja przekształca jedną w drugą. W przypadku prostych organizmów — z kształtami tak dręcząco przypominającymi dżety, krople i inne manifestacje przepływu — podejrzewał przyczyny fizyczne, takie jak grawitacja i napięcie powierzchniowe, które nie mogłyby wykonać jednak takiej pracy kształtującej, której od nich wymagał. Dlaczego zatem Albert Libchaber myślał o On Growth and Form, kiedy rozpoczął swoje eksperymenty z płynami?
Intuicja D’Arcy’ego Thompsona dotycząca sił, które kształtują życie, była znacznie bliższa perspektywie układów dynamicznych niż cokolwiek innego w głównym nurcie biologii. Myślał on o życiu jako o życiu zawsze w ruchu, zawsze odpowiadającemu na rytmy — „głęboko osadzone rytmy wzrostu” 15, które — jak wierzył — stworzyły uniwersalne formy. Rozważał w swoich badaniach nie tylko materialne formy rzeczy, ale i ich dynamikę — „interpretację działania energii w kategoriach siły” 16. Posiadał dostateczną znajomość matematyki, żeby wiedzieć, iż skatalogowane kształty niczego nie dowodzą. Ale był na tyle poetą, aby wierzyć, że ani przypadek, ani cel nie mogą wyjaśnić uderzającej uniwersalności form, które zgromadził podczas długich lat obserwowania przyrody. Prawa fizyczne muszą to wyjaśniać, określić rządzącą siłę i wzrost, które wymykają się zrozumieniu. Plato redivivus. Poza partykularnymi, widzialnymi kształtami materii muszą istnieć duchowe formy służące za niewidzialne wzorce. Formy w ruchu. Libchaber wybrał do swojego doświadczenia ciekły hel. Ciekły hel ma nadzwyczaj niską lepkość, zatem kręci się przy najlżejszym naporze. Taki sam eksperyment ze średnio lepką cieczą, taką jak woda albo powietrze, wymagałby znacznie większego pudełka. Po zastosowaniu cieczy z niską lepkością doświadczenie Libchabera stało się znacznie bardziej czułe na ogrzewanie. Aby wywołać konwekcję w swojej komórce o milimetrowej szerokości, musiał wytworzyć różnicę temperatur między szczytem i podstawą równą zaledwie jednej tysięcznej stopnia. Z tego powodu komórka musiała być taka mała. W większym pudełku, gdzie ciekły hel miałby więcej miejsca na obracanie się, równoważny ruch wymagałby jeszcze mniej ciepła, dużo mniej. W pudełku dziesięć razy większym w każdym kierunku, wielkości winogrona — z tysiąc razy większą objętością — konwekcja zaczęłaby się przy różnicy temperatury równej jednej milionowej stopnia. Tak nieznacznych zmian temperatury nie można
kontrolować. Planowaniu, projektowaniu i konstruowaniu Libchaber i jego inżynier poświęcili mnóstwo czasu, aby wyeliminować jakąkolwiek niepewność. W praktyce zrobili wszystko, co mogli, aby wyeliminować ruch, który próbowali badać. Ruch cieczy, od ciągłego przepływu do turbulencji, jest uważany za ruch w przestrzeni. Jego złożoność pojawia się jako złożoność przestrzenna, jego zaburzenia i wiry — jako chaos przestrzenny. Ale Libchaber szukał rytmów, które ujawniałyby się jako zmiany w czasie. Czas był miejscem akcji i miarą. Ścisnął przestrzeń prawie do jednowymiarowego punktu 17. Doprowadził także do perfekcji technikę, którą stosowali również w doświadczeniach z cieczami jego poprzednicy. Każdy wiedział, że zamknięty przepływ — konwekcja Rayleigha-Bénarda w pojemniku albo rotacja Couette’a-Taylora w cylindrze — zachowuje się znacznie lepiej niż otwarty przepływ, jak fale na oceanie albo w powietrzu. W otwartym przepływie granice powierzchni pozostają swobodne i złożoność się zwielokrotnia. Ponieważ konwekcja w prostopadłościennym pudełku wytwarza rolki cieczy, Libchaber wybrał wymiary swojej komórki bardzo precyzyjnie, tak aby pozostawić miejsce dokładnie na dwie rolki. Ciekły hel miał się podnosić w centrum, obrócić się na lewo i prawo i potem zejść na zewnętrzne krawędzie komórki. To była geometria okiełznana. Kołysanie było ograniczone. Czyste linie i starannie wymierzone proporcje eliminowały wszelkie zewnętrzne fluktuacje. Libchaber zamroził przestrzeń, aby móc się bawić czasem. Kiedy po rozpoczęciu eksperymentu hel zaczął się obracać wewnątrz komórki znajdującej się w pojemniku próżniowym w kąpieli azotowej, Libchaber potrzebował jakiegoś sposobu obserwowania, co się dzieje. Wmontował więc dwie mikroskopijne sondy temperaturowe w górną,
szafirową powierzchnię komórki. Ich wyjścia były rejestrowane w sposób ciągły za pomocą rejestratora xy. W ten sposób mógł monitorować temperaturę w dwóch miejscach na szczycie pojemnika z cieczą. Jak powiedział inny fizyk 18, było to tak czułe, tak sprytne, że Libchaberowi udało się oszukać przyrodę. To miniaturowe arcydzieło precyzji wymagało dwóch lat badań, ale było, jak powiedział Libchaber, właściwym pędzlem do malowania, nie nazbyt dużym ani wyrafinowanym. Wreszcie zobaczył wszystko. Gdy jego doświadczenie biegło godzina po godzinie, dzień i noc, Libchaber odkrywał bardziej pogmatwane zachowania w momencie pojawiania się turbulencji, niż kiedykolwiek przypuszczał. Pojawiła się pełna kaskada bifurkacji podwajania okresu. Libchaber ograniczył i uspokoił ruch cieczy, która podnosiła się pod wpływem ogrzewania. Proces zaczynał się wraz z pierwszą bifurkacją: ruch zaczyna się, skoro tylko dolna płytka z doskonale oczyszczonej miedzi podgrzewa się wystarczająco, aby pokonać tendencję cieczy do pozostawania w bezruchu. Przy kilku stopniach powyżej zera absolutnego wystarcza tylko jedna tysięczna stopnia. Ciecz na dole ogrzewa się i rozszerza dostatecznie, aby stać się lżejszą niż zimna ciecz znajdująca się powyżej. Aby umożliwić ciepłej cieczy unoszenie się, zimna ciecz musi opaść. Aby oba ruchy były możliwe, ciecz organizuje się w parę obracających się cylindrów. Obroty osiągają stałą prędkość, a układ dochodzi do równowagi — równowagi w ruchu z energią cieplną stale przekształcającą się w ruch i rozpraszającą się w wyniku tarcia z powrotem na ciepło i wydostającą się na zewnątrz przez zimną płytkę na szczycie. Jak dotąd Libchaber powtarzał dobrze znane doświadczenie z zakresu mechaniki płynów, tak dobrze znane, że aż pogardzane. ,,To była fizyka klasyczna — powiedział 19 — co niestety oznaczało, że zjawisko jest stare i mało interesujące”. Przypadkowo doświadczenie to dokładnie dotyczyło
układu, który Lorenz modelował za pomocą swojego układu trzech równań. Ale rzeczywisty eksperyment — realna ciecz, pojemnik przycięty przez mechanika, laboratorium podatne na wibracje pochodzące z paryskiej ulicy — był sposobem zbierania danych daleko bardziej kłopotliwym niż generowanie liczb za pomocą komputera. Doświadczalnicy, tacy jak Libchaber, używali zwykłego rejestratora do zapisywania temperatury mierzonej przez sondę wbudowaną w górną płytkę. W stanie stacjonarnym po pierwszej bifurkacji temperatura w danym punkcie pozostaje mniej więcej stała i pisak rejestratora kreśli prostą linię. Gdy dostarczy się więcej ciepła, pojawi się więcej niestabilności. W każdym zawirowaniu rozwija się węzeł i węzeł ten porusza się stale w tę i z powrotem. To kołysanie pojawia się w postaci zmian temperatury, w górę i w dół pomiędzy dwiema wielkościami. Pisak teraz kreśli na papierze linię falistą. Z linii temperatury, zmieniającej się w sposób ciągły i wstrząsanej przez szum eksperymentalny, niemożliwe jest odczytanie dokładnego czasu pojawiania się bifurkacji albo wydedukowanie ich natury. Linia posiada dodatkowe szczyty i doliny wywołane przez szum, które wydają się prawie tak przypadkowe jak na wykresie cen akcji w czasie kryzysu. Libchaber analizował takie dane, przekształcając je do diagramu widmowego, aby uwidocznić główne częstotliwości ukryte w zmieniającej się temperaturze. Sporządzanie diagramu widmowego z danych eksperymentalnych przypomina graficzne przedstawianie częstotliwości dźwięku, które tworzą złożony akord w symfonii. Na ogół u dołu wykresu pojawia się nierówna falista linia — jest to szum eksperymentalny. Główne tony ukazują się w postaci pionowych pików: im głośniejszy ton, tym wyższy pik. Podobnie, jeśli dane produkują dominującą częstotliwość — na przykład rytm osiągający maksimum raz na sekundę — to ta częstotliwość ukaże się jako
pik na wykresie widmowym. W doświadczeniu Libchabera pierwszy okres wynosił około dwóch sekund. Następna bifurkacja przyniosła subtelną zmianę. Zawirowanie dalej kołysało się w dominującym rytmie. Ale w nieparzystych cyklach temperatura zaczynała być nieco wyższa niż przedtem, a w parzystych — nieco niższa. W rzeczywistości maksymalna temperatura rozszczepiła się na dwoje, tak że były dwa różne maksima i dwa minima. Linia pisaka, choć trudna do odczytania, budowała metakołysanie — kołysanie nałożone na kołysanie. Było to lepiej widoczne na wykresie widmowym. Stara częstotliwość była nadal widoczna, ponieważ temperatura wciąż rosła co dwie sekundy. Teraz jednak pojawiła się nowa częstotliwość równa dokładnie połowie starej częstotliwości, ponieważ pojawiła się składowa, która powtarzała się co cztery sekundy 20. Wraz z pojawianiem się nowych bifurkacji można było zauważyć dziwnie spójną strukturę: nowe częstotliwości pojawiały się w połowie poprzedniej, tak że wykres wypełniał się ćwiartkami, ósemkami, szesnastkami i powoli zaczynał przypominać płot z na przemian krótkimi i długimi sztachetami.
PREDRAG CVITANOVIĆ, ADOLPH E. BROTMAN
Dwa
sposoby
przedstawiania
bifurkacji.
Kiedy
w
komórce
konwekcyjnej
Libchabera generuje się stała oscylacja, jego portret fazowy jest pętlą powtarzającą się w regularnych interwałach (po lewej, u góry). Eksperymentator mierzący częstotliwości ujrzy wykres widmowy z mocnym pikiem dla tego pojedynczego rytmu. Po bifurkacji podwajania okresu układ zapętla się dwukrotnie, zanim dokładnie zacznie się powtarzać (w środku); teraz eksperymentator widzi nowy rytm o mniejszej częstotliwości o połowę, czyli dwa razy większym okresie niż oryginalny. Nowe punkty połowienia częstoliwości wypełniają wykres widmowy następnymi pikami.
Nawet dla człowieka szukającego ukrytych form w kłopotliwych danych konieczne były dziesiątki, a nawet setki powtórzeń, zanim zwyczaje tej malutkiej komórki pomiarowej stały się jasne. Osobliwe rzeczy mogły zawsze się zdarzyć, gdy Libchaber i jego inżynier powoli podnosili temperaturę, a układ przechodził z jednego stanu równowagi do innego. Czasami pojawiały się przejściowe częstotliwości, przesuwały się przez diagram i znikały. Czasami mimo specjalnej geometrii powstawały trzy zawirowania zamiast dwóch. Jak więc można było przewidzieć, co się stanie wewnątrz tej malutkiej komory? Gdyby Libchaber znał wtedy zjawisko uniwersalności odkryte przez Feigenbauma, wiedziałby dokładnie, gdzie szukać bifurkacji i jak je nazwać. W roku 1979 powiększająca się grupa matematyków i fizyków o zacięciu matematycznym zwróciła uwagę na nową teorię Feigenbauma. Ale ogólnie naukowcy znający problemy realnych układów fizycznych wierzyli, że mają słuszne powody, aby powstrzymać się od osądu. Złożoność jednowymiarowych układów, takich jak odwzorowania Maya i Feigenbauma, to oddzielna sprawa. Z pewnością była ona czymś zupełnie innym w dwu-, trój- czy czterowymiarowych układach urządzeń mechanicznych, które mógł zbudować inżynier. Te wymagają poważnych równań różniczkowych, a nie prostych równań różnicowych. I jeszcze inna otchłań wydawała się dzielić te
niskowymiarowe układy od układów przepływu płynów, które fizycy rozważali jako układy potencjalnie nieskończenie wymiarowe. Nawet komórka Libchabera, tak starannie ukształtowana, miała nieskończoną liczbę cząsteczek płynu. Każda cząsteczka mogłaby potencjalnie reprezentować niezależny ruch. W pewnych warunkach dowolna cząsteczka mogłaby być miejscem jakiegoś nowego obrotu albo wiru. „Nikt nie zrozumiał faktu, że rzeczywisty, fundamentalny ruch w takim układzie daje się streścić w odwzorowaniach” — powiedział Pierre Hohenberg 21 z AT&T Bell Laboratories w New Jersey. Hohenberg był jednym z tych nielicznych fizyków, którzy śledzili zarówno nową teorię, jak i nowe doświadczenia. „Feigenbaum mógł śnić o tym, ale z pewnością nic na ten temat nie powiedział. Praca Feigenbauma dotyczyła odwzorowań. Dlaczego fizycy powinni interesować się odwzorowaniami? — to jest zabawa. Rzeczywiście, dopóki fizycy zabawiali się odwzorowaniami, wszystko wydawało się nader odległe od tego, co chcieliśmy zrozumieć. Dopiero kiedy ujrzano chaos w doświadczeniach, stało się to rzeczywiście podniecające. W układach, które są interesujące, cudem jest to, że możesz wciąż szczegółowo rozumieć ich zachowanie za pomocą modelu z niewielką liczbą stopni swobody”. Ostatecznie to właśnie Hohenberg doprowadził do spotkania teoretyka z doświadczalnikiem. Latem 1979 roku zorganizował w Aspen warsztaty naukowe, na które przybył również Libchaber. (Cztery lata wcześniej na tych samych warsztatach Feigenbaum wysłuchał wykładu Steve’a Smale’a o liczbie — tylko o jednej liczbie — która wydawała się wyskakiwać, kiedy matematycy przyglądali się przejściu do chaosu w pewnym równaniu). Kiedy Libchaber przystąpił do opisywania swoich eksperymentów z ciekłym helem, Hohenberg zaczął notować. W drodze do domu Hohenberg przypadkowo spotkał się z Feigenbaumem w Nowym
Meksyku. Niedługo potem Feigenbaum odwiedził Libchabera w Paryżu. Stali wśród rozrzuconych części i instrumentów w laboratorium Libchabera 22. Ten dumnie pokazał gościowi swoją malutką komorę pomiarową, po czym Feigenbaum wyjaśnił mu swoją najnowszą teorię. Potem spacerowali po Paryżu, szukając najlepszego miejsca do wypicia filiżanki kawy.
ALBERT LIBCHABER
Dane doświadczalne potwierdzające teorię. Wykres widmowy Libchabera wykazuje jasno precyzyjną strukturę punktów podwajania okresu, przewidywaną przez teorię. Maksima nowych częstotliwości wyróżniają się na tle szumu doświadczalnego. Teoria skalowania Feigenbauma przewiduje nie tylko, gdzie i kiedy pojawią się nowe częstotliwości, ale również, jak wysokie będą ich amplitudy.
Libchaber wspominał, jak był zaskoczony tym, że ujrzał tak młodego i, jak się wyraził, „pełnego życia” teoretyka. Skok od odwzorowań do przepływu płynów wydawał się tak wielki, że nawet ci najbardziej odpowiedzialni czasami czuli się jak we śnie. Jak przyroda mogła połączyć taką złożoność z taką prostotą? „Musisz uważać to za rodzaj mirażu, nie jako zwykły związek teorii i doświadczenia” — powiedział Jerry Gollub 23. W ciągu kilku lat miraż powtarzał się ciągle w ogromnej liczbie układów laboratoryjnych 24: w większych komorach z wodą i rtęcią, w oscylatorach elektronicznych, laserach, a nawet w reakcjach chemicznych. Teoretycy zaadaptowali techniki Feigenbauma i znaleźli inne matematyczne drogi do chaosu, kuzynów systemów podwajania okresu: takie struktury jak intermitencja i quasi-okresowość. Również one okazują się uniwersalne w teorii i doświadczeniu. Te odkrycia doświadczalników pomogły zapoczątkować erę eksperymentowania komputerowego. Fizycy odkryli, że komputery generują dane o jakościowo tej samej wartości jak w rzeczywistych eksperymentach, przy czym robią to miliony razy szybciej i bardziej wiarygodnie. Dla wielu jeszcze bardziej przekonywający niż doświadczenie Libchabera był model przepływu płynów stworzony przez Valtera Franceschiniego z uniwersytetu w Modenie we Włoszech — układ pięciu równań, które produkowały atraktory i punkty podwajania okresu 25. Franceschini nie wiedział nic
o Feigenbaumie, ale jego skomplikowany, wielowymiarowy model generował te same stałe, które Feigenbaum znalazł w jednowymiarowym odwzorowaniu. W roku 1980 grupa europejskich naukowców 26 dostarczyła przekonującego matematycznego wyjaśnienia: dysypacja pozbawia złożony układ wielu kolidujących ze sobą ruchów, doprowadzając ostatecznie zachowanie wielowymiarowego układu do jednego wymiaru. Poza obszarem modeli komputerowych znalezienie dziwnego atraktora w doświadczeniu z płynami pozostawało nie lada wyzwaniem. Tym zajmowali się w latach osiemdziesiątych doświadczalnicy tacy jak Harry Swinney. I kiedy doświadczalnikom ostatecznie się to udało, nowi eksperci komputerowi często umniejszali ich osiągnięcie jako zbyt prymitywne i łatwe do przewidzenia z powodu niezwykle szczegółowych rysunków wyrzucanych przez ich terminale graficzne. W doświadczeniu komputerowym, kiedy generuje się tysiące albo miliony danych, struktury stają się mniej lub bardziej widoczne. W laboratorium, podobnie jak w realnym świecie, użyteczne informacje musiały zostać wydzielone z szumu. W doświadczeniach komputerowych dane wypływają jak wino z magicznego kielicha. W doświadczeniach laboratoryjnych trzeba walczyć o każdą kroplę. Jednak nowa teoria Feigenbauma i innych nie zdobyła tak szerokiego poparcia w społeczności naukowców tylko siłą eksperymentów komputerowych. Modyfikacje, kompromisy, przybliżenia potrzebne do „unumerycznienia” układów równań różniczkowych nieliniowych były zbyt podejrzane. Symulacje tną rzeczywistość na tak wiele porcji, jak to możliwe, ale tych porcji jest zawsze za mało. Model komputerowy jest tylko zbiorem arbitralnych reguł wybranych przez programistów. Ciecz rzeczywista, nawet w milimetrowej komórce, ma niezaprzeczalną możliwość wykonania wszystkich wolnych, nietamowanych ruchów naturalnego nieporządku. Ma
możliwość zadziwiania. W wieku symulacji komputerowych, kiedy przepływy we wszystkim — od silnika odrzutowego po zastawki serca — są modelowane na superkomputerach, trudno sobie uzmysłowić, jak łatwo przyroda może wprawić eksperymentatora w zakłopotanie. Rzeczywiście żaden współczesny komputer nie może w pełni symulować nawet tak prostego układu jak komórki Libchabera z ciekłym helem. Ilekroć dobry fizyk sprawdza symulację, musi się zastanowić, jaką część rzeczywistości wykluczono, jakich potencjalnych niespodzianek uniknięto. Libchaber lubił mawiać, że nie chciałby latać w symulowanym samolocie — wciąż zastanawiałby się, co w nim pominięto. Ponadto powiedział, że symulacje komputerowe pomagają budować intuicję albo wysubtelniać obliczenia, ale nie prowadzą do narodzin prawdziwego odkrycia. To jest credo eksperymentatora. Jego doświadczenie było tak nieskazitelne, jego cele naukowe tak abstrakcyjne, że znaleźli się jednak fizycy, którzy uważali, iż praca Libchabera jest bardziej filozoficzna lub matematyczna niż fizyczna. Libchaber wierzył z kolei, że standardy obowiązujące w jego dziedzinie były redukcjonistyczne, dając pierwszeństwo właściwościom atomowym. „Fizyk zapytałby mnie, jak ten atom tutaj dochodzi albo tam siedzi? I jaka jest czułość powierzchni? I czy mogę napisać hamiltonian układu? I jeśli powiem mu, że nie obchodzi mnie to, że mnie interesuje kształt, matematyka kształtu i ewolucji, bifurkacja od tego do tamtego kształtu i znów do tego kształtu, oświadczy, że to nie jest fizyka, ty się zajmujesz matematyką. Nawet dzisiaj tak mi powie. Wówczas co mogę odpowiedzieć? Tak, oczywiście, zajmuję się matematyką. Ale to się wiąże z tym, co jest wokół nas. To jest też przyroda” 27. Struktury, które znalazł, były rzeczywiście abstrakcyjne. Były matematyczne. Nie mówiły nic o właściwościach ciekłego helu ani miedzi,
ani o zachowaniu atomów w pobliżu zera bezwzględnego. Ale były to struktury, o których śnili mistyczni poprzednicy Libchabera. One uprawomocniły dziedzinę eksperymentowania, w której wielu naukowców, od chemików po inżynierów elektryków, wkrótce stało się badaczami szukającymi nowych elementów ruchu. Struktury te zostały po raz pierwszy zaobserwowane, gdy udało mu się podnieść temperaturę na tyle, aby wyodrębnić pierwsze punkty podwojenia okresu i następne, i następne. Zgodnie z nową teorią bifurkacje powinny były stwarzać geometrię z precyzyjnym skalowaniem i to właśnie ujrzał Libchaber: uniwersalne stałe Feigenbauma z matematycznych ideałów przekształciły się w fizyczną rzeczywistość, mierzalną i powtarzalną. Pamiętał to uczucie bardzo długo — zdumienie towarzyszące pojawiającym się bifurkacjom i potem uświadomienie sobie, że widział nieskończoną kaskadę o bogatej strukturze. To było, jak powiedział, zabawne.
1
A. Libchaber, L. Kadanoff. 2 A. Libchaber. 3 Albert Libchaber, Experimental Study of Hydrodynamic Instabilities. Ray-leigh-Benard Experiment: Helium in a Small Box, w: Nonlinear Phenomena at Phase Transitions and Instabilities, red. T. Riste, Plenum, New York 1982, s. 259. 4 A. Libchaber, M.J. Feigenbaum. 5 A. Libchaber. 6 Wallace Stevens, This Solitude of Cataracts, w: The Palm at the End of the Mind, red. Holly Stevens, Vintage, New York 1972, s. 321. 7 Reality Is an Activity of the Most August Imagination, tamże, s. 396. 8 Theodor Schwenk, Sensitive Chaos, Schocken, New York 1976, s. 19. 9 Tamże. 10 Tamże, s. 16. 11 Tamże, s. 39. 12 D’Arcy Wentworth Thompson, On Growth and Form, red. J.T. Bonner, Cambridge University Press, Cambridge 1961.
13
Tamże, s. VIII. Stephen Jay Gould, Hen’s Teeth and Horse’s Toes, Norton, New York 1983, s. 369. 15 D’Arcy W. Thompson, On Growth and Form, s. 267. 16 Tamże, s. 114. 17 Jest to dość nieprecyzyjna metafora — punkt jest zerowymiarowy (przyp. K.S. ). 18 D. Campbell. 19 A. Libchaber. 20 A. Libchaber i J. Maurer, 1980 i 1981. Również wprowadzenie Cvitanovicia daje klarowne omówienie zagadnienia. 21 P. Hohenberg. 22 M.J. Feigenbaum, A. Libchaber. 23 J.P. Gollub. 24 Literatura jest równie obszerna. Podsumowanie wczesnych przypadków łączenia teorii z eksperymentem w różnych układach zostało przedstawione przez Harry’ego L. Swinneya, Observations of Order and Chaos in Nonlinear Systems, „Physica” 1983, 7D, s. 3-15; Swinney podaje listę odnośników podzielonych na kategorie od oscylatorów elektronicznych i chemicznych po bardziej ezoteryczne rodzaje eksperymentów. 25 Valter Franceschini, Claudio Tebaldi, Sequences of Infinite Bifurcations and Turbulence in a Five-Mode Truncation of the Navier-Stokes Equations, „Journal of Statistical Physics” 1979, 21, s. 707-726. 26 P. Collet, J.P. Eckmann, H. Koch, Period Doubling Bifurcations for Families of Maps on R, „Journal of Statistical Physics” 1981, 25, s. 1. 27 A. Libchaber. 14
Oblicza chaosu Cóż więcej, kiedy chaos zbiera swoje wszystkie siły, Ażeby ukształtować pojedynczy liść. Conrad Aiken (przeł. Marek Obarski)
Michael Barnsley spotkał Mitchella Feigenbauma na konferencji na Korsyce w roku 1979 1. Wtedy to Barnsley, matematyk wykształcony w Oxfordzie, dowiedział się o uniwersalności, podwajaniu okresu i nieskończonej kaskadzie bifurkacji. Dobry pomysł, pomyślał, dostatecznie dobry, aby każdy naukowiec mógł wyciąć sobie z niego jakiś kawałek. Ze swej strony Barnsley uważał, że dostrzegł coś, czego nikt dotąd nie zauważył. Skąd pochodzą te cykle 2, 4, 8, 16, te sekwencje Feigenbauma? Czy one wynurzają się w magiczny sposób z jakiejś matematycznej próżni? Czy sugerują coś jeszcze głębszego? Intuicja Barnsleya podpowiadała mu, że muszą być one częścią jakiegoś fantastycznego, dotąd ukrytego, obiektu fraktalnego. W kontekście tej idei myślał o płaszczyźnie zespolonej. W płaszczyźnie tej liczby od minus do plus nieskończoności — czyli wszystkie liczby rzeczywiste — leżą na linii rozciągającej się od dalekiego zachodu do dalekiego wschodu z zerem w środku. Ale ta linia jest tylko równikiem świata, który również rozciąga się do nieskończoności w kierunku północy i południa. Każda liczba jest złożona z dwóch części, części rzeczywistej, odpowiadającej długości wschodnio-zachodniej, i części urojonej, odpowiadającej szerokości północno-południowej. Zgodnie z konwencją te liczby zespolone są pisane w następujący sposób: 2 + 3i, gdzie i oznacza
część urojoną. Obie części nadają każdej liczbie unikalny adres w dwuwymiarowej płaszczyźnie. Oryginalna linia liczb rzeczywistych zatem jest właśnie szczególnym przypadkiem, zbiorem liczb, których część urojona jest równa zeru. W płaszczyźnie zespolonej rozważanie tylko liczb rzeczywistych, tylko punktów na równiku, byłoby ograniczaniem się do oglądania przypadkowych przekrojów kształtów, które mogą ukrywać jakieś tajemnice widoczne w dwu wymiarach. Tak podejrzewał Barsley. Nazwy rzeczywiste i urojone powstały wtedy, gdy zwykłe liczby wydawały się bardziej realne niż te nowe hybrydy, ale teraz nazwy te są uznawane za zupełnie arbitralne: oba rodzaje liczb są równie realne i równie urojone jak każdy inny rodzaj liczb. Historycznie liczby urojone zostały wymyślone, aby wypełnić próżnię pojęciową wytworzoną przez kwestię: ile wynosi pierwiastek z liczby ujemnej. Umówiono się, że pierwiastek z liczby –1 wynosi i, pierwiastek z liczby –4 wynosi 2i itd. Stąd już był tylko krok do uświadomienia sobie, że kombinacje liczb rzeczywistych i urojonych umożliwiły nowe rodzaje rozwiązań równań wielomianowych. Liczby zespolone mogą być dodawane, mnożone, uśredniane, rozkładane na czynniki, całkowane. Prawie każde działanie na liczbach rzeczywistych może zostać przeniesione na liczby zespolone. Kiedy Barnsley zaczął przekładać funkcje Feigenbauma na płaszczyznę zespoloną, ujrzał kontury ukazujące fantastyczną rodzinę kształtów, jakoś spokrewnionych z układami dynamicznymi intrygującymi fizyków doświadczalników, ale również zaskakujących jako konstrukcje matematyczne. Barnsley uświadomił sobie wkrótce, że te cykle nie pojawiają się znikąd. Spadają one na oś rzeczywistą z płaszczyzny zespolonej, na której istnieje konstelacja cyklów wszystkich rzędów. Zawsze istniały 2-cykl, 3-cykl, 4cykl, błądzące gdzieś poza zasięgiem wzroku, aby w końcu dotrzeć do osi rzeczywistej. Barnsley w pośpiechu wrócił z Korsyki do swojej pracowni
w Georgia Institute of Technology i napisał pracę. Wysłał ją do czasopisma o nazwie „Communications in Mathematical Physics”. Redaktorem tego czasopisma był David Ruelle, który jednak miał złe wieści dla Barnsleya. Barnsley niechcący dokonał ponownego odkrycia zagadnienia opisanego oryginalnie w zapomnianej, liczącej sobie pięćdziesiąt lat pracy francuskiego matematyka. „Ruelle odesłał ją z powrotem, jakby go parzyła, i napisał: «Michael, przecież ty mówisz o zbiorach Julii»” — relacjonował Barusley. Ruelle dodał pewną radę: „Skontaktuj się z Mandelbrotem». John Hubbard 2, matematyk amerykański, gustujący w modnych, śmiałych koszulach, trzy lata wcześniej uczył elementarnego rachunku różniczkowego studentów pierwszego roku w Orsay we Francji. Pośród standardowych tematów, które wykładał, była metoda Newtona — klasyczny schemat rozwiązywania równań metodą kolejnych przybliżeń. Hubbard był jednak nieco znudzony standardowymi tematami i zdecydował się przynajmniej raz wyłożyć metodę Newtona w taki sposób, który zmusiłby jego studentów do myślenia. Metoda Newtona jest stara i była stara nawet wtedy, kiedy Newton ją wymyślił. Starożytni Grecy używali jej do znajdowania pierwiastków kwadratowych. Procedura zaczyna się od zgadnięcia pierwszego przybliżenia. To przybliżenie prowadzi do lepszego przybliżenia i proces iteracyjny zbiega się do rozwiązania, jak się ma układ dynamiczny do stanu stacjonarnego. Proces jest szybki, liczba prawidłowych cyfr po przecinku na ogół dwoi się po każdym kroku. Współcześnie pierwiastki kwadratowe uległy bardziej analitycznym metodom, podobnie jak wszystkie pierwiastki równań kwadratowych, tj. takich, w których zmienne są podniesione do drugiej potęgi. Ale metoda Newtona działa w przypadku równań wielomianowych wyższego stopnia, które nie mogą być rozwiązane bezpośrednio. Metoda ta sprawdza się również doskonale w różnorodnych
algorytmach komputerowych, iteracja bowiem, jak zwykle, jest podstawą w obliczeniach numerycznych. Drobna niezdarność metody Newtona polega na tym, że równania mają na ogół więcej niż jedno rozwiązanie, szczególnie, kiedy w grę wchodzą rozwiązania zespolone. Które rozwiązanie zostanie znalezione przez tę metodę, zależy od początkowego przybliżenia. Praktycznie studenci uważają, że to nie stanowi problemu. Na ogół nie wiesz dobrze, gdzie zacząć obliczenia, a jeśli twoje przybliżenie wydaje się zmierzać do złego rozwiązania, zaczynasz w innym miejscu. Można spytać, jaką drogę przebywa metoda Newtona, kiedy posuwa się w kierunku pierwiastka równania drugiego stopnia na płaszczyźnie zespolonej. Ktoś myślący geometrycznie może odpowiedzieć, że metoda po prostu wyszukuje ten z dwóch pierwiastków, który jest bliższy wyjściowej wartości. Tak właśnie odpowiedział Hubbard swoim studentom w Orsay, kiedy pewnego dnia pytanie to zostało postawione. „Otóż dla równań, powiedzmy, trzeciego stopnia sytuacja wydaje się bardziej skomplikowana — stwierdził Hubbard z przekonaniem 3. — Pomyślę o tym i powiem wam w przyszłym tygodniu”. Wciąż zakładał, że rzeczą trudną byłoby nauczenie studentów obliczania iteracji, a wykonywanie początkowego przybliżenia powinno być proste 4. Ale im więcej o tym myślał, tym mniej wiedział o tym, co określa inteligentny wybór wyjściowej wartości, a poza tym, co metoda Newtona naprawdę robi. Z geometrycznego punktu widzenia najlepiej byłoby podzielić płaszczyznę na trzy równe klinowe wycinki z jednym pierwiastkiem w każdym klinie, ale Hubbard odkrył, że to by nie działało. Dziwne rzeczy zdarzały się w pobliżu granic. Ponadto Hubbard spostrzegł, że nie był pierwszym matematykiem, który potknął się o tę zadziwiająco trudną kwestię. Arthur Cayley próbował w roku 1879 przejść od rozwiązywalnego przypadku drugiego stopnia do przerażająco nierozwiązywalnego przypadku
trzeciego stopnia. Jednak Hubbard sto lat później miał w ręku narzędzie, którego brakowało Cayleyowi. Hubbard był rygorystycznym matematykiem, gardził domysłami, przybliżeniami, półprawdami opartymi na intuicji raczej niż na ścisłym dowodzie. Był matematykiem, który w dalszym ciągu upierałby się dwadzieścia pięć lat po tym, jak atraktor Lorenza wszedł do literatury, że tak naprawdę nikt nie wie, czy te równania prowadzą do dziwnego atraktora. To był niedowiedziony domysł. Znana podwójna spirala, powiedział, nie była dowodem, tylko rysunkiem komputerowym. Teraz wbrew sobie zaczął używać komputera, aby wykonać to, czego nie mogły dokonać ortodoksyjne techniki. Komputer nie mógł dowieść niczego. Ale mógł przynajmniej pomóc matematykowi dowiedzieć się, czym jest to, czego powinien dowieść. Tak oto Hubbard rozpoczął eksperyment. Traktował metodę Newtona nie jako sposób rozwiązywania problemów, ale jako problem sam w sobie. Hubbard rozważał najprostszy przykład równania trzeciego stopnia w postaci x3 – 1 = 0. Innymi słowy, znajdź pierwiastek trzeciego stopnia z liczby 1. W dziedzinie liczb rzeczywistych, oczywiście, jest jedno trywialne rozwiązanie. Jednak wielomian ma również dwa rozwiązania zespolone: – 1/2 + √3/2 oraz – 1/2 – i √3/2. Jeśli zaznaczymy te trzy pierwiastki na płaszczyźnie zespolonej, będą one stanowiły wierzchołki trójkąta równobocznego, przy czym jeden punkt będzie na godzinie trzeciej, drugi na siódmej, a trzeci na jedenastej. Jeśli weźmiemy dowolną liczbę zespoloną jako punkt wyjściowy, powstaje problem, jak ustalić, do którego z tych trzech rozwiązań prowadzi metoda Newtona. Była ona jak gdyby układem dynamicznym, a te trzy rozwiązania stanowiły trzy atraktory, albo jak gdyby płaszczyzna zespolona była gładką powierzchnią skłaniającą się w kierunku trzech dolin. Kulka położona w dowolnym punkcie na powierzchni powinna się stoczyć w kierunku jednej z trzech dolin. Której?
Hubbard zabrał się do próbkowania nieskończonej liczby punktów, które stanowiły płaszczyznę. Jego komputer przeskakiwał od punktu do punktu, prowadząc obliczenia metodą Newtona dla każdego i kodując wyniki za pomocą kolorów. Punkty początkowe, które prowadziły do jednego rozwiązania, były wszystkie koloru niebieskiego. Punkty, które prowadziły do drugiego rozwiązania, były czerwone, a punkty, które prowadziły do trzeciego — zielone. Stwierdził, że w największym przybliżeniu metoda Newtona rzeczywiście dzieliła płaszczyznę na trzy klinowate części. Na ogół punkty w pobliżu danego rozwiązania prowadziły szybko do tego rozwiązania. Ale systematyczne badania komputerowe pokazały skomplikowaną fundamentalną organizację, która nigdy dotąd nie była oglądana przez matematyków zdolnych jedynie do obliczania jakiegoś punktu tu czy tam. Podczas gdy niektóre początkowe przybliżenia dążyły szybko do pierwiastka, inne odbijały się pozornie przypadkowo, zanim ostatecznie dotarły do rozwiązania. Czasami wydawało się, że punkt wpada w cykl, który powtarzałby się w nieskończoność — cykl periodyczny — nie osiągając nigdy żadnego z trzech rozwiązań.
HEINZ-OTTO PEITGEN, PETER H. RICHTER
Granice o nieskończonej złożoności. Kiedy placek zostanie przecięty na trzy części, spotykają się one w jednym punkcie, a granice pomiędzy dwoma kawałkami są proste. Ale wiele procesów abstrakcyjnej matematyki i fizyki rzeczywistego świata tworzy granice, które są prawie niewyobrażalnie złożone. Powyżej pokazano, jak metoda Newtona zastosowana do znalezienia pierwiastka sześciennego z – 1 dzieli płaszczyznę na trzy identyczne obszary, z których jeden zaznaczony jest kolorem białym. Wszystkie białe punkty są „przyciągane” do pierwiastka leżącego w największej białej powierzchni; wszystkie czarne punkty są przyciągane do jednego z dwóch innych pierwiastków. Granica ma osobliwą właściwość polegającą na tym, że każdy punkt na niej graniczy ze wszystkimi trzema regionami. I (patrz wklejka) powiększone wycinki ukazują fraktalną strukturę, powtarzającą strukturę podstawową w coraz mniejszej skali.
Kiedy Hubbard zmuszał komputer do badania przestrzeni z coraz większą dokładnością, był wraz ze swoimi studentami oszołomiony obrazem, który zaczął się wyłaniać. Zamiast gładkiej krawędzi między, na przykład, niebieską i czerwoną doliną, ujrzał zielone plamki połączone jak klejnoty w koralach. Wyglądało to tak, jak gdyby kulka poddana dwom sprzecznym szarpnięciom z dwóch przyległych dolin kończyła w trzeciej, najbardziej odległej. Granica pomiędzy dwoma kolorami nigdy nie była do końca określona 5. Przy bliższym zbadaniu okazywało się, że linia pomiędzy zieloną plamką i niebieską doliną miała czerwone kropki. I tak dalej — granica ostatecznie ujawniła osobliwą właściwość, która wydałaby się oszałamiająca nawet dla kogoś znającego monstrualne fraktale Mandelbrota: żaden punkt nie stanowił granicy pomiędzy tylko dwoma kolorami. Ilekroć dwa kolory próbują się połączyć, trzeci kolor wciska się pomiędzy nie z serią nowych, samopodobnych intruzji. Każdy graniczny punkt graniczy z regionem każdego z trzech kolorów. Hubbard zajął się badaniem tych złożonych kształtów i ich matematycznych implikacji. Jego praca i praca jego kolegów wkrótce stała się nową linią ataku na problem układów dynamicznych. Uświadomił sobie, że odwzorowanie metody Newtona to tylko jedna z całej niezbadanej rodziny figur, które odzwierciedlają zachowanie się sił w rzeczywistym świecie. Michael Barnsley oglądał innych członków tej rodziny. Benoit Mandelbrot — jak Barnsley i Hubbard wkrótce się dowiedzieli — odkrył dziadka tych wszystkich kształtów. * Zbiór Mandelbrota 6 jest najbardziej złożonym obiektem 7 w matematyce — lubią mówić jego wielbiciele. W wieczności nie byłoby dosyć czasu, aby go zobaczyć w całości; jego dyski usiane ostrymi cierniami, jego spirale
i włókienka rozwijające się na zewnątrz i dookoła, dźwigające bulwiaste molekuły, które wiszą nieskończenie różnorodne, jak winogrona z osobistej winnicy Boga. W kolorach przez dopasowywane okno ekranu komputera zbiór Mandelbrota wydaje się bardziej fraktalny niż fraktale, tak bogata jest jego złożoność we wszystkich skalach. Katalogowanie różnych obrazów wewnątrz niego albo opis numeryczny konturu zbioru wymagałyby nieskończonej ilości informacji. Ale oto paradoks: aby wysłać pełen opis zbioru przez linię transmisyjną, potrzeba tylko kilkudziesięciu znaków kodowych. Krótki program komputerowy zawiera wystarczająco dużo informacji, aby reprodukować cały zbiór. Ci, którzy pierwsi zrozumieli sposób, w jaki zbiór miesza złożoność z prostotą, byli ogromnie zdumieni, nawet Mandelbrot. Zbiór Mandelbrota stał się publicznym emblematem chaosu: ukazywał się na lśniących okładkach broszur konferencyjnych, w kwartalnikach technicznych i stanowił główny eksponat wystawy sztuki komputerowej, która wędrowała po świecie w latach 1985 i 1986. Jego piękno wprost emanowało z tych obrazów; trudniej było matematykom zrozumieć jego znaczenie. Wiele kształtów fraktalnych można utworzyć w procesach iteracyjnych w płaszczyźnie zespolonej, ale jest tylko jeden zbiór Mandelbrota. Zaczął się pojawiać, niewyraźny jak zjawa, kiedy Mandelbrot szukał sposobu uogólnienia klasy kształtów znanych jako zbiory Julii. Były one wymyślone i badane podczas pierwszej wojny światowej przez francuskiego matematyka, Gastona Julię, i Pierre’a Fatou, pracującego bez obrazów, które mógł dostarczyć komputer. Mandelbrot oglądał ich skromne rysunki i czytał ich prace — już zapomniane — kiedy miał dwadzieścia pięć lat. Zbiory Julii w różnych odmianach były dokładnie tymi obiektami, które zaintrygowały Barnsleya. Niektóre zbiory Julii są jak okręgi, które zostały poszczypane i zdeformowane w wielu miejscach, aby ich struktura stała się fraktalna. Inne
są podzielone na regiony, a jeszcze inne są rozłącznymi drobinami kurzu. Ale ani słowa, ani pojęcia geometrii euklidesowej nie potrafią ich opisać. Francuski matematyk, Adrien Douady, powiedział 8: „Otrzymujesz niezwykłą różnorodność zbiorów Julii: niektóre są grubymi chmurami, inne są chudym gąszczem cierni, niektóre wyglądają jak iskierki unoszące się w powietrzu, gdy wybucha fajerwerk. Jeden ma kształt królika, wiele z nich ma ogon konika morskiego”.
HEINZ-OTTO PEITGEN, PETER H. RICHTER
Zbiory Julii
W 1979 roku Mandelbrot odkrył 9, że może utworzyć jeden obraz w płaszczyźnie zespolonej, który posłuży za katalog wszystkich zbiorów Julii. Badał on iterację złożonych procesów, równań z pierwiastkami kwadratowymi, sinusami i cosinusami. Nawet po skoncentrowaniu swojego życia intelektualnego wokół idei, że prostota rodzi złożoność, nie od razu
zrozumiał, jak niezwykły był obiekt schowany poza możliwościami ekranów komputerów w IBM-ie i Harvardzie. Naciskał swoich programistów, aby wydobyli więcej szczegółów, a oni pocili się nad alokacją już przeładowanej pamięci nową interpolacją punktów na dużym komputerze IBM wyposażonym w zwykły czarno-biały monitor. Żeby było jeszcze trudniej, programiści zawsze musieli bardzo uważać na pojawianie się „artefaktów”, które powstawały z kaprysów maszyny i znikały, kiedy program napisano w odmienny sposób. Wówczas Mandelbrot skoncentrował się na prostym odwzorowaniu, które było szczególnie łatwe do zaprogramowania. Przy niskiej rozdzielczości, gdy program wykonał tylko kilka pętli, na ekranie pojawiły się pierwsze kontury dysków. Kilka linijek obliczeń wykonanych techniką typu „ołówek i kartka” pokazały, że dyski były matematyczną rzeczywistością — nie były produktem jakichś osobliwości numerycznych. Na prawo i na lewo od głównych dysków pojawiły się cienie innych kształtów. Oczyma duszy — powiedział później Mandelbrot — widział więcej: hierarchię kształtów, atomy, od których odrastały mniejsze atomy ad infinitum. A tam, gdzie zbiór przecinał się z osią rzeczywistą, jego stopniowo malejące dyski skalowały się z geometryczną regularnością, pojawił się feigenbaumowski rząd bifurkacji. To zachęciło go do dalszych obliczeń wysubtelniających te pierwsze obrazy i zanieczyszczenia zalegające na krawędziach dysków i rozsiane w pobliskich obszarach. Kiedy wykonywał obliczenia z coraz większą dokładnością, nagle poczuł, że łańcuch powodzenia pękł. Zamiast stawać się ostrzejszy, obraz był coraz bardziej nieuporządkowany. Zwrócił się znów do IBM-owskiego centrum badawczego Westchester County, aby spróbować mocy obliczeniowej komputera firmowego, z którym harwardzki nie mógł się równać. Ku jego zaskoczeniu zwiększający się nieład był znakiem czegoś rzeczywistego. Odrośla i wąsy odchodziły powoli od głównej wyspy.
Mandelbrot ujrzał pozornie gładką granicę rozdzielającą się na łańcuch spiral przypominających ogony koników morskich. Nieracjonalne spłodziło racjonalne. Zbiór Mandelbrota jest zbiorem punktów. Każdy punkt w płaszczyźnie zespolonej — to znaczy każda liczba zespolona — jest albo w zbiorze, albo poza nim. Można ustalić, które punkty należą do zbioru, przeprowadzając test oparty na prostej arytmetyce iteracyjnej. Aby sprawdzić dany punkt, weź liczbę zespoloną; podnieś ją do kwadratu; dodaj liczbę wyjściową; wynik podnieś do kwadratu; dodaj liczbę wyjściową; wynik podnieś do kwadratu — i tak dalej. Jeśli suma dąży do nieskończoności, to punkt ten nie należy do zbioru Mandelbrota. Jeśli suma pozostaje skończona (może wpaść w jakąś powtarzającą się pętlę albo wałęsać się chaotycznie), to punkt jest elementem zbioru Mandelbrota. Ta sprawa powtarzania pewnego procesu w nieskończoność i sprawdzania, czy wynik jest nieskończonością, przypomina procesy ze sprzężeniem zwrotnym. Wyobraź sobie, że łączysz mikrofon, wzmacniacz i głośniki w jakiejś sali. Niepokoi cię pisk sprzężenia dźwiękowego. Jeśli mikrofon łapie dostatecznie głośny szum, wzmocniony dźwięk z głośników będzie się sprzęgał zwrotnie w mikrofonie w nieskończonej, coraz głośniejszej pętli. Z drugiej strony, jeśli dźwięk jest dostatecznie cichy, po prostu zanika. Aby wyrazić model takiego sprzężenia zwrotnego za pomocą liczb, można wziąć liczbę początkową, pomnożyć ją przez siebie, pomnożyć wynik przez siebie itd. Łatwo zauważyć, że wielkie liczby dążą szybko do nieskończoności: 10, 100, 10 000... Ale małe liczby prowadzą do zera: 1/2, 1/4, 1/16... Aby wykonać rysunek, należy określić zbiór wszystkich punktów, które po podstawieniu do tego równania nie uciekają do nieskończoności. Rozważmy punkty na osi większe od zera. Jeśli punkt wytwarza pisk sprzężenia zwrotnego, zaznaczmy go na biało. W przeciwnym wypadku zaznaczmy go
na czarno. Całkiem szybko powstaje kształt, który składa się z czarnej linii od 0 do 1. W przypadku procesu jednowymiarowego nikt nie potrzebuje uciekać się do eksperymentalnego testowania. Dosyć łatwo ustalić, że liczby większe niż jeden dążą do nieskończoności, a reszta nie. Ale w dwóch wymiarach płaszczyzny zespolonej dla wydedukowania kształtu określonego przez proces iteracyjny znajomość równania jest na ogół niewystarczająca. Inaczej niż w geometrii tradycyjnych kształtów — okręgów, elips i parabol — zbiór Mandelbrota nie pozwala na żadne skróty. Jedyną metodą zobaczenia, jaki kształt wyłania się z danego równania, jest metoda prób i błędów. Metoda ta spowodowała, że badacze tego nowego zagadnienia stali się bliżsi duchowi Magellana niż Euklidesa. Połączenie świata kształtów ze światem liczb w ten sposób reprezentowało zerwanie z przeszłością. Nowe geometrie zawsze zaczynały się, kiedy ktoś zmieniał fundamentalną regułę. Załóżmy, że przestrzeń może być zakrzywiona zamiast płaska — mówił geometra i w rezultacie powstała niesamowita zakrzywiona parodia Euklidesa, która dostarczyła właściwych ram dla ogólnej teorii względności. Załóżmy, że przestrzeń może mieć cztery wymiary albo pięć lub sześć. Załóżmy, że liczba wyrażająca wymiar może być ułamkiem. Załóżmy, że kształty mogą być skręcane, rozciągane, pozwijane w węzły. Albo teraz załóżmy, że kształty są określone nie przez pojedyncze rozwiązanie równania, lecz przez iterowanie ich w pętli sprzężenia zwrotnego. Julia, Fatou, Hubbard, Barnsley, Mandelbrot — ci matematycy zmienili reguły dotyczące tego, jak tworzyć kształty geometryczne. Metody Euklidesa i Kartezjusza przekształcania równań w krzywe są znane każdemu, kto studiował geometrię w zakresie szkoły średniej albo znajdował punkt na mapie, używając dwóch współrzędnych. Standardowa geometria bierze
równanie i szuka zbioru liczb, które je spełniają. Rozwiązania równań takich jak x 2 + y 2 = 1 tworzą więc jakiś kształt — w tym przypadku okrąg. Inne proste równania tworzą inne figury: przekroje stożka — elipsę, parabolę i hiperbolę — albo nawet bardziej złożone kształty generowane przez równania różniczkowe w przestrzeni fazowej. Ale kiedy geometra iteruje równanie, zamiast je rozwiązywać, staje się ono procesem zamiast opisem, dynamiką zamiast statyką. Kiedy liczba zostaje podstawiona do równania, nowa liczba pojawia się jako wynik; nowa liczba zostaje podstawiona itd., punkty skaczą z miejsca na miejsce. Punkt jest zaznaczany nie wtedy, kiedy spełnia równanie, ale kiedy rodzi pewien rodzaj zachowania. Jeden rodzaj zachowania może być stanem stałym. Inny może dążyć do okresowego powtarzania stanów. Jeszcze innym może być niekontrolowany pęd nieskończoności.
Wyłanianie się zbioru Mandelbrota. Na pierwszym niedokładnym wydruku komputerowym Benoit Mandelbrot ujrzał nierówną strukturę uzyskującą coraz więcej szczegółów, kiedy jakość obliczeń się poprawiała. Czy pluskwopodobne unoszące się „molekuły” były izolowanymi wyspami? Czy też są one połączone z głównym obiektem za pomocą włókien zbyt drobnych, aby mogły być zaobserwowane? Nie udało się tego stwierdzić.
Przed erą komputerów nawet Julia i Fatou, którzy rozumieli możliwości tego nowego rodzaju tworzenia kształtów, nie potrafili z tego stworzyć nauki. Z pomocą komputerów, geometrii prób i błędów stało się to możliwe. Hubbard badał metodę Newtona, obliczając zachowanie się kolejnych punktów, a Mandelbrot po raz pierwszy ujrzał swój zbiór, używając komputera do przeczesywania jeden po drugim punktów płaszczyzny. Nie wszystkich punktów oczywiście. Czas i możliwości komputerów są ograniczone; a do takich obliczeń używa się siatki punktów. Drobniejsza siatka daje ostrzejszy rysunek, ale obliczenia się wydłużają. W przypadku zbioru Mandelbrota obliczenia były proste, ponieważ sam proces był prosty: iteracja w płaszczyźnie zespolonej odwzorowania z → z 2 + c. Weź liczbę, pomnóż ją przez siebie i dodaj liczbę wyjściową. Gdy Hubbard opanowywał nowy styl badania kształtu za pomocą komputera, stworzył również nowy matematyczny styl — zastosowanie analizy zespolonej — działu matematyki, którego wcześniej nie stosowano do układów dynamicznych. Wszystko układa się w całość, pomyślał. Odległe dziedziny wewnątrz matematyki zbiegały się na skrzyżowaniach dróg. Wiedział, że nie wystarczy ujrzeć zbiór Mandelbrota; zanim z nim skończy, chciał go zrozumieć, i rzeczywiście, w końcu stwierdził, że go zrozumiał. Jeśli granice byłyby tylko fraktalne w mandelbrotowskim sensie monstrów z przełomu wieku, to pierwszy obraz wyglądałby mniej więcej tak jak ostatni. Zasada samopodobieństwa w różnych skalach umożliwiłaby przewidywanie, co mikroskop elektronowy zobaczyłby na następnym poziomie powiększenia. Zamiast tego każde zagłębienie się w zbiór Mandelbrota przynosi nowe niespodzianki. Mandelbrot zaczął się niepokoić 10, że przedstawił zbyt restrykcyjną definicję fraktala; z pewnością chciał zastosować to słowo do swojego nowego obiektu. Zbiór, gdy go powiększono dostatecznie, zawierał kopie samego siebie, malutkie
pluskwopodobne obiekty „spuszczone na wodę” z głównego obiektu, ale silniejsze powiększenie pokazywało, że żadna z tych molekuł nie pasowała dokładnie do drugiej. Zawsze były to nowe rodzaje koników morskich, nowe wijące się gatunki roślin cieplarnianych. Faktycznie żadna część zbioru nie wyglądała dokładnie tak jak inna część przy dowolnym powiększeniu. Odkrycie „pływających” molekuł postawiło jednak pilny problem do rozwiązania. Czy zbiór Mandelbrota był połączony; czy był to jeden kontynent z daleko wysuniętymi półwyspami? Czy też był to kurz, obiekt główny otoczony drobnymi wysepkami? Nie było to jasne. Ze zbiorów Julii nie można było wyczytać żadnych wskazówek, ponieważ pojawiały się dwa rodzaje obiektów: niektóre były pełnymi kształtami, inne miały drobiny „kurzu”. „Kurz”, chociaż fraktalny, ma szczególną właściwość: żadne dwie drobiny nie są „razem” 11 — ponieważ każda drobina jest oddzielona od każdej innej obszarem pustej przestrzeni — jednak żadna drobina nie jest „samotna”, bo ilekroć znajdziesz jedną, możesz zawsze znaleźć grupę drobin dowolnie blisko. Kiedy Mandelbrot patrzył na te obrazki, uświadomił sobie, że komputerowe eksperymentowanie nie pozwoli odpowiedzieć na postawione pytanie. Skupił się więc bardziej na plamkach unoszących się w pobliżu obiektu głównego. Niektóre znikały, ale inne rosły do wyraźnych prawie kopii. Wydawały się niezależne. Ale możliwe, że były połączone liniami tak cienkimi, że wciąż uciekały z sieci punktów na ekranie. Douady i Hubbard użyli wspaniałego łańcucha nowej matematyki, aby udowodnić, że każda pływająca molekuła w rzeczywistości wisi na filigranie, który wiąże ją z całą resztą, delikatnej tkaniny rozciągającej się od drobnych wybrzuszeń głównego zbioru na „diabelskim polimerze” — używając wyrażenia Mandelbrota. Matematycy ci udowodnili, że każdy wycinek — nieważne gdzie i nieważne jak mały — powiększony za pomocą komputerowego mikroskopu, ujawnia nowe molekuły, z których każda jest
podobna do głównego zbioru, a jednak nie jest taka sama. Każda nowa molekuła jest otoczona przez swoje własne spirale i podobne do płomyka wyrostki, a te nieuchronnie ujawniają molekuły jeszcze drobniejsze, zawsze podobne, nigdy identyczne, wypełniające jakiś mandat nieskończonej różnorodności, cud miniaturyzacji, w którym każdy nowy detal jest wszechświatem dla samego siebie, różnorodnym i zupełnym. „Wszystko to były bardzo geometryczne, prostoliniowe podejścia” — powiedział Heinz-Otto Peitgen 12. Mówił o współczesnej sztuce. „Praca Josefa Albersa, na przykład, próbująca odkryć relacje barw, to zasadniczo tylko kwadraty o różnych kolorach nałożone na siebie. Te rzeczy były bardzo popularne. Jeśli patrzy się na to teraz, wydaje się, że to minęło. Ludzie już tego nie lubią. W Niemczech budowali wielkie bloki mieszkalne w stylu Bauhausu i teraz ludzie wyprowadzają się, nie chcą tam mieszkać. Istnieją bardzo głębokie przyczyny — jak mi się wydaje — tego, że społeczeństwo już nie lubi pewnych aspektów naszej koncepcji przyrody”. Peitgen pomagał gościowi wybrać pewne powiększenia regionów zbioru Mandelbrota, zbiorów Julii i innych zbiorów pochodzących ze złożonych procesów iteracyjnych, wszystkie we wspaniałych kolorach. W swojej małej pracowni w Kalifornii przedstawiał przeźrocza, wielkie obrazy na szkle, nawet kalendarz ze zbiorem Mandelbrota. „Byliśmy tak głęboko rozentuzjazmowani, ponieważ otworzyła się przed nami nowa perspektywa widzenia przyrody. Co jest prawdziwą cechą naturalnego obiektu? Weźmy na przykład drzewo — co jest ważne? Czy to jest prosta linia czy obiekt fraktalny?”. Tymczasem w Kornwalii 13 John Hubbard zmagał się z potrzebami rynku. Do zakładu matematyki napływały setki listów z prośbą o rysunek zbioru Mandelbrota. Hubbard uświadomił sobie, że musi przygotować przykłady i ustalić cennik. Dzięki pomocy doktorantów, którzy pamiętali szczegóły techniczne, dziesiątki figur już obliczone i
zmagazynowane w pamięci komputera gotowe były do natychmiastowego zademonstrowania. Ale większość spektakularnych obrazków z największą rozdzielczością i najżywszą kolorystyką przygotowali dwaj Niemcy: HeinzOtto Peitgen i Peter H. Richter i ich naukowy zespół na uniwersytecie w Bremie, przy pomocy sponsora entuzjasty z miejscowego banku. Peitgen i Richter — matematyk i fizyk — poświęcili swoje kariery na badanie zbioru Mandelbrota. Stanowił on dla nich kopalnię pomysłów: współczesna filozofia sztuki, usprawiedliwienie nowej roli eksperymentów w matematyce, przystępne przedstawianie złożonych układów szerokiej rzeszy czytelników. Opublikowali lśniące katalogi i książki, i odbyli tournée światowe z galerią swoich obrazów komputerowych. Richter doszedł do złożonych układów od fizyki poprzez chemię, a potem biochemię, badając oscylacje w biologicznych procesach przemiany materii. W serii prac na temat takich zjawisk jak układ immunologiczny i przekształcanie cukru w energię przez drożdże odkrył, że oscylacje często rządzą dynamiką procesów, które zwyczajowo były uznawane za statyczne, ponieważ żywe organizmy trudno badać w czasie rzeczywistym. Richter 14 przymocował do parapetu dobrze naoliwione podwójne wahadło, swój „ulubiony układ dynamiczny” wykonany na jego zamówienie przez warsztaty uniwersyteckie. Od czasu do czasu puszczał je w chaotycznym antyrytmie, który mógł również emulować na komputerze. Czułość na warunki początkowe była tak duża, że przyciąganie grawitacyjne pojedynczej kropli deszczu znajdującej się o milę od okna zakłócało ruch w ciągu pięćdziesięciu, sześćdziesięciu powtórzeń, czyli około dwóch minut. Jego wielobarwne grafiki przestrzeni fazowej tego podwójnego wahadła wykazywały wymieszane regiony okresowości i chaosu. Tej samej techniki graficznej używał do przedstawienia wyidealizowanych obszarów magnetyzacji w metalu oraz do eksplorowania zbioru Mandelbrota.
Dla jego kolegi, Peitgena, badania nad złożonością stały się szansą na stworzenie nowych tradycji w nauce. „W zupełnie nowej dziedzinie, takiej jak ta, możesz zacząć myśleć dzisiaj i jeśli jesteś dobrym naukowcem, możesz dojść do interesujących rozwiązań w ciągu kilku dni albo w ciągu tygodnia lub miesiąca” — powiedział Peitgen 15. Dziedzina ta nie ma jeszcze struktury. „W dziedzinie mającej strukturę wie się, co się wie i czego się nie wie, co ludzie już próbowali i co prowadzi donikąd. Tam musisz pracować nad problemem, o którym wiesz, że jest problemem, inaczej przepadłeś. Ale problem, który jest znany, musi być trudny, inaczej byłby już rozwiązany” 16. Peitgen nie podzielał niepokoju matematyków związanego z używaniem komputerów do przeprowadzania eksperymentów. Z pewnością każdy wynik musi być ostatecznie udowodniony za pomocą standardowych metod, inaczej nie byłaby to matematyka. Zobaczenie figury na ekranie graficznym nie gwarantuje jej istnienia w języku twierdzeń i dowodów. Ale sama możliwość znalezienia takiej figury wystarczała do zmiany kierunku rozwoju matematyki. Peitgen wierzył, że komputerowa eksploracja dawała matematykom wolność w wybieraniu bardziej naturalnej drogi. Przejściowo, na chwilę, matematyk mógł zrezygnować ze ścisłego dowodu. Mógł iść, dokądkolwiek prowadził go eksperyment, tak jak fizyk. Numeryczna moc obliczeń i wizualne wskazówki dla intuicyjnego rozumienia mogą prowadzić matematyka prostą aleją i oszczędzić mu błądzenia po ślepych zaułkach. Potem nowe tory, które zostały odkryte, i nowo wyizolowane obiekty matematyk może poddać regułom ścisłego dowodu. „Ścisłość jest siłą matematyki — powiedział Peitgen 17. — Matematycy nigdy nie zrezygnują z tego, że mogą kontynuować linię rozumowania, która jest absolutnie pewna. Ale możesz spojrzeć też na sytuacje, które jesteś w stanie teraz zrozumieć tylko częściowo, a być może dopiero przyszłe pokolenia
zrozumieją je ściśle. Ścisłość — tak, ale nie do tego stopnia, żeby poniechać czegoś tylko dlatego, że nie można teraz tego zrobić”. W latach osiemdziesiątych komputer domowy mógł liczyć z arytmetyczną precyzją wystarczającą do wykonania kolorowych obrazów zbioru i hobbyści szybko stwierdzili, że badanie tych obrazów przy coraz silniejszych powiększeniach dawało wyraźne poczucie rozszerzającej się skali. Jeśli zbiór uzna się za obiekt wielkości planety, komputer osobisty mógł pokazać cały obiekt albo cechy wielkości miast, albo wielkości budynków, albo wielkości pokojów, albo wielkości książek, albo liter, albo bakterii, albo atomów. Ludzie, którzy patrzyli na takie obrazy, widzieli, że wszystkie skale miały podobną strukturę, jednak każda była inna. I wszystkie te mikroskopowe krajobrazy były generowane przez te same kilka linijek programu komputerowego 18. Granica jest tam, gdzie program rysujący zbiór Mandelbrota spędza najwięcej czasu i idzie na wszelkie kompromisy. Tam gdzie 100, 1000 albo 10 000 iteracji nie pozwala na przerwanie programu, a program wciąż nie jest pewien, czy punkt należy do zbioru. Kto wie, co przyniósłby milion iteracji? Więc programy, które wykonują najlepsze, najbardziej powiększone obrazy zbioru, są uruchamiane na największych komputerach albo na komputerach z równoległym przetwarzaniem, które mają tysiące mózgów wykonujących te same operacje arytmetyczne. Granica jest tam, gdzie punkty najwolniej uwalniają się od przyciągania zbioru, jak gdyby balansowały pomiędzy dwoma współzawodniczącymi atraktorami, jednym w zerze, a drugim otaczającym zbiór w nieskończonej odległości. Kiedy naukowcy przenieśli swoje zainteresowania ze zbioru Mandelbrota na nowe problemy reprezentujące rzeczywiste zjawiska fizyczne, właściwości granic zbioru wysunęły się na czoło. Granica pomiędzy dwoma lub większą liczbą atraktorów w układzie dynamicznym służy za próg, który
wydaje się rządzić wieloma zwykłymi procesami, poczynając od pękania materiałów, aż do podejmowania decyzji. Każdy atraktor w takim układzie ma swój basen, tak jak rzeka ma swoje dorzecze, z którego spływa do niej woda. Każdy basen ma granice. Dla pewnej wpływowej grupy badaczy w latach osiemdziesiątych najbardziej obiecującą dziedziną matematyki i fizyki było badanie granic basenów fraktalnych 19. Ta dziedzina dynamiki nie zajmowała się opisywaniem finalnego, stabilnego zachowania się układu, ale sposobem, jaki układ wybiera między współzawodniczącymi opcjami. Układ taki jak klasyczny już model Lorenza ma w sobie tylko jeden atraktor, jedno zachowanie, które dominuje, kiedy zachowanie systemu ustala się, i jest to atraktor chaotyczny. Inne układy mogą dążyć do niechaotycznego, stabilnego zachowania — ale z więcej niż jednym możliwym stanem stabilnym. Badanie fraktalnych granic basenów było badaniem układów, które mogą osiągać kilka niechaotycznych stanów końcowych, przy czym zapytywano, jak przewidzieć, który stan zostanie osiągnięty. James Yorke, który dziesięć lat po tym, jak chaos otrzymał swoje imię, zapoczątkował badania fraktalnych granic basenów, zaproponował myślowy bilard szpilkowy 20. Jak większość maszyn tego typu miał działo sprężynowe. Naciągasz sprężynę i zwalniasz ją, aby wystrzelić piłeczkę na pole gry. Urządzenie ma zwykłe, nachylone pole gry z gumowymi brzegami i elektryczne zderzaki, które dostarczają piłeczce dodatkowej energii. Te dodatkowe uderzenia są ważne: oznaczają, że energia nie zanika w sposób ciągły. Dla prostoty maszyna ta nie ma u dołu żadnych wyrzutni, jedynie dwie wyjściowe pochylnie. Piłeczka musi opuścić urządzenie przez jedną lub drugą pochylnię. Jest to deterministyczny bilard — żadnego potrząsania maszyną. Tylko jeden parametr steruje przeznaczeniem piłeczki i jest to początkowe położenie sprężyny w wyrzutni. Wyobraźmy sobie, że maszyna jest
zaplanowana w ten sposób, że krótki naciąg sprężyny zawsze będzie oznaczał, iż piłeczka wytoczy się przez prawą pochylnię, podczas gdy długie naciągnięcie sprężyny oznaczać będzie, że piłeczka skończy swój bieg na lewej pochylni. Pośrodku zachowanie staje się złożone; piłeczka odskakuje od jednego do drugiego zderzaka w zwykły energiczny, hałaśliwy sposób, zanim ostatecznie wybierze jedno lub drugie wyjście. Teraz wyobraźmy sobie, że sporządzamy wykres przedstawiający wynik każdego możliwego położenia początkowego wyrzutni. Wykres jest po prostu linią. Jeśli położenie prowadzi do prawego wyjścia, rysujemy czerwony punkt, i zielony dla lewego wyjścia. Jakich wyników możemy się spodziewać w przypadku tych atraktorów? Granica okazuje się zbiorem fraktalnym, niekoniecznie samopodobnym, ale z nieskończoną liczbą szczegółów. Pewne odcinki linii okażą się czysto czerwone albo zielone, podczas gdy inne, gdy się je powiększy, wykażą nowe odcinki czerwieni wewnątrz zieleni albo zieleni wewnątrz czerwieni. Oznacza to, że dla pewnych położeń wyrzutni mała zmiana nie czyni różnicy. Ale dla innych nawet dowolnie mała zmiana będzie prowadziła do różnych wyników. Aby dodać drugi wymiar, trzeba dołożyć drugi parametr, drugi stopień swobody. Jeśli chodzi o bilard szpilkowy, można by rozważyć wpływ zmiany nachylenia pola gry. Można odkryć rodzaj złożoności typu „do i od”, która mogłaby przyprawić o bezsenność inżynierów odpowiedzialnych za sterowanie stabilnością czułych, ruchliwych, rzeczywistych układów z więcej niż jednym parametrem — na przykład elektrycznych sieci energetycznych czy elektrowni atomowych; oba układy w latach osiemdziesiątych stały się przedmiotem badań inspirowanych teorią chaosu. Dla jednej wartości parametru A parametr B mógłby przywracać uporządkowany rodzaj zachowania ze spójnymi obszarami stabilności. Inżynierowie mogliby
wykonywać badania i wykresy dokładnie zgodne z ich liniowo zorientowanym wykształceniem. Jednak w pobliżu mogłaby się czaić inna wartość parametru A, która zmieniałaby znaczenie parametru B. Yorke na kilku konferencjach przedstawił grafiki fraktalnych granic basenów. Niektóre obrazki reprezentowały zachowanie wahadeł wymuszonych, które mogły dążyć do jednego z dwóch stanów końcowych — wahadło wymuszone jest, jak jego słuchacze doskonale wiedzieli, fundamentalnym oscylatorem z wieloma realizacjami w codziennym życiu. „Nikt nie może powiedzieć, że skleciłem układ, wybierając odpowiednio wahadło — jowialnie stwierdził Yorke 21. — To jest rzecz, którą można ujrzeć wszędzie w przyrodzie. Ale zachowanie jest różne od czegokolwiek, co można znaleźć w literaturze. To jest dzikie zachowanie fraktalne”. Obrazki przedstawiały fantastyczne biało-czarne wiry, jak gdyby w miseczce od miksera kilkakrotnie zabełtano w procesie niekompletnego mieszania budyń waniliowy i czekoladowy. Aby wykonać takie obrazki, jego komputer przemiatał sieć punktów 1000 na 1000, przy czym każdy z nich reprezentował różne punkty początkowe dla wahadła i wykreślał wynik: biały lub czarny. To były baseny przyciągania, wymieszane i składane przez znajome równania ruchu newtonowskiego, a wynikiem było więcej granic niż czegokolwiek innego. Zwykle więcej niż trzy czwarte wykreślonych punktów leżało na granicach.
JAMES A. YORKE
Fraktalne granice basenów. Nawet jeśli długookresowe zachowanie się układów dynamicznych nie jest chaotyczne, chaos może się pojawić na granicy pomiędzy jednym a drugim rodzajem stabilnego zachowania. Często układ dynamiczny ma więcej niż jeden stan równowagi jak wahadło, które może się zatrzymać przy jednym z dwóch magnesów umieszczonych u jego podstawy. Każde położenie równowagi jest atraktorem, a granica między dwoma atraktorami może być złożona, chociaż ciągła (po lewej). Albo granica może być złożona, ale nieciągła. Wysoce fraktalne przemieszanie białego i czarnego (po prawej) jest wykresem fazowym wahadła. Układ z pewnością osiągnie jeden z dwóch możliwych stanów stabilnych. Dla pewnych warunków początkowych wynik jest zupełnie przewidywalny — czarne jest czarne, białe jest białe. Ale w pobliżu granicy przewidywanie staje się niemożliwe.
Dla badaczy i inżynierów w rysunkach tych zawarta była lekcja — lekcja i przestroga. Zbyt często potencjalny zakres zachowania złożonych układów musiał być zgadywany na podstawie niewielkiej liczby danych 22. Kiedy układ pracował normalnie, pozostając w wąskim zakresie zmian parametrów, inżynierowie przeprowadzali swoje obserwacje i mieli nadzieję, że będą mogli ekstrapolować mniej lub bardziej liniowo do mniej zwyczajnego zachowania. Ale naukowcy badający fraktalne granice basenów pokazali 23, że granica między ciszą a katastrofą może być bardziej złożona, niż się
komukolwiek śniło. „Cała sieć energetyczna Wschodniego Wybrzeża jest systemem oscylacyjnym, stabilnym przez większość czasu, a ty chciałbyś wiedzieć, co się stanie, gdy ją zaburzysz — powiedział Yorke. — Musisz wiedzieć, jaka jest granica. W rzeczywistości brak jest pojęcia, jak wygląda granica”. Fraktalne granice basenów dotyczą głębokich zagadnień fizyki teoretycznej. Przejścia fazowe były sprawą progów, a Peitgen oraz Richter obserwowali jedno z najlepiej zbadanych przejść fazowych: przejście między namagnesowaniem i nienamagnesowaniem materiałów. Ich grafiki takich granic wykazywały szczególnie piękną złożoność przedstawiającą naturalne, kalafiorowate kształty ze stopniowo coraz bardziej poplątanymi guzkami i bruzdami. Kiedy zmieniali parametry i oglądali szczegóły, wzmacniając powiększenie, jeden grafik wydawał się im coraz bardziej przypadkowy, aż nagle, niespodziewanie, głęboko w sercu oszalałego obszaru pojawił się znany spłaszczony twór usiany pączkami: zbiór Mandelbrota, każdy wąs i każdy atom na swoim miejscu. Był to jeszcze jeden znak uniwersalności. „Może powinniśmy zacząć wierzyć w czary?” — napisali 24. Michael Barnsley poszedł inną drogą. Myślał o własnych obrazach przyrody, szczególnie o strukturach wytwarzanych przez żywe organizmy. Eksperymentował ze zbiorami Julii i próbował innych procesów, zawsze szukając sposobów generowania jeszcze większej zmienności. Ostatecznie zwrócił się ku przypadkowości jako podstawie nowej techniki modelowania naturalnych kształtów. Kiedy pisał o tej technice 25, nazwał ją „globalną konstrukcją fraktali za pomocą iterowania układów funkcji”. Kiedy jednak mówił o tym, nazywał to „grą w chaos”. Aby grać szybko w chaos, potrzeba komputera z ekranem graficznym i generatorem liczb losowych, ale w zasadzie wystarczą też kartka papieru i moneta. Wybierasz początkowy punkt gdzieś na papierze. Obojętnie gdzie.
Wymyślasz dwie reguły: regułę orła i regułę reszki. Reguła mówi ci, jak przechodzić od punktu do punktu: „Przesuń pięć centymetrów na północny wschód” albo „Przesuń 25% bliżej środka”. Teraz zaczynasz rzucać monetę i zaznaczasz punkt, używając reguły reszki, gdy wypadnie reszka, i reguły orła, jeśli wypadnie orzeł. Jeśli wyrzucisz pierwszych pięćdziesiąt punktów, stwierdzisz, że gra w chaos generuje nie przypadkowy rozkład kropek, ale kształt, który ujawnia z coraz większą ostrością w miarę przebiegu gry. Najważniejszym osiągnięciem Barnsleya było zrozumienie, że zbiory Julii i inne kształty fraktalne, chociaż poprawnie postrzegane jako wynik procesu deterministycznego, mają drugie, równie poprawne istnienie jako granica procesu stochastycznego. Przez analogię — sugerował — można sobie wyobrazić mapę Wielkiej Brytanii narysowaną kredą na podłodze pokoju. Geometra wyposażony w standardowe narzędzia uznałby, że to trudne zmierzyć powierzchnię tych kłopotliwych kształtów z fraktalną przecież linią brzegową. Ale załóżmy, że rzucasz nasiona ryżu w powietrze jedno po drugim, pozwalając im spadać przypadkowo na podłogę, i liczysz te ziarna, które lądują wewnątrz mapy. Wraz z upływem czasu wynik zaczyna zmierzać do wielkości powierzchni — wielkość powierzchni jest granicą procesu stochastycznego. W kategoriach dynamicznych kształty Barnsleya okazują się atraktorami. Gra w chaos wykorzystywała fraktalną właściwość pewnych obrazów, właściwość polegającą na tym, że są one zbudowane z małych kopii głównego obrazu. Akt zapisywania zbioru reguł, które mają być iterowane losowo, przechwytuje pewną globalną informację o kształcie, a iteracja reguł na nowo kotłuje informacje bez względu na skalę. W tym sensie im bardziej fraktalny kształt, tym prostsze byłyby odpowiednie reguły. Barnsley szybko stwierdził, że mógłby odtworzyć wszystkie uznane za klasyczne fraktale z książki Mandelbrota. Technika Mandelbrota polegała na nieskończonym
następstwie konstruowania i uszczegółowiania. W przypadku płatka śniegu Kocha albo uszczelki Sierpińskiego usuwa się segmenty liniowe i zastępuje je określonymi figurami. Używając gry w chaos, Barnsley wykonał obrazy, które zaczynały się jako nieścisłe parodie i stawały się stopniowo coraz ostrzejsze. Żaden proces uszczegółowiania nie był konieczny: tylko pojedynczy zbiór reguł, który jakoś zawiera w sobie ostateczny kształt. Barnsley i jego współpracownicy przesiedli się teraz na program generujący wszystkie możliwe obrazy: kapusty, pleśni i błota. Kluczową kwestią było, jak odwrócić proces: mając dany kształt, jak dojść do zbioru reguł. Odpowiedź, która została nazwana przez niego twierdzeniem kolażowym, była tak idiotycznie prosta do opisania, że słuchacze czasami myśleli, że musi to być jakaś sztuczka. Zaczynasz od narysowania kształtu, który chciałeś reprodukować. Barnsley, który od dawna miał słabość do paproci, wybrał czarną zanokcicę ciemną do jednego ze swoich pierwszych doświadczeń. Następnie, używając terminalu komputera i myszki jako urządzenia wskazującego, kładziesz małe kopie na oryginalny kształt, przy czym mogą się one nakładać, jeśli to konieczne. Wysoce fraktalny kształt może łatwo zostać pokryty kopiami samego siebie, mniej fraktalny — trudniej, ale na pewnym poziomie przybliżenia każdy kształt może być pokryty. „Jeśli obraz jest złożony, reguły będą złożone — powiedział Barnsley 26. — Z drugiej strony, jeśli obiekt ma ukryty porządek fraktalny — a najważniejsza obserwacja Benoita mówi, że prawie cała przyroda ma ten ukryty porządek — to będzie możliwe zdekodowanie go za pomocą kilku reguł. Model ten następnie jest bardziej interesujący niż model wykonany za pomocą geometrii euklidesowej, ponieważ wiemy, że kiedy patrzymy na brzeg liścia, nie widzimy prostych linii”. Jego pierwsza paproć, wygenerowana za pomocą komputera osobistego, idealnie pasowała do
rysunku z książki o paprociach, którą posiadał od dzieciństwa. „To był zdumiewający obraz, dokładny w każdym szczególe. Żaden biolog nie miałby kłopotu z jego zidentyfikowaniem”.
MICHAEL BARNSLEY
Gra w chaos. Każdy nowy punkt pada przypadkowo, ale stopniowo wyłania się obraz paproci. Wszystkie konieczne informacje są zakodowane w kilku prostych regułach.
W jakimś sensie — twierdził Barnsley — przyroda musi grać w swoją wersję gry w chaos. „Jest tylko tyle informacji w jednym zarodku, ile potrzeba do zakodowania paproci. Istnieje więc granica drobiazgowości,
z którą paproć może rosnąć. Nie jest zaskakujące, że możemy znaleźć ekwiwalent zwięzłej informacji do opisywania paproci. Byłoby dziwne, gdyby było inaczej”. Ale czy przypadek był konieczny? Hubbard również myślał o paralelach pomiędzy zbiorem Mandelbrota i biologicznym kodowaniem informacji, ale jeżył się na samą myśl, że taki proces mógłby zależeć od prawdopodobieństwa. „Nie ma żadnej przypadkowości w zbiorze Mandelbrota — powiedział 27. — Nie ma żadnej przypadkowości w niczym, czym się zajmuję. Nie myślę również, że możliwość przypadkowości ma jakiekolwiek bezpośrednie zastosowanie w biologii. W biologii przypadkowość oznacza śmierć, chaos to śmierć. Wszystko jest wysoce ustruktualizowane. Jeśli klonujesz rośliny, kolejność, w jakiej wyrastają gałęzie, jest dokładnie taka sama. Zbiór Mandelbrota wypełnia pewien niezwykle precyzyjny plan, nie pozostawiając niczego przypadkowi. Podejrzewam, że w dniu, w którym ktoś rzeczywiście wyliczy, jak jest zorganizowany mózg, odkryje, ku swojemu zdziwieniu, że istnieje nadzwyczaj precyzyjny schemat budowy mózgu. Idea przypadkowości w biologii jest tylko pozorna”. W technice Barnsleya jednak przypadkowość służy tylko jako narzędzie. Wyniki są deterministyczne i przewidywalne. Gdy punkty błyskają na ekranie komputera, nikt nie jest w stanie przewidzieć, gdzie pojawi się następny; zależy to od tego, jak spada w maszynie jej wewnętrzna moneta. Jednak strumień światła zawsze pozostaje wewnątrz granic niezbędnych do wyrzeźbienia kształtu wyrytego w fosforze. W tej mierze rola przypadku jest iluzją. „Przypadkowość to mylny trop — powiedział Barnsley 28. — Jest ważna przy otrzymywaniu obrazów mających pewną niezmienniczą miarę skoncentrowaną na obiekcie fraktalnym. Ale sam obiekt nie zależy od przypadku. Z prawdopodobieństwem równym jeden zawsze wykreślasz ten
sam obraz. Sondowanie obiektów fraktalnych za pomocą przypadkowego algorytmu daje o nich dokładne informacje. Gdy wchodzimy do nowego pokoju, nasze oczy tańczą wokół niego w jakimś porządku, który moglibyśmy uznać za przypadkowy, a otrzymujemy dobre wyobrażenie pokoju. Jest on tym, czym jest. Obiekt istnieje bez względu na to, co ja robię przypadkowo”. Zbiór Mandelbrota istnieje na tej samej zasadzie. Istniał, zanim Peitgen i Richter zaczęli przekształcać go w formę artystyczną, zanim Hubbard i Douady zrozumieli jego istotę matematyczną, nawet zanim Mandelbrot go odkrył. Istniał od momentu, kiedy nauka stworzyła kontekst — liczby zespolone i pojęcie funkcji iterowanych. Potem czekał na odkrycie. Albo może istniał nawet wcześniej, kiedy przyroda zaczęła się organizować za pomocą praw fizyki, powtarzał się z nieskończoną cierpliwością i zawsze ten sam.
1
M. Barnsley. 2 J.H. Hubbard; patrz również Adrien Douady, Julia Sets and the Mandelbrot Set, s. 161173. Zasadniczy tekst książki The Beauty of Fractals także podaje matematyczne omówienie metody Newtona, jak również określa aspekty złożonej dynamiki dyskutowane w tym rozdziale. 3 Tamże, s. 170. 4 J.H. Hubbard. 5 J.H. Hubbard; Adrien Douady, The Beauty of Fractals; Peter H. Richter, Heinz-Otto Peitgen, Morphology of Complex Boundaries, „Bunsen-Gesellschaft für Physikalische Chemie” 1985, 89, s. 575-588. 6 Przystępnym wprowadzeniem do zagadnienia zbioru Mandelbrota z instrukcją, jak napisać własny program mikrokomputerowy, jest praca A.K. Dewdneya Computer Recreations, „Scientific American” July 1985, s. 16-32. Peitgen i Richter w The Beauty of Fractals przedstawiają szczegółowe omówienie matematyki oraz kilka najbardziej spektakularnych zdjęć zbioru. 7 J.H. Hubbard, na przykład. 8 Adrien Douady, Julia Sets and the Mandelbrot Set, s. 161.
9
B. Mandelbrot, M. Laff, J.H. Hubbard. Raport Mandelbrota napisany w pierwszej osobie na ten temat został opublikowany jako Fractals and the Rebirth Iteration Theory, w: The Beauty of Fractals, s. 151-160. 10 B. Mandelbrot. 11 J.H. Hubbard. 12 H.-O. Peitgen. 13 J.H. Hubbard. 14 J.H. Hubbard. 15 H.-O. Peitgen. 16 H.-O. Peitgen. 17 H.-O. Peitgen. 18 Program rysujący zbiór Mandelbrota wymaga tylko kilku drobiazgów. Główną maszynerią jest pętla zawierająca kilka instrukcji, która bierze początkową liczbę zespoloną i stosuje do niej reguły arytmetyczne. Dla zbioru Mandelbrota reguła ma postać: z –> z 2 + c, gdzie z początkowo ma wartość zero, a c jest liczbą zespoloną odpowiadającą punktowi, który jest testowany. Tak więc weź 0, pomnóż je przez siebie i dodaj liczbę początkową; weź wynik — liczbę początkową — pomnóż ją przez siebie i dodaj początkową wartość; weź nowy wynik, pomnóż go przez siebie i dodaj liczbę początkową. Arytmetyka liczb zespolonych jest łatwa. Liczba zespolona jest zapisywana za pomocą dwóch składników: na przykład 2 + 3i (położenie punktu 2 na wschód i 3 na północ na płaszczyźnie zespolonej). Aby dodać dwie liczby zespolone, musisz tylko dodać obie części rzeczywiste, aby otrzymać nową część rzeczywistą oraz obie części urojone, aby otrzymać nową część urojoną: 2 + 4i + 9 – 2i ——— 11+2i Aby pomnożyć dwie liczby zespolone, mnożysz każdą część jednej liczby przez każdą część drugiej liczby i dodajesz do siebie te cztery wyniki. Ponieważ i pomnożone przez siebie jest równe –1, zgodnie z oryginalną definicją liczb urojonych, jeden wyraz przechodzi w drugi: 2 + 3i x 2 + 3i ——— 6i + 9i 2 4 + 6i 4 + 12i + 9i 2 = 4 + 12i – 9 = – 5 +12i
Aby wyjść z tej pętli, program musi obserwować bieżącą sumę. Jeśli suma zmierza do nieskończoności, odchodząc coraz dalej od środka płaszczyzny, wyjściowy punkt nie należy do zbioru, a jeśli bieżąca suma staje się większa niż 2 albo mniejsza niż – 2 zarówno w swojej rzeczywistej, jak i urojonej części, z pewnością zmierza do nieskończoności — program może działać dalej. Ale jeśli program powtarza się wiele razy i części liczby zespolonej nie przekraczają 2, to punkt należy do zbioru. To, jak wiele razy, zależy od wielkości powiększenia. Dla skal dostępnych dla komputerów osobistych 100 albo 200 to bardzo dużo, 1000 to liczba bezpieczna. Program musi powtarzać ten proces dla każdego z tysięcy punktów na ekranie, w skali, która może być nastawiona na silniejsze powiększenie. I program musi wyświetlać wyniki. Jedne punkty mogą być zaznaczone kolorem czarnym, inne białym. Albo, aby obraz uczynić bardziej interesującym, białe punkty mogą zostać zastąpione jakąś paletą kolorów. Jeśli na przykład iteracja kończy się po dziesięciu pętlach, program mógłby wykreślić czerwoną kropkę, dla dwudziestu — pomarańczową, dla czterdziestu — żółtą itd. Wybór kolorów i liczba powtórzeń mogą być dobrane zgodnie ze smakiem programisty. Kolory ukazują kontury terenu znajdującego się tuż za właściwym zbiorem. 19 J.A. Yorke; dobrym wprowadzeniem dla czytelników o pewnym przygotowaniu jest praca Stevena W. MacDonalda, Celso Grebogi, Edwarda Otta i Jamesa A. Yorke’a, Fractal Basin Boundaries, „Physica” 1985, 17D, s. 125-183. 20 Yorke. 21 J.A. Yorke, uwagi z konferencji na temat perspektyw w dynamice biologicznej i medycynie teoretycznej, National Institutes of Health, Bethesda, Maryland, 10 kwietnia 1986. 22 J.A. Yorke. 23 Podobnie w podręczniku na temat chaosu dla inżynierów H. Bruce Stewart i J.M. Thompson ostrzegali: „Uśpiony w fałszywym poczuciu bezpieczeństwa przez dobrą znajomość unikatowej odpowiedzi układu liniowego, czynny analityk albo eksperymentator wykrzykuje «Eureka, to jest rozwiązanie!», gdy symulacja osiąga równowagę stałego cyklu, nie kłopocząc się żmudnym badaniem wyników dla różnych warunków początkowych. Aby uniknąć potencjalnie niebezpiecznych błędów i nieszczęść, projektanci przemysłowi muszą być przygotowani na poświęcenie dużego wysiłku na badanie pełnego zakresu odpowiedzi dynamicznych swoich układów” (Nonlinear Dynamics and Chaos, Wiley, Chichester 1986). 24 H.-O. Peitgen, P. Richter, The Beauty of Fractals, s. 136. 25 Michael Barnsley, Iterated Function Systems and the Global Construction of Fractals, „Proceedings of the Royal Society of London” 1985, A 399, s. 243-275. 26 M. Barnsley. 27 J.-H. Hubbard. 28 M. Barnsley.
Chaolodzy z Santa Cruz Komunikacja ponad rewolucyjnymi podziałami jest w sposób nieunikniony częściowa. Thomas S. Kuhn
Santa Cruz 1 to od niedawna istniejące miasteczko uniwersyteckie University of California, leżące w bajkowej scenerii, godzinę drogi na południe od San Francisco. Ludzie czasem mówią, że przypomina raczej park narodowy niż college. Budynki są usadowione wśród sekwoi i, zgodnie z duchem czasu, planiści starali się zachować każde rosnące tam drzewo. Wąskie ścieżki dla pieszych biegną od jednego do drugiego miejsca. Całe miasteczko leży na szczycie wzgórza, tak że od czasu do czasu zdarza się stąd dojrzeć iskrzące się fale zatoki Monterey. Santa Cruz zostało otwarte w 1966 roku i w ciągu kilku lat stało się najpopularniejszym uniwersytetem w Kalifornii. Studentom kojarzyło się z wieloma postaciami intelektualnej awangardy. Wykładali tam Norman O. Brown, Gregory Bateson i Herbert Marcuse, a Tom Lehrer śpiewał. Ale w zakładach naukowych, które musiały oczywiście zostać zbudowane od podstaw, perspektywy były niepewne — a fizyka nie była wyjątkiem. Wydział zatrudniał około piętnastu fizyków, energicznych i w większości młodych, pasujących do mieszaniny zdolnych niekonformistów przyciąganych przez Santa Cruz. Wpływ na nich wywierała wolnomyślicielska ideologia czasu; jednak również oni, fizycy, spoglądali na południe, w kierunku California Institute of Technology, i uświadamiali sobie, że muszą ustanowić standardy i zasłużyć sobie na to, by ich traktowano poważnie.
Jednym z poważnych doktorantów, o czym wszyscy wiedzieli, był Robert Stetson Shaw, brodaty bostończyk, absolwent Harvardu, najstarszy z sześciorga dzieci lekarza i pielęgniarki. W roku 1977 miał trzydziestkę, co powodowało, że był starszy niż większość doktorantów; jego harwardzka kariera była przerywana kilka razy — służbą wojskową, życiem w komunie i innymi zaimprowizowanymi doświadczeniami leżącymi gdzieś pomiędzy tymi dwoma krańcami. Nie wiedział, dlaczego przybył do Santa Cruz. Nigdy przedtem nie widział miasteczka uniwersyteckiego, chociaż oglądał broszurę ze zdjęciami sekwoi i tekstem o próbach nowej filozofii kształcenia 2. Shaw był cichy i nieśmiały, ale na swój sposób przekonywający. Był dobrym studentem i brakowało mu tylko kilku miesięcy do ukończenia swojej rozprawy doktorskiej na temat nadprzewodności. Nikt się nie przejmował tym, że Shaw marnuje czas na dole w budynku fizyki, bawiąc się komputerem analogowym. Edukacja fizyka zależy od układu nauczyciel–uczeń. Ustabilizowani profesorowie przyjmują asystentów, aby pomogli im w pracy laboratoryjnej albo w żmudnych obliczeniach. W zamian doktoranci i praktykanci mogą korzystać z pieniędzy na finansowanie swego tematu badawczego i są współautorami publikacji. Dobry nauczyciel pomaga swojemu studentowi wybrać problemy, które będą zarówno rozwiązywalne, jak i owocne. Jeśli współpraca się układa, kontakty profesora pomagają jego protegowanemu znaleźć zatrudnienie. Często ich nazwiska zostają połączone na zawsze. Jednak kiedy nauka jeszcze nie istnieje, tylko niewielu jest gotowych do jej nauczania. W roku 1977 nie było jeszcze nauczycieli chaosu. Nie było seminariów z teorii chaosu, żadnych badań złożonych układów nieliniowych, żadnych podręczników ani nawet czasopism na temat chaosu. William Burke, kosmolog i relatywista z Santa Cruz, wpadł do swojego kolegi, Edwarda A. Spiegela, astrofizyka, o pierwszej po południu do
bostońskiego hotelu, gdzie obradowała konferencja na temat ogólnej teorii względności 3. „Cześć, właśnie słuchałem atraktora Lorenza” — powiedział Spiegel. Spiegel przeobraził to godło chaosu, używając jakiegoś zaimprowizowanego zespołu obwodów elektrycznych, podłączonych do zestawu hi-fi, w zapętloną antymelodię brzmiącą jak zagrana na piszczałce z suwakiem. Wziął Burke’a do baru na drinka, aby mu wyjaśnić, jak to zrobił. Spiegel znał Lorenza osobiście i wiedział o chaosie od lat sześćdziesiątych. Wziął się z zapałem do poszukiwania dowodów wskazujących na nieregularne zachowania w modelach ruchu gwiazd i pozostawał w ścisłym kontakcie z francuskimi matematykami. Wreszcie, jako profesor Columbia University, uczynił z turbulencji w kosmosie — z „kosmicznej arytmii” 4 — główny przedmiot swoich zainteresowań. Posiadał umiejętność urzekania swoich kolegów nowymi ideami i zanim nadeszła noc, urzekł Burke’a. Burke był otwarty na takie rzeczy. Zdobył swoją reputację pracą nad jednym z bardziej paradoksalnych wkładów Einsteina do fizyki — nad rozchodzeniem się fal grawitacyjnych w czasoprzestrzeni. Był to wysoce nieliniowy problem, przy czym nieregularne zachowanie miało coś do czynienia z kłopotliwymi nieliniowościami w dynamice płynów. Był on również odpowiednio abstrakcyjny i teoretyczny, ale Burke lubił także „przyziemną” fizykę, a kiedyś nawet opublikował pracę o optyce szklanki do piwa: jak grube mogłoby być szkło szklanki, aby pozostawało wrażenie, że jest w niej zwykła porcja piwa. Lubił mówić, że jest nieco „cofnięty”, ponieważ uważa fizykę za rzeczywistość. Ponadto czytał pracę Roberta Maya w „Nature” zawierającą jego pełen żalu apel o bardziej intensywne kształcenie w zakresie prostych układów nieliniowych. Spędził również kilka godzin z kalkulatorem, bawiąc się równaniami Maya. Tak więc atraktor Lorenza brzmiał interesująco. Nie miał zamiaru go słuchać. Chciał go
zobaczyć. Kiedy wrócił do Santa Cruz, wręczył Robowi Shaw kawałek papieru, na którym nabazgrał układ trzech równań różniczkowych. Czy Shaw mógłby wprowadzić je do komputera analogowego? W ewolucji komputerów maszyny analogowe stanowiły ślepy zaułek. Nie należały do wyposażenia zakładów fizyki i istnienie ich w Santa Cruz było prawie przypadkowe: w pierwotnych zamierzeniach w Santa Cruz miały powstać szkoły inżynieryjne 5; gdy zrezygnowano z tego planu, okazało się, że gorliwy zaopatrzeniowiec zdążył już zakupić nieco wyposażenia. Komputery cyfrowe zbudowane z obwodów, które przełączały się pomiędzy dwoma stanami: zero lub jeden, tak lub nie, dawały precyzyjne odpowiedzi na pytania stawiane przez programistę i okazały się podatne na miniaturyzację i nowe technologie, które rządziły rewolucją komputerową. Wszystko, co zostało wykonane na jednym komputerze cyfrowym, można było powtórzyć na innym komputerze cyfrowym, uzyskując dokładnie ten sam wynik. Komputery analogowe były według założeń mniej dokładne. Tch elementami składowymi nie były przełączniki typu „tak–nie”, ale obwody elektroniczne złożone z rezystorów i kondensatorów — doskonale znane każdemu, kto tak jak Shaw bawił się radioelektroniką przed erą półprzewodników. Systron-Donner, maszyna stosowana w Santa Cruz, była ciężkim, zakurzonym gratem z tablicą połączeń na płycie frontowej, taką jak w dawnych łącznicach telefonicznych. Programowanie komputera analogowego było sprawą wyboru elektronicznych elementów i włączania przewodów w tablicę połączeń. Poprzez tworzenie różnych kombinacji obwodów programista symulował układy równań różniczkowych w sposób, który przypadkowo dobrze pasował do problemów inżynierskich 6. Powiedzmy, że chciałeś zamodelować zawieszenie samochodu, ze sprężynami, amortyzatorami i masą, aby zaprojektować samochód pozwalający na bardzo płynną jazdę. Oscylacje
w zespole obwodów mogą zostać dopasowane do oscylacji w układzie fizycznym. Kondensator przejmuje rolę sprężyny, zwojnica — masy itd. Obliczenia nie są precyzyjne. Obliczeń numerycznych się nie wykonuje. Zamiast tego masz model zrobiony z metalu i elektronów; jest on całkiem szybki i — co najważniejsze — łatwo dopasowywalny. Po prostu za pomocą pokrętła możesz dopasować zmienne, uczynić sprężyny mocniejszymi albo tarcie słabszym. I możesz obserwować zmiany wyników w czasie rzeczywistym w postaci wzoru przesuwającego się na ekranie oscyloskopu. Na górze w pracowni nadprzewodnictwa Shaw pracował bez entuzjazmu nad zakończeniem swojej pracy doktorskiej. Ale coraz więcej czasu spędzał, bawiąc się Systron-Donnerem. Miał na czym oglądać portrety fazowe kilku prostych układów — reprezentacje orbit okresowych albo cykle graniczne. Jeśli widział chaos w formie dziwnych atraktorów, to z pewnością go nie rozpoznawał. Równania Lorenza, wręczone mu na kawałku papieru, nie były bardziej złożone niż układy, którymi do tej pory się zajmował. Włączenie odpowiednich przewodów i ustawienie pokręteł zabrało mu tylko kilka godzin. Parę minut później Shaw wiedział, że nigdy nie skończy swojej dysertacji na temat nadprzewodników 7. Spędził kilka nocy w piwnicy, śledząc zieloną plamkę oscyloskopu biegnącą na ekranie, kreślącą wciąż od nowa charakterystyczną sowią maskę atraktora Lorenza. Kształt ten długo pozostawał na siatkówce — migocący i trzepocący, niepodobny do żadnego obiektu, jakie Shaw dotąd widział w swoich badaniach. Wydawało się, że jest żywy. Kreślony wzór, który nigdy się nie powtarzał, przywodził na myśl płomień. Niedokładność i niezupełna powtarzalność komputera analogowego miała swoje zalety. Shaw szybko odkrył wrażliwość na warunki początkowe, które przekonały Edwarda Lorenza o bezowocności długoterminowych prognoz pogody. Ustawiał warunki początkowe, naciskał guzik startu i pojawiał się atraktor.
Następnie ustawiał te same warunki początkowe — tak bliskie, jak to było fizycznie możliwe — i orbita odpływała wesoło od poprzedniego kursu, jednak kończyła na tym samym atraktorze. Jako dziecko Shaw miał złudzenia dotyczące tego, czym jest nauka – romantycznym atakiem na nieznane. To było wreszcie coś, co przystawało do jego złudzeń. Fizyka niskich temperatur była zabawna z punktu widzenia majsterkowicza, z licznymi przewodami i wielkimi magnesami, ciekłym helem i skalami tarczowymi. Ale według niego, to, co robił, prowadziło donikąd. Wkrótce przeniósł komputer analogowy na górę i w pokoju tym już nigdy więcej nie wykonywano badań naprzewodnictwa. * „Wystarczy, abyś położył ręce na tych pokrętłach i nagle badasz inny świat, w którym jesteś jednym z pierwszych podróżników i nawet nie chcesz się wynurzyć, żeby zaczerpnąć tchu” — powiedział Ralph Abraham 8, profesor matematyki, który wpadł już w pierwszych dniach, by pooglądać atraktor Lorenza w ruchu. Był on ze Steve’em Smale’em w pamiętnych dniach w Berkeley, a zatem był jednym z bardzo niewielu członków wydziału, którzy dysponowali dostateczną wiedzą, aby zrozumieć znaczenie „gier komputerowych” Shawa. Jego pierwszą reakcją było zaskoczenie szybkością wyświetlenia — Shaw dodał jeszcze, że używał dodatkowych kondensatorów, aby powstrzymać komputer przed jeszcze szybszą pracą. Atraktor był również solidny. Dowiodła tego niedokładność obwodów analogowych — strojenie i kręcenie gałkami nie powodowało znikania atraktora ani przeistaczania się w coś przypadkowego; przekształcał się albo zginał w sposób, który powoli nabierał sensu. „Rob miał świetną intuicję i wiedział, gdzie niewielka eksploracja doprowadzi do ujawnienia wszystkich sekretów — powiedział Abraham. — Wszystkie ważne koncepcje jak
wykładnik Lapunowa wymiar fraktalny objawią ci się w naturalny sposób. Widzisz je i zaczynasz badać”. Czy to była nauka? Z pewnością ta zabawa z komputerem, bez formalizmów i dowodów, nie była matematyką i żadna życzliwa zachęta nie mogła tego zmienić. Wydział fizyki nie widział też żadnej przyczyny, aby uważać ją za fizykę. Cokolwiek to było, budziło zainteresowanie. Shaw zwykle zostawiał otwarte drzwi do swojego pokoju, a tak się składało, że wejście do zakładu fizyki było akurat po drugiej stronie holu. Ruch pieszy był znaczny. Wkrótce więc Shaw założył zespół badawczy. Grupa, która nazwała siebie Dynamical Systems Collective (Zespół Problemowy Dynamiki Nieliniowej), a którą inni nazywali Chaos Cabal (Klika Chaotyczna) — koncentrowała się wokół Shawa. Shaw w jakimś sensie nie wierzył w swoje siły, jeśli chodziło o promowanie własnych idei na akademickim rynku; na szczęście jego nowi towarzysze nie mieli takich problemów. Oni z kolei często orientowali się według jego niewzruszonej wizji, jak wykonać niezaplanowany program badawczy w zakresie nieuznawanej dziedziny wiedzy. Doyne Farmer 9, wysoki, kościsty Teksańczyk o blond włosach, okazał się najlepszym rzecznikiem grupy. W roku 1977 miał dwadzieścia cztery lata i był pełnym energii i entuzjazmu młodym człowiekiem z głową pełną pomysłów. Ci, którzy go spotkali, początkowo podejrzewali, że wszystko, co mówi, to czcza gadanina. Norman Packard, trzy lata młodszy, był przyjacielem Farmera z dzieciństwa. Wychował się w tym samym co on mieście Nowego Meksyku, Silver City, i przybył do Santa Cruz tej jesieni, kiedy Farmer zaczynał swój roczny urlop, podczas którego chciał poświęcić całą energię na zastosowanie praw ruchu do gry w ruletkę. To przedsięwzięcie było równie poważne co naciągane. Przez ponad dziesięć lat Farmer i wciąż zmieniająca się grupa fizyków, profesjonalnych graczy
i pochlebców śnili ten sen o ruletce. Farmer nie poddał się nawet wtedy, gdy przeniósł się na oddział teoretyczny w Los Alamos National Laboratory. Obliczali nachylenia i trajektorie, pisali i poprawiali programy, wstawiali komputery do butów i dokonywali nerwowych najazdów na kasyna gry. Ale nic nie funkcjonowało tak, jak powinno. Od czasu do czasu wszyscy członkowie zespołu, poza Shawem, trwonili swoją energię na ruletkę i trzeba powiedzieć, że ten projekt stanowił dla nich niezwykły trening w szybkiej analizie układów dynamicznych, ale to nie upewniało członków wydziału fizyki w Santa Cruz, że Farmer traktuje naukę poważnie. Czwartym członkiem grupy był James Crutchfield, najmłodszy i jedyny rodowity Kalifornijczyk. Był niski i potężnie zbudowany, uprawiał windsurfing i — co najważniejsze dla zespołu — był mistrzem w dziedzinie obliczeń. Crutchfield przybył do Santa Cruz jako student, pracował jako laborant w „przedchaotycznych” eksperymentach Shawa z nadprzewodnictwa, spędził rok, jeżdżąc tam i z powrotem „za wzgórze”, jak mówiło się w Santa Cruz o pracy w centrum badawczym IBM w San Jose, i w efekcie nie został w zakładzie fizyki jako absolwent przed 1980 rokiem. Do tego czasu spędził dwa lata, kręcąc się wokół pracowni Shawa i gwałtownie garnąc się do matematyki, której potrzebował, aby zrozumieć układy dynamiczne. Jak reszta grupy utracił kontakt ze standardowym programem badawczym instytutu fizyki. Dopiero wiosną roku 1978 w zakładzie zaczęto wierzyć, że Shaw chce porzucić swoją rozprawę na temat nadprzewodników. Był tak blisko końca. Nieważne, jak był tym znudzony: członkowie rady wydziału uważali, że mógłby pospiesznie przejść przez formalności, otrzymać stopień doktora i przenieść się do realnego świata. Co się tyczy chaosu, były problemy z jego akademickim zakwalifikowaniem. Nikt w Santa Cruz nie posiadał dostatecznej wiedzy w tej dziedzinie bez nazwy, aby móc promować prace
doktorskie. Nikt dotąd nie otrzymał z tych zagadnień doktoratu. Z pewnością nie było zapotrzebowania na absolwentów z tą specjalnością. Była to również kwestia pieniędzy. Fizyka w Santa Cruz 10, jak w każdym amerykańskim uniwersytecie, była finansowana głównie przez National Science Foundation i inne agencje rządu federalnego poprzez granty przekazywane członkom wydziału. Marynarka, lotnictwo, Departament Energii, Centralna Agencja Wywiadowcza wydawały potężne sumy na badania podstawowe, nie dbając o bezpośrednie zastosowania w hydrodynamice, aerodynamice, energetyce czy w wywiadzie. Członek rady wydziału powinien wziąć tyle, aby mu starczyło na zakupienie wyposażenia i na płace dla asystentów — studentów starszych lat dołączonych do jego grantu. Musiał płacić za fotokopie dla nich, za ich podróże na konferencje naukowe, a nawet wynagrodzenia za miesiące wakacyjne. Był to system, od którego Shaw, Packard i Crutchfield sami się teraz odcięli. Kiedy pewne rodzaje wyposażenia elektronicznego zaczęły znikać w nocy, rozsądnie było szukać ich w dawnej pracowni niskich temperatur Shawa. Czasami członek zespołu zdołał wyżebrać sto dolarów od stowarzyszenia studentów albo instytut fizyki znalazł sposób, aby załatwić taką kwotę. W pracowni pojawiły się plotery, przetworniki, filtry elektroniczne. Zespół fizyki cząstek na końcu korytarza miał mały komputer cyfrowy, który został przeznaczony na złom; znalazł się niebawem w pracowni Shawa. Farmer okazał się szczególnie dobrym specjalistą od „organizowania” czasu dostępu do komputera. Kiedyś został zaproszony do National Center for Atmospheric Research w Boulder w stanie Kolorado, gdzie potężne komputery obsługiwały badania z zakresu takich spraw jak modelowanie globalnej pogody. Jego zdolność do „wysysania” drogiego czasu pracy tych maszyn zadziwiła klimatologów. Zdolności do majsterkowania dobrze im służyły. Shaw już jako dziecko
miał „złote ręce” 11. Packard jako chłopiec naprawiał telewizory w Silver City. Crutchfield należał do pierwszego pokolenia matematyków, dla których logika procesorów komputerowych była językiem naturalnym. Sam budynek instytutu fizyki, chowający się w cieniu sekwoi, był taki sam jak wiele innych instytutów fizyki w USA, z uniwersalnymi podłogami i ścianami z betonu, które zawsze wymagają malowania, ale w pokoju przejętym przez grupę „chaologów” zapanowała swoista atmosfera: stosy papierów, zdjęć Tahitanek na ścianach i wydruków dziwnych atraktorów. Prawie o każdej porze, chociaż noc była pewniejsza niż ranek, odwiedzający mógł ujrzeć członków grupy przestawiających obwody, wyszarpujących przewody z tablic rozdzielczych, spierających się na temat świadomości czy teorii ewolucji, regulujących obraz na oscyloskopie albo tylko obserwujących zieloną plamkę kreślącą linię na ekranie, plamkę, której orbita migotała i kotłowała się jak żywa istota. „Pociąga nas wszystkich ta sama sprawa: idea, że jest determinizm, ale niezupełnie — powiedział Farmer. — Pogląd, że wszystkie te klasyczne układy deterministyczne, o których się uczyliśmy, mogły generować przypadkowość, był intrygujący. Chcieliśmy po prostu wiedzieć, co się za tym kryje. Nie możesz ocenić, jakim to było dla nas objawieniem, jeśli nie miałeś w swoim życiorysie sześciu czy siedmiu lat prania mózgu przez typowy program nauczania fizyki. Uczono cię, że są klasyczne modele, gdzie wszystko jest zdeterminowane przez warunki początkowe, a następnie, że są modele mechaniki kwantowej, gdzie rzeczy są określone, ale trzeba walczyć z granicą precyzji, z jaką można gromadzić początkowe informacje. Nieliniowość — to słowo, które mogłeś spotkać na końcu książki. Student fizyki uczęszcza na kurs matmy i po raz pierwszy spotyka się z równaniami nieliniowymi, czytając ostatni rozdział podręcznika. Możesz zwykle go
opuścić, a jeśli tego nie uczynisz, przeczytasz jedynie o przekształceniu tych równań nieliniowych w liniowe, więc w każdym razie otrzymasz przybliżone rozwiązania. To po prostu zniechęca. Nie mamy żadnej koncepcji rzeczywistej różnicy, jaką stanowi nieliniowość wprowadzona do modelu. Idea, że równanie mogłoby się odbijać w kółko w jawnie przypadkowy sposób, jest naprawdę podniecająca. Mógłbyś zapytać: «Skąd się bierze ta przypadkowość? Nie widzę jej w równaniu». Wygląda, jakbyśmy dostali coś za darmo albo coś z niczego”. Crutchfield powiedział: „To było uświadomienie sobie, że w tym jest całe królestwo fizycznego doświadczenia, które nie mieści się w aktualnych ramach. Dlaczego nie było to częścią tego, czego nas uczono? Mieliśmy szansę ujrzenia najbliższego otoczenia — świata z całą jego ziemską różnorodnością — i zrozumienia czegoś”. Upojeni własną wizją straszyli swoich profesorów pytaniami o determinizm, naturę inteligencji, kierunek ewolucji biologicznej. „Klejem, który spajał naszą grupę, była dalekosiężna wizja — powiedział Packard. — Uderzało nas, że jeśli weźmiesz regularne, fizyczne układy, które były analizowane w fizyce klasycznej, i dokonasz niewielkiej zmiany w przestrzeni parametrów, dochodzisz do sytuacji, do której cała ta potężna analiza się nie stosuje. Zjawisko chaosu mogło być odkryte na długo wcześniej. Nie było po części dlatego, że ogromna praca nad dynamiką regularnego ruchu nie prowadziła w tym kierunku. Ale wystarczy jedno spojrzenie, żeby dostrzec chaos. To uczy nas, że każdy powinien pozwolić sobie, aby dać się prowadzić przez fizykę, przez obserwacje, żeby zobaczyć, jaki obraz teoretyczny z tego mógłby się wyłonić. Uważaliśmy, że badanie skomplikowanej dynamiki na dłuższą metę mogłoby stanowić punkt wyjścia do zrozumienia naprawdę bardzo, bardzo skomplikowanej dynamiki”.
„Z filozoficznego punktu widzenia — powiedział Farmer — chaos mógłby być operacyjnym sposobem określenia wolnej woli w sposób, który pozwala na jej pogodzenie z determinizmem. Układ jest deterministyczny, ale nie możesz powiedzieć, co się stanie za chwilę. Jednocześnie zawsze miałem wrażenie, że ważne problemy tam w świecie muszą mieć coś wspólnego z organizowaniem się życia czy inteligencji. Ale jak to się bada? To, co robili biologowie, wydaje się zbyt praktycystyczne i specyficzne; chemicy z pewnością nie uczynili nic w tym kierunku; matematycy podobnie, a fizycy po prostu ignorowali problem. Zawsze miałem wrażenie, że spontaniczne wynurzanie się samoorganizacji powinno być częścią fizyki. Oto obie strony medalu. Tutaj porządek z pojawiającą się przypadkowością, a krok dalej — przypadkowość ze swoim własnym porządkiem”. Shaw i jego koledzy musieli przekształcić swój nieposkromiony entuzjazm w program naukowy. Musieli postawić pytania, na które chcieliby odpowiedzieć i na które warto było odpowiedzieć. Szukali sposobów połączenia teorii i doświadczenia — tam była, tak uważali, luka, którą należałoby wypełnić. Przed rozpoczęciem musieli się dowiedzieć, co wiadomo, a czego nie — i to już było potężnym wyzwaniem. Przeszkadzał im fragmentaryczny sposób rozchodzenia się informacji w nauce, szczególnie gdy nowa dziedzina przekraczała ustalone podziały. Często nie mieli pojęcia, czy są na nowym czy na starym terytorium. Bezcennym antidotum na ich ignorancję był Joseph Ford, obrońca chaosu w Georgia Institute of Technology 12. Ford już był przekonany, że dynamika nieliniowa jest przyszłością fizyki — całą przyszłością — i świadczył usługi w zakresie informacji o artykułach naukowych na temat chaosu. Jego dziedziną był chaos niedysypatywny, chaos układów astronomicznych albo chaos w fizyce cząstek. Miał bardzo poufną wiedzę na temat prac
prowadzonych przez szkołę radziecką i usilnie poszukiwał tych, którzy podzielaliby jego filozoficzne zapatrywania na to nowe przedsięwzięcie. Praca każdego naukowca na temat „nauki nieliniowej”, wysłana do Forda, była streszczana i wpisywana na wciąż wydłużającą się listę. Studenci z Santa Cruz dowiedziawszy się o tej liście, wysyłali kartki pocztowe z prośbą o przesłanie kopii nieopublikowanych jeszcze artykułów. Wkrótce zaczęły zalewać ich preprinty. Stwierdzili, że można postawić wiele pytań na temat dziwnych atraktorów 13. Jakie są ich charakterystyczne kształty? Jaka jest ich struktura topologiczna? Co ta geometria mówi o fizyce podobnych układów dynamicznych? Pierwsze przybliżenie dały eksperymenty, od których zaczął Shaw. Dużo matematycznej literatury dotyczyło bezpośrednio struktury, ale matematyczne podejście zaskoczyło Shawa zbytnią szczegółowością — ciągle zbyt wiele drzew i nie dość lasu. Kiedy przedzierał się przez literaturę, odniósł wrażenie, że matematycy, pozbawieni dostępu do nowych technik obliczeniowych, zagrzebali się w szczególnej złożoności struktur orbit, nieskończoności tu, a nieciągłości tam. Matematycy nie dbali specjalnie o analogowe rozmycie; a z punktu widzenia fizyka rozmycie z pewnością steruje rzeczywistymi układami fizycznymi. Shaw widział na swoim oscyloskopie nie indywidualne orbity, lecz obwiednię, w którą wbudowane były orbity. Była to obwiednia, która zmieniała się, kiedy delikatnie obracał pokrętłami. Nie mógł przedstawić ścisłego wyjaśnienia zgięć i skręceń w języku topologii matematycznej. Jednak zaczął czuć, że je rozumie. Fizyk chce zrobić pomiary. Co było do zmierzenia w tych nieuchwytnych obrazach? Shaw i inni próbowali izolować specjalne właściwości, które nadawały dziwnym atraktorom ów czar. Wrażliwość na warunki początkowe — tendencja pobliskich trajektorii do oddalania się. Była to właściwość, która uświadomiła Lorenzowi, że deterministyczne, długoterminowe
prognozowanie pogody było niemożliwe. Ale gdzie jest suwmiarka do wyskalowania tej właściwości? Czy nieprzewidywalność może być mierzona? Odpowiedź na to pytanie leży w idei wykładnika Lapunowa. Ta liczba dostarcza miary właśnie tych topologicznych właściwości, które odpowiadają takim pojęciom jak przewidywalność. Wykładniki Lapunowa w układzie dostarczają sposobu mierzenia sprzecznych efektów rozciągania, ściskania i składania w przestrzeni fazowej atraktora. Dają obraz wszystkich właściwości układu, które prowadzą do stabilności i niestabilności. Wykładnik większy niż zero oznacza rozciąganie — pobliskie punkty rozejdą się. Wykładnik mniejszy od zera oznacza ściskanie. Dla atraktora w postaci pojedynczego punktu wszystkie wykładniki Lapunowa są ujemne, ponieważ przyciąganie jest skierowane do wnętrza, w kierunku końcowego stanu równowagi. Atraktor w formie okresowej orbity ma jeden wykładnik dokładnie równy zeru, a inne ujemne. Dziwny atraktor, okazało się, musi mieć co najmniej jeden dodatni wykładnik Lapunowa.
JULIO M. OTTINO, UNIVERSITY OF MASSACHUSETTS AT AMHERST
Mieszanie chaotyczne. Jeden kleks miesza się gwałtownie; drugi, znajdujący się nieco bliżej środka, prawie się nie miesza. W doświadczeniach Julia M. Ottina i innych z płynami rzeczywistymi proces mieszania się — wszędzie obecny, w przyrodzie i przemyśle, jednak słabo zrozumiały — okazał się ściśle związany z matematyką chaosu. Struktury wykazują rozciąganie i składanie, które prowadzą z powrotem do podkowy Smale’a.
Ku swemu rozczarowaniu studenci z Santa Cruz nie wymyślili tej idei, ale rozwinęli ją w sposób najbardziej praktyczny z możliwych, dowiedziawszy się, jak mierzyć wykładniki Lapunowa i odnieść je do innych ważnych właściwości. Używali animacji komputerowej, by wykonać film ilustrujący mieszanie się porządku i chaosu w układach dynamicznych. Ich analiza ukazywała żywo, jak pewne układy mogą tworzyć nieporządek w jednym kierunku, pozostawać uporządkowane i systematyczne w innym. Jeden film pokazywał, co się stało z malutką gromadą pobliskich punktów — reprezentujących warunki początkowe — znajdujących się na dziwnym atraktorze, gdy układ ewoluował w czasie. Gromada zaczęła się rozpraszać: przekształciła się w kropkę, a potem w kleks. W przypadku pewnych rodzajów atraktorów plamka szybko rozpraszała się po całym atraktorze. Takie atraktory były skuteczne w mieszaniu. W przypadku innych atraktorów jednak rozpraszanie występowało tylko w pewnych kierunkach. Plamka stawała się paskiem, chaotycznym wzdłuż jednej osi i uporządkowanym wzdłuż innej, jak gdyby w tym samym momencie dążącym do porządku i nieporządku, i oba impulsy się sprzęgały. Gdy jeden impuls prowadził do przypadkowej nieprzewidywalności, drugi taktował jak precyzyjny zegarek. Oba impulsy mogły być określone i zmierzone. Studenci z Santa Cruz wpisali się do badań chaosu w najbardziej charakterystyczny sposób poprzez swój wkład do dziedziny z pogranicza matematyki i filozofii, znanej jako teoria informacji 14, odkrytej w późnych latach czterdziestych przez badacza z Bell Telephone Laboratories, Claude’a Shannona. Shannon nazwał swoje dzieło matematyczną teorią komunikacji, ale dotyczy ono raczej szczególnej wielkości zwanej ilością informacji, stąd wzięła się teoria informacji. Teoria ta była produktem wieku elektroniki. Linie komunikacyjne i transmisje radiowe przenosiły pewną rzecz, a komputery wkrótce przechowywały ją na kartach perforowanych
albo cylindrach magnetycznych, a rzecz ta ani nie była wiedzą, ani treścią. Jej podstawowe jednostki nie były ideami ani koncepcjami, ani nawet słowami czy liczbami. Ta rzecz mogła być sensowna lub bezsensowna — ale inżynierowie i matematycy mogli ją mierzyć, transmitować i testować dokładność transmisji. Informacja okazała się tak dobrym słowem jak każde inne, pod warunkiem, że ludzie pamiętali, iż używają specjalistycznego terminu bez zwykłej konotacji do faktów, wiedzy, mądrości, zrozumienia, oświecenia. Hardware określił kształt teorii. Ponieważ informacja była przechowywana w tzw. bitach określających stan binarnych przełączników, więc bity stały się podstawową miarą informacji. Z technicznego punktu widzenia, teoria informacji umożliwiła zrozumienie tego, jak szum w formie przypadkowych błędów zakłóca strumień bitów. Dała metodę przewidywania koniecznej nośności linii komunikacyjnych albo dysków kompaktowych czy innych technik kodowania języka, dźwięku lub obrazów. Oferowała teoretyczne środki obliczania efektywności różnych sposobów korygowania błędów — na przykład przez użycie niektórych bitów jako bitów kontrolujących inne. Wgryzła się w niezwykle ważne pojęcie redundancji. W ramach teorii informacji Shannona zwykły język zawiera więcej niż pięćdziesiąt procent redundancji w formie dźwięków albo liter, które nie są absolutnie konieczne do przesłania komunikatu. Jest to znana idea; zwykła komunikacja w świecie bełkoczących ludzi i błędów drukarskich zależy od redundancji. Znana reklama kursu stenografii — if u cn rd ths msg ( = if you can read this message — jeśli potrafisz przeczytać tę wiadomość) — ilustruje ten punkt, a redundancja może być zmierzona w ramach teorii informacji. Redundancja jest przewidywalnym odstępstwem od przypadku. Część redundancji w zwykłym języku leży na płaszczyźnie znaczenia i ta część, która zależy od znajomości języka i świata, jest trudna do zmierzenia. Jest to ta część, która
pozwala ludziom rozwiązywać krzyżówki albo uzupełnić brakujące słowo na końcu zdania. Ale inne rodzaje redundancji łatwiej poddają się pomiarom numerycznym. Statystycznie, prawdopodobieństwo, że jakaś litera w języku angielskim będzie literą „e”, jest dużo większe niż jedna dwudziesta szósta. Ponadto litery nie muszą być liczone jako izolowane jednostki. Wiedza o tym, że pewną literą w angielskim tekście jest „t”, pozwala przewidzieć, że następną może być „h” albo „o”, a wiedza o dwóch literach jeszcze bardziej powiększa możliwość prawidłowego zgadnięcia następnej litery. Statystyczna tendencja występowania różnych dwu- lub trzyliterowych kombinacji w danym języku w dużym stopniu umożliwia przechwycenie charakterystycznej istoty języka. Komputer sterowany tylko względnym prawdopodobieństwem sekwencji trzech liter może generować następnie przypadkowy, bezsensowny strumień wyrazów, który jednak jest rozpoznawalny jako angielski bezsens. Kryptolodzy od długiego czasu używają takich statystycznych metod w łamaniu prostych szyfrów. Specjaliści od telekomunikacji posługują się nimi obecnie w wymyślaniu technik do kompresji danych, usuwania redundancji do zaoszczędzenia przestrzeni na linii transmisyjnej lub na dysku. Shannon wyobrażał sobie takie struktury w następujący sposób: strumień danych w zwykłym języku jest mniej niż przypadkowy; każdy nowy bit jest częściowo skrępowany przez bit poprzedni; zatem każdy nowy bit przenosi nieco mniej rzeczywistej informacji niż wartość, która mu odpowiada. W tym sformułowaniu tkwił drobny paradoks. Im bardziej przypadkowy jest strumień danych, tym więcej informacji jest przenoszonych przez każdy nowy bit. Poza jej techniczną przydatnością do zapoczątkowania ery komputerów teoria informacji Shannona zyskała przyzwoitą oprawę filozoficzną, a zadziwiająca część siły przyciągającej teorii dla ludzi spoza dyscypliny reprezentowanej przez Shannona brała się od jednego słowa — „entropia”.
Warren Weaver napisał w klasycznym wykładzie teorii informacji 15: „Kiedy ktoś napotyka pojęcie entropii w teorii komunikacji, ma prawo być podnieconym — ma prawo podejrzewać, że trzyma w ręku coś, co może okazać się fundamentalne i ważne”. Entropia pochodzi z termodynamiki, gdzie służy jako pojęcie pomocnicze, występujące w drugiej zasadzie termodynamiki, która mówi o nieodwołalnej tendencji wszechświata i każdego izolowanego układu wewnątrz niego do przechodzenia w kierunku stanu większego nieuporządkowania. Podziel basen pływacki na połowę za pomocą jakiejś przegrody; wypełnij jedną połowę wodą, a drugą atramentem; odczekaj, aż się wszystko uspokoi; podnieś przegrodę; atrament i woda w końcu wymieszają się tylko poprzez przypadkowe ruchy molekuł. Mieszanie nigdy nie zachodzi samorzutnie w przeciwnym kierunku, nawet jeśli będziesz czekał do końca świata; z tego to właśnie powodu mówi się często, że druga zasada jest prawem, które ustala jednokierunkowość upływu czasu. Entropia jest wielkością opisującą stan układu wzrastającą zgodnie z drugą zasadą termodynamiki — jest miarą wymieszania, nieporządku, przypadkowości. Koncepcja ta jest prostsza do zrozumienia intuicyjnego niż do zmierzenia w realnej sytuacji. Co mogłoby być wiarygodnym testem mierzącym poziom mieszania się dwóch substancji? Można by wyobrazić sobie liczenie molekuł każdej substancji w jakiejś próbce. Ale co się stanie, gdy będą one ustawione w kolejności tak–nie–tak–nie–tak–nie–tak–nie? Nie można chyba powiedzieć, że entropia jest wysoka? Można by policzyć parzyste molekuły. Ale co w przypadku, gdy uporządkowanie byłoby takie: tak–nie–nie–tak–tak–nie–nie–tak? Porządek wkrada się do sposobów, które opierają się jakiemuś algorytmowi bezpośredniego zliczania. I w teorii informacji zagadnienia treści oraz reprezentacji stwarzają dodatkowe komplikacje. Sekwencja typu 01 010001000010 111 01011 00 000 0010 111 010 11 0100 0 000 000... mogłaby wydawać się uporządkowana tylko
obserwatorowi znającemu alfabet Morse’a i Szekspira. A co z topologicznie perwersyjnymi strukturami dziwnych atraktorów? Dla Roberta Shawa dziwne atraktory były maszynami do produkowania informacji. W jego pierwszej i największej koncepcji chaos stanowił naturalną drogę powrotu do nauk fizycznych idei, że teoria informacji została wyprowadzona z termodynamiki. Dziwne atraktory, zjednoczenie porządku i nieporządku stawiały prowokujące pytanie o mierzenie entropii układu. Dziwne atraktory służyły jako skuteczne miksery. Tworzyły nieprzewidywalność. Zwiększały entropię. I, jak to stwierdził Shaw, tworzyły informację tam, gdzie jej nie było. Norman Packard 16 czytał pewnego dnia „Scientific American” i zauważył ogłoszenie o Konkursie im. Louisa Jacota na esej. Wszystko było raczej cudaczne — lukratywna nagroda ufundowana przez francuskiego finansistę, który zaproponował prywatną teorię na temat struktury wszechświata, galaktyk wewnątrz galaktyk. Ogłoszenie zachęcało do napisania eseju na temat związany z hipotezą Jacota. („Brzmiało to zupełnie po wariacku” — powiedział Farmer). Ale na liście osób jury konkursowego znajdowały się nazwiska z naukowego świata Francji, a nagroda pieniężna również robiła wrażenie. Packard pokazał ogłoszenie Shawowi. Termin nadsyłania prac upływał 1 stycznia 1978 roku. Do tego czasu zespół spotykał się regularnie w wielkim, starym domu w Santa Cruz, niedaleko plaży. W domu zgromadzone były tanie meble i sprzęt komputerowy służący przede wszystkim do rozwiązywania problemu ruletki. Shaw trzymał tam fortepian, na którym grywał muzykę barokową albo improwizował swoje własne wiązanki na tematy klasyczne i współczesne. W czasie spotkań fizycy rozwijali styl pracy: rzucali pomysły i filtrowali je przez sito wykonalności, zapoznawali się z literaturą i przygotowywali swoje własne prace. Ostatecznie nauczyli się
współpracować w przygotowywaniu artykułów naukowych metodą listu łańcuchowego, ale pierwsza praca była pracą wyłącznie Shawa, jedną z niewielu, które napisał sam w charakterystyczny dla siebie sposób. Typowe było również to, że praca została wysłana za późno. W grudniu 1977 roku Shaw wyjechał z Santa Cruz 17, aby wziąć udział w pierwszej konferencji organizowanej przez New York Academy of Sciences (Nowojorska Akademia Nauk) poświęconej chaosowi. Jego profesor od nadprzewodnictwa opłacił koszty podróży i pojechał niezaproszony, aby posłuchać naukowców, których znał tylko z ich publikacji: Davida Ruelle’a, Roberta Maya, Jamesa Yorke’a. Ludzie ci przerażali go, podobnie jak cena 35 dolarów za pokój w Barbizon Hotel. Słuchając referatów, raz miał uczucie, że bezwiednie dokonał ponownego odkrycia tych samych idei, które ci ludzie opracowali w najdrobniejszych szczegółach, innym razem czuł, że jego przyczynek jest ważny. Przywiózł ze sobą niedokończony szkic swojej pracy na temat teorii informacji, nabazgrany odręcznie na strzępach papieru wpiętych do skoroszytu i próbował bezskutecznie zdobyć maszynę do pisania, najpierw w hotelu, a potem w lokalnych punktach naprawczych. W końcu zabrał skoroszyt z powrotem. Później, kiedy koledzy prosili go o szczegóły, opowiadał im, że punktem kulminacyjnym była kolacja na cześć Edwarda Lorenza, który ostatecznie zyskał uznanie, jakiego odmawiano mu przez tyle lat. Kiedy Lorenz nieśmiało wszedł do pokoju, trzymając za rękę swoją żonę, naukowcy powstali, aby zgotować mu owację 18. Shawa uderzyło, że meteorolog wyglądał na bardzo zażenowanego. Kilka tygodni później, podczas podróży do Maine, gdzie jego rodzice mieli domek letniskowy, ostatecznie zdecydował się wysłać swoją pracę na konkurs Jacota 19. Nowy Rok już co prawda minął, ale koperta została wspaniałomyślnie antydatowana przez miejscowego pracownika poczty.
Praca — mieszanina ezoterycznej matematyki i spekulatywnej filozofii, ilustrowana komiksowymi rysunkami sporządzonymi przez Chrisa, brata Shawa, otrzymała wyróżnienie. Nagroda była dostatecznie wysoka, aby mógł po nią pojechać do Paryża. Było to niewielkie osiągnięcie, ale przyszło w momencie napiętych stosunków między grupą a instytutem. Potrzebowali wówczas rozpaczliwie jakiegokolwiek zewnętrznego potwierdzenia swojej wiarygodności. Farmer zrezygnował z astrofizyki, Packard zarzucił mechanikę statystyczną, a Crutchfield wciąż nie był gotowy, aby zgłosić się na studia doktoranckie. W instytucie odnoszono wrażenie, że sprawy wymknęły się spod kontroli. Praca „Dziwne atraktory, zachowanie chaotyczne i przepływ informacji” krążyła tego roku w formie preprintów, których liczba ostatecznie zbliżyła się do tysiąca. Był to pierwszy większy krok uczyniony w celu połączenia teorii informacji i chaosu. Shaw wyciągnął z cienia kilka założeń mechaniki klasycznej. Energia w układach naturalnych istnieje na dwóch poziomach: na poziomie makroskali, gdzie pospolite obiekty mogą być liczone i mierzone, oraz na poziomie mikroskali, gdzie niezliczone atomy poruszają się bezładnym ruchem, dla których można wyznaczyć tylko wielkości średnie, takie jak temperatura. Jak zauważył Shaw, sumaryczna energia występująca w mikroskali może przewyższać energię makroskali, ale w układach klasycznych ten ruch termiczny nie był brany pod uwagę — był izolowany i bezużyteczny. Skale nie komunikują się ze sobą. „Nie trzeba znać temperatury ciała, aby rozwiązać jakiś problem z zakresu mechaniki klasycznej” — powiedział. Jednak według poglądu Shawa chaotyczne i quasi-chaotyczne układy kładą pomost pomiędzy makro- i mikroskalą. Chaos był tworzeniem się informacji. Można sobie wyobrazić wodę płynącą obok przeszkody. Jak wie każdy
hydrodynamik i kajakarz pływający po rwących górskich rzekach, jeśli woda płynie dostatecznie szybko, wytwarza wiry. Przy pewnej prędkości wiry stoją w miejscu. Przy trochę większej — poruszają się. Eksperymentator mógłby wybrać wiele metod do uzyskania danych z takiego układu, w których próbkowałoby się prędkości itd., ale dlaczego nie spróbować prościej: wybrać punkt bezpośrednio za przeszkodą i, w równych odstępach czasu, sprawdzać, czy wir jest od niego na lewo czy na prawo. Jeśli wir byłby statyczny, strumień danych wyglądałby następująco: po lewej–po lewej–po lewej–po lewej–po lewej–po lewej. Po chwili obserwator zaczyna czuć, że nowe bity danych nie dostarczają nowych informacji o układzie. Albo wiry mogłyby się przesuwać tam i z powrotem periodycznie: po lewej–po prawej–po lewej–po prawej–po lewej–po prawej–po lewej. Znowu, mimo że układ na początku wydawał się nieco bardziej interesujący, szybko okazało się, że nie sprawi żadnej niespodzianki. Kiedy jednak układ staje się chaotyczny, na mocy swojej nieprzewidywalności wytwarza stały strumień informacji. Każda nowa obserwacja jest nowym bitem. Jest to problem dla eksperymentatora próbującego w pełni scharakteryzować układ. „Nigdy nie może opuścić pokoju — jak powiedział Shaw. — Strumień ciągle dostarcza nowych informacji”. Skąd bierze się ta informacja? Z gorącej kąpieli w mikroskali, gdzie miliardy molekuł tańczą w przypadkowym termodynamicznym korowodzie. Tak samo jak turbulencja transmituje energię z wielkiej skali przez łańcuch wirów w dół, gdzie rozprasza się ona poprzez działanie sił lepkości, informacja jest transmitowana z powrotem z małej skali do wielkiej; tak właśnie Shaw i jego koledzy zaczęli opisywać to zjawisko. Kanałem transmitującym informacje w górę jest dziwny atraktor zwielokrotniający
początkową przypadkowość dokładnie tak jak efekt motyla zwielokrotnia małe niepewności w wielkoskalowy układ pogody. Pytanie, jak wielki jest ten czynnik zwielokrotnienia? Shaw odkrył — najpierw nieświadomie dublując część ich pracy — że znowu radzieccy naukowcy byli pierwsi. A.N. Kołmogorow i Yasha Sinai 20 opracowali pouczającą matematykę dla sposobu, w jaki „entropia na jednostkę czasu” stosuje się do geometrycznych obrazów powierzchni rozciąganych i składanych w przestrzeni fazowej. Istotą tej techniki było narysowanie dowolnie małego pudełka wokół jakiegoś zbioru warunków początkowych, jak na przykład kwadratu narysowanego na powierzchni balonu, a następnie obliczenie wpływu różnych rozciągnięć albo obrotów pudełka. Mogłoby ono być rozciągnięte w jednym kierunku, a w innym pozostać wąskie. Zmiana powierzchni odpowiadałaby wprowadzonej niepewności co do przeszłości układu, zyskowi lub utracie informacji. W stopniu, w jakim informacja jest tylko ozdobnym słowem na nieprzewidywalność, ta koncepcja całkowicie pasuje do idei, które rozwinęli tacy uczeni, jak Ruelle. Ale ramy teorii informacji pozwoliły grupie z Santa Cruz na zaadoptowanie ogółu rozumowania matematycznego, które było badane przez teoretyków komunikacji. Problem dodawania zewnętrznego szumu do (w innych przypadkach deterministycznego) układu, był nowy w dynamice, ale całkiem dobrze znany w teorii komunikacji. Rzeczywistą siłą przyciągającą tych młodych naukowców tylko częściowo była matematyka. Kiedy mówili o informacji produkowanej przez układy, myśleli o spontanicznej generacji struktury w świecie. „Na szczycie skomplikowanej dynamiki są procesy biologicznej ewolucji albo procesy myślenia — powiedział Packard 21. — Intuicyjnie wydaje się rozsądne, że te krańcowo złożone układy wytwarzają informację. Miliardy lat temu były tylko kropelki protoplazmy: teraz, miliardy lat później, jesteśmy my. Informacja więc była
wytwarzana i przechowywana w naszej strukturze. W rozwoju umysłu od dzieciństwa jest ona nie tylko gromadzona, ale również tworzona — tworzona z połączeń, których tam nie było wcześniej”. Był to rodzaj rozmowy, która mógłby trzeźwego fizyka przyprawić o zawrót głowy. * Byli przede wszystkim majsterkowiczami, a dopiero potem filozofami. Czy mogliby przerzucić pomost pomiędzy dziwnymi atraktorami, które znali tak dobrze, a eksperymentami z zakresu fizyki klasycznej? Jedną rzeczą jest mówić, że po prawej–po lewej–po prawej–po prawej–po lewej–po prawej–po lewej–po lewej–po lewej–po prawej jest nieprzewidywalne i wytwarza informację. Zupełnie inną jest wziąć strumień rzeczywistych danych i zmierzyć jego wykładniki Lapunowa, jego entropię i jego wymiar. Jednak fizycy z Santa Cruz czuli się lepiej z tymi ideami niż ich starsi koledzy. Obcując z dziwnymi atraktorami dzień i noc, upewnili się, że rozpoznają je w trzepoczących, drgających i falujących zjawiskach codziennego życia. Mieli zabawę, w którą grywali, siedząc w kawiarni. Ktoś pytał: Jak daleko stąd jest najbliższy dziwny atraktor? Czy jest to tamten grzechoczący błotnik samochodu? Czy może flaga łopocząca dziko na wietrze? Drżący liść? „Nie widzisz niczego, dopóki nie masz właściwej metafory, która pozwoli ci to spostrzec” — powiedział Shaw 22, nawiązując do słów Thomasa S. Kuhna. Wkrótce ich przyjaciel, „relatywista”, Bill Burke, był całkiem przekonany, że prędkościomierz w jego samochodzie grzechocze nieliniowo na sposób dziwnego atraktora. A Shaw, rozpoczynając program eksperymentalny, który miał go zająć na najbliższe kilka lat, obrał jako obiekt badań układ dynamiczny, tak prosty, jak tylko fizyk mógłby sobie wyobrazić: kapiący kran. Większość ludzi wyobraża sobie wzorcowo kapiący kran jako bezwzględnie okresowy, ale tak nie musi być, jak pokazuje błyskawiczne
doświadczenie. „Jest to prosty przykład układu, który przechodzi od przewidywalnego do nieprzewidywalnego zachowania — powiedział Shaw 23. — Jeśli odkręcisz wodę nieco bardziej, możesz zaobserwować sytuację, w której kapanie jest nieregularne. Jak się okazało, to kapanie jest nieprzewidywalne na dłuższą metę. A więc nawet coś tak prostego jak kran może tworzyć struktury, które są wiecznie kreatywne”. Jako generator organizacji kapiący kran niewiele może zaoferować do badania. Wytwarza tylko krople i każda jest mniej więcej taka sama jak poprzednia. Ale dla początkującego badacza chaosu kapiący kran ma pewne zalety. Każdy ma go w wyobraźni. Strumień danych jest tak jednowymiarowy, jak to możliwe: rytmiczne bębnienie pojedynczych punktów mierzone w czasie. Żadnej z tych właściwości nie można znaleźć w układach, które grupa z Santa Cruz badała później 24 — na przykład układ odpornościowy człowieka albo kłopotliwy efekt wiązka–wiązka (ang. beambeam effect), będący zjawiskiem w niewytłumaczalny sposób zakłócającym eksperymenty ze zderzającymi się wiązkami cząstek w Stanford Linear Accelerator Center (Centrum Akceleratora Liniowego w Stanford). W doświadczeniach takich jak Libchabera i Swinneya otrzymywano jednowymiarowy strumień danych z nieco bardziej złożonego układu przez umieszczenie sondy w dowolnie wybranym miejscu. W przypadku kapiącego kranu pojedyncza seria danych jest wszystkim, co mamy. I nie jest to nawet w sposób ciągły zmieniająca się prędkość czy temperatura — zaledwie lista chwil, w których spadły krople. Proszony o przygotowanie ataku na taki problem, fizyk tradycjonalista zaczyna od sporządzenia modelu fizycznego, tak kompletnego jak to możliwe. Procesy rządzące tworzeniem się i odrywaniem kropel są do zrozumienia, chociaż nie są tak proste, jak mogłoby się wydawać. Ważną zmienną jest szybkość przepływu 25. (Musi ona być mała w porównaniu
z większością układów hydrodynamicznych. Shaw zwykle stosował prędkości spadania kropel od 1 do 10 na sekundę, co oznacza szybkość przepływu od 70 do 700 litrów na tydzień.) Inne zmienne to lepkość i napięcie powierzchniowe. „Kropla wody wisząca u ujścia kranu i czekająca na oderwanie ma skomplikowany, trójwymiarowy kształt i już tylko obliczenie tego kształtu — jak powiedział Shaw 26 — sięga granic możliwości obliczeń komputerowych”. Ponadto kształt nie jest statyczny. Kropla wypełniająca się wodą jest jak mały elastyczny worek wykonany z „napięcia powierzchniowego”, oscylujący w górę i w dół, powiększający swoją masę i rozciągający ściany, dopóki nie przekroczy krytycznego punktu i nie odpadnie. Fizyk próbujący w pełni skonstruować model kapania — pisząc układ sprzężonych nieliniowych cząstkowych równań różniczkowych z odpowiednimi warunkami brzegowymi, a potem próbując je rozwiązać — gubi się w gąszczu problemów. Alternatywne podejście polegałoby na zapomnieniu o fizyce i potraktowaniu danych, jak gdyby wychodziły z czarnej skrzynki. Jeśli mamy listę liczb reprezentujących interwały czasowe pomiędzy kroplami, czy znawca dynamiki chaotycznej mógłby powiedzieć coś użytecznego na temat tego układu? Rzeczywiście, jak się okazuje, można było opracować metody organizacji takich danych i przekształcania ich z powrotem w fizykę. Metody te stały się bardzo ważne w przypadku stosowania chaosu do problemów fizycznego świata. Ale Shaw zaczął w pół drogi pomiędzy tymi skrajnymi podejściami, wykonując coś w rodzaju karykatury kompletnego modelu fizycznego. Ignorując kształt kropel, ich złożony ruch w trzech wymiarach, z grubsza podsumował fizykę kapania. Wyobraził sobie ciężarek wiszący na sprężynie. Wyobraził sobie, że masa rośnie w czasie. Gdy rośnie, sprężyna rozciąga się i ciężarek wisi coraz niżej. Kiedy osiąga pewien punkt, część masy się
odrywa. Ilość, która się odłącza — tak Shaw założył dość arbitralnie — zależy od prędkości schodzącej masy w chwili, kiedy osiąga ona punkt oderwania. Potem, oczywiście, pozostały ciężar razem ze sprężyną odskakuje ku górze ruchem harmonicznym, który potrafią rozwiązywać studenci. Interesująca cecha modelu — jedyna interesująca cecha modelu i nieliniowa deformacja, która umożliwia zachowanie chaotyczne — polegała na tym, że następna kropla zależała od tego, jak sprężystość oddziaływała ze stale wzrastającym ciężarem. Jeśli sprężyna przechodzi przez dolne położenie, ciężarkowi łatwiej się oderwać; przejście przez górne położenie może opóźnić nieco ten proces. W przypadku rzeczywistego kranu krople nie mają zawsze tych samych rozmiarów. Wielkość zależy zarówno od prędkości strumienia, jak i od kierunku oscylacji. Jeśli kropla rozpoczyna swoje życie, poruszając się w dół, to oderwie się wcześniej. Jeśli się to zdarzy po odbiciu, będzie mogła się wypełnić większą ilością wody, zanim odpadnie. Model Shawa był na tyle przybliżony, że można go było zapisać za pomocą trzech równań różniczkowych, w minimum koniecznym do uzyskania chaosu, jak pokazali Poincaré i Lorenz. Ale czy wytworzy tyle złożoności co rzeczywisty kran? I czy złożoność jest tego samego rodzaju? Zatem Shaw zasiadł w laboratorium w budynku instytutu fizyki z wielką plastikową wanną nad głową, wanną opróżniającą się przez wysokiej jakości mosiężny wylot. Gdy kropla spadała, przecinała wiązkę światła, a mikrokomputer w sąsiednim pokoju rejestrował czas. Tymczasem Shaw przygotował swoje trzy równania i uruchomił je na komputerze analogowym, generując strumień wyimaginowanych danych. Pewnego dnia wykonał pokaz typu „światło i dźwięk” dla wydziału, „pseudokolokwium”, jak powiedział Crutchfield 27, ponieważ doktorantom nie wolno było wygłaszać formalnych kolokwiów. Shaw odtworzył z taśmy bębnienie kropel spadających z kranu
na kawałek blachy. A później włączył swój komputer, który turkotał w skocznych synkopach, generując rytm rozpoznawalny dla ucha. Rozwiązał problem równocześnie od przodu i od tyłu, a jego słuchacze mogli słyszeć głęboką strukturę w tym jaskrawo nieuporządkowanym układzie. Aby jednak pójść dalej, grupa potrzebowała sposobu gromadzenia danych pierwotnych z dowolnego eksperymentu i wyprowadzenia na ich podstawie równań oraz dziwnych atraktorów, które charakteryzują chaos. Dla bardziej złożonego układu można było sobie wyobrazić wykreślenie jednej zmiennej w funkcji drugiej, która wiązałaby, na przykład, zmiany temperatury albo prędkości z czasem. Ale kapiący kran dostarczał tylko szeregu czasowego. Dlatego Shaw wypróbował technikę, która prawdopodobnie jest największym i najtrwalszym wkładem grupy z Santa Cruz do postępu nauki o chaosie. Była to metoda rekonstruowania przestrzeni fazowej dla niewidocznego dziwnego atraktora i mogła być zastosowana do każdej bez wyjątku serii danych. Dla danych z kapiącego kranu Shaw wykonał dwuwymiarowy wykres, na którym oś x reprezentowała odstęp czasu między parą kropel, a na osi y odkładano następny odstęp czasu. Jeśli między dwoma kroplami upłynął czas równy 150 ms, a później minęło kolejnych 150 ms do następnej kropli, Shaw wykreślał punkt w położeniu 150–150. To było wszystko. Jeśli kapanie było regularne, jak to bywało, kiedy woda płynęła powoli i układ był w „obszarze pracy zegara wodnego”, wykres był odpowiednio nieciekawy. Wykres składał się z pojedynczej kropki. Albo coś koło tego. W rzeczywistości pierwsza różnica między komputerowym kapiącym kranem a rzeczywistym kapiącym kranem polegała na tym, że rzeczywista wersja była podatna na szum i niezmiernie czuła. „Okazało się, że rzecz ta jest wspaniałym sejsmometrem — powiedział Shaw ironicznie 28 — bardzo wydajnym w przenoszeniu szumu z małej do dużej skali”. Shaw
wykonał większość swojej pracy w nocy, kiedy ruch pieszy po uczelnianych korytarzach był najmniejszy. Szum powodował, że zamiast pojedynczej kropki przewidywanej przez teorię widać było nieco rozmytą plamkę. Kiedy szybkość przepływu była zwiększana, układ zaczynał przechodzić przez bifurkację podwajania okresu. Krople spadały parami. Jeden odstęp wynosił na przykład 150 ms, a następny 80. Na wykresie więc pojawiały się dwie rozmyte plamki, jedna z centrum w punkcie 150–80, druga w punkcie 80–150. Rzeczywisty test przyszedł wraz z pojawieniem się chaosu. Jeśli byłby naprawdę przypadkowy, punkty byłyby rozproszone po całym wykresie. Nie byłoby żadnego związku między jednym a następnym odstępem. Ale jeśli dziwny atraktor był ukryty w danych, mógł się ujawnić jako połączenie rozmyć w charakterystyczne struktury. Często trzy wymiary były konieczne, aby ujrzeć tę strukturę, ale to nie był problem. Technika mogła być łatwo uogólniona na wykonywanie wykresów w wyższych wymiarach. Zamiast wykreślania n-tego interwału w funkcji (n + l)-ego, można było wykreślić n-ty w funkcji (n+ l)-ego w funkcji (n + 2)-ego. To była sztuczka. Zwykły trójwymiarowy wykres wymagał wiedzy o trzech niezależnych zmiennych w układzie. Sztuczka ta dawała trzy zmienne za cenę jednej. Odzwierciedlała ona wiarę tych naukowców, że porządek bywa tak głęboko zakorzeniony w pozornym nieporządku, iż ujawni się w jakiś sposób nawet tym eksperymentatorom, którzy nie wiedzą, jakie zmienne fizyczne mierzyć, albo nie umieją mierzyć tych zmiennych bezpośrednio. Jak powiedział Farmer 29: „Na ewolucję zmiennej wpływa każda inna zmienna, na którą ona oddziałuje. Ich wartości muszą się jakoś zawierać w historii tej ewolucji. W jakiś sposób pozostawiają tam swoje ślady”. W przypadku kapiącego kranu Shawa wykresy ilustrowały ten punkt. Zwłaszcza w trzech wymiarach wyłonił się układ, który przypominał zapętlone smugi pozostawione przez samolot piszący po niebie, który wymknął się spod
kontroli. Shaw mógł porównać wykresy z danych eksperymentalnych z danymi wygenerowanymi przez jego komputer analogowy: główna różnica polegała na tym, że rzeczywiste dane były zawsze bardziej rozmyte, rozmazane przez szum. Mimo to struktury wykazywały niewątpliwe podobieństwo. Chaolodzy z Santa Cruz zaczęli współpracować z takimi doświadczonymi eksperymentatorami jak Harry Swinney, który przeniósł się do University of Texas w Austin, i nauczyli się, jak odtwarzać dziwne atraktory z różnego typu układów. Sprawa dotyczyła zanurzenia danych w przestrzeni fazowej o wystarczającym wymiarze. Wkrótce Floris Takens, który wymyślił dziwne atraktory, wraz z Davidem Ruelle’em, niezależnie od siebie, położyli matematyczne podwaliny pod tę świetną technikę rekonstrukcji przestrzeni fazowej atraktora ze strumienia rzeczywistych danych 30. Niebawem badacze odkryli, że technika ta jest w stanie odróżnić dane będące wyłącznie szumem od chaosu w nowym sensie: uporządkowanego nieporządku utworzonego przez proste procesy. Prawdziwie przypadkowe dane pozostają rozproszone w nieokreślonym nieładzie. Ale chaos — deterministyczny i ustrukturalizowany — układa dane w widzialne kształty. Ze wszystkich możliwych dróg nieporządku natura faworyzuje tylko kilka. Transformacja od buntownika do fizyka odbywała się powoli. Od czasu do czasu, siedząc w kawiarni albo pracując w swym laboratorium, jeden czy drugi z doktorantów nie mógł uwierzyć, że ich naukowe fantazje się nie skończyły. „Boże, wciąż to robimy i to ciągle ma sens — powiedział Jim Crutchfield 31. — Wciąż jesteśmy tutaj. Ale jak długo jeszcze?” Ich głównymi sprzymierzeńcami na wydziale byli: uczeń Smale’a, Ralph Abraham z instytutu matematyki, i Bill Burke z instytutu fizyki, który ogłosił się „władcą komputera analogowego”, aby bronić dostępu grupy do tego sprzętu. Reszta wydziału fizyki znalazła się w trudniejszej sytuacji. Parę lat
później kilku profesorów 32 zaprzeczało zawzięcie, że zespół został zmuszony do pokonywania obojętności albo opozycji ze strony instytutu. Członkowie zespołu zareagowali równie zawzięcie na to, co uważali za rewizjonistyczne przedstawienie historii ze strony neofitów za późno nawróconych na chaos. „Nie mieliśmy żadnego promotora, nikt nie mówił nam, co mamy robić — powiedział Shaw 33. — Byliśmy uważani za przeciwników przez lata i to trwa do dnia dzisiejszego. Nigdy nie byliśmy sponsorowani przez Santa Cruz. Każdy z nas pracował przez znaczący okres bez zapłaty, bez intelektualnych i żadnych innych wskazówek, a przedsięwzięcie opierało się cały czas na chwiejnych podstawach”. Jednak wydział tolerował, a nawet stymulował przez długi czas badania, które — jak się wydawało — nie wniosą żadnego istotnego wkładu do nauki. Promotor rozprawy Shawa z nadprzewodnictwa utrzymywał go na stanowisku i płacił mu przez rok, długo po tym, jak Shaw odwrócił się od fizyki niskich temperatur. Nikt nigdy całkowicie nie zakazał badań chaosu. W najgorszym razie wydział przyjmował postawę życzliwego odradzającego. Każdy członek zespołu był brany na rozmowy „od serca”. Był ostrzegany, że nawet jeśli zostanie znaleziony jakiś sposób uprawomocnienia ich doktoratów, nikt nie będzie w stanie zapewnić mu pracy w nieistniejącej dziedzinie. „To może być chwilowa moda — mówili członkowie wydziału. — A co będzie potem?” Jednak za wzgórzami porośniętymi sekwojami w Santa Cruz chaos tworzył własny establishment naukowy i Dynamical Systems Collective musiał się do niego przyłączyć. Jednego roku przybył do Santa Cruz Mitchell Feigenbaum odbywający tournée, podczas którego wygłaszał wykłady wyjaśniające istotę przełomu, jakiego dokonał w sprawie uniwersalności. Jak zwykle jego wykład był głęboko matematyczny; teoria grup renormalizacji była ezoterycznym fragmentem fizyki fazy skondensowanej, której ci doktoranci nie studiowali.
Ponadto zespół był bardziej zainteresowany realnymi układami niż delikatnymi, jednowymiarowymi odwzorowaniami 34. Doyne Farmer tymczasem usłyszał, że matematyk z Berkeley, Oscar E. Lanford III, bada chaos. Udał się więc do niego, aby porozmawiać. Lanford wysłuchał go grzecznie, a potem spojrzał na Farmera i powiedział, że nie mają ze sobą nic wspólnego 35. Jemu samemu chodziłoby o to, żeby zrozumieć Feigenbauma. „To straszne! Gdzie wyczucie proporcji u tego faceta? — pomyślał Farmer. — Patrzy sobie na te orbitki. Tymczasem my zgłębiamy teorię informacji, rozbierając chaos na części, pytając, dlaczego on działa, próbując związać entropię metryczną i wykładniki Lapunowa z bardziej statystycznymi miarami”. W swojej rozmowie z Farmerem Lanford nie podkreślił roli uniwersalności i dopiero później Farmer uświadomił sobie, że przeoczył istotę sprawy. „To była moja naiwność — powiedział Farmer 36. — Idea uniwersalności nie tylko była wielkim wynikiem. Za sprawą idei Mitchella powstała technika, dzięki której znalazła zatrudnienie rzesza bezrobotnych fizyków chętnie rozwiązujących trudne problemy. Dotąd wydawało się, że układy nieliniowe muszą być traktowane w sposób indywidualny. My próbowaliśmy rozwinąć język do ich określania ilościowego i opisywania, ale wciąż wydawało się, że wszystko musiało być traktowane oddzielnie. Nie widzieliśmy żadnego sposobu na uporządkowanie układów w klasy i napisanie rozwiązania, które byłoby poprawne dla całej klasy, jak w przypadku układów liniowych. Uniwersalność oznaczała odkrycie właściwości, które były dokładnie takie same w ilościowy sposób dla każdego układu z takiej klasy. Przewidywalne właściwości. I dlatego było to rzeczywiście ważne. I był także socjologiczny czynnik, który dodawał jeszcze energii. Mitchell przedstawił swoje wyniki w języku renormalizacji. Wziął całą tę maszynerię,
którą ludzie od trudnych zagadnień uczyli się obsługiwać. Ci faceci przeżyli trudny okres, ponieważ wydawało się, że nie pozostał dla nich ani jeden interesujący problem. Szukali wokół czegoś, do czego mogliby zastosować swój worek sztuczek. I nagle wystąpił Feigenbaum ze swoją wyjątkowo ważną aplikacją tego worka sztuczek. To zrodziło całą dziedzinę wiedzy”. Jednak doktoranci z Santa Cruz zupełnie niezależnie sami zaczęli robić coraz większe wrażenie. W instytucie zaczęła wschodzić ich gwiazda, gdy oto w roku 1978 niespodziewanie pojawili się na konferencji na temat fizyki fazy skondensowanej w Laguna Beach, zorganizowanej przez Bernarda Hubermana z Xerox Palo Alto Research Center i Stanford University. Zespół nie został zaproszony, ale udał się tam mimo wszystko. Zapakowali się do forda combi w ranczerskim stylu z 1959 roku, który należał do Shawa, automobilu znanego pod nazwą Cream Dream (Słodki Sen). Na wszelki wypadek zabrali trochę sprzętu, w tym potężny monitor telewizyjny i magnetowid. Kiedy jeden z zaproszonych prelegentów odwołał swoje wystąpienie w ostatnim momencie, Huberman poprosił Shawa, aby wszedł na jego miejsce. Był to doskonały moment. Słowo „chaos” brzęczało wtedy natrętnie jak mucha, ale niewielu fizyków, którzy zgłosili się na tę konferencję, wiedziało, o co chodzi. Więc Shaw zaczął wyjaśniać pojęcie atraktora w przestrzeni fazowej: najpierw punkty stałe (gdzie wszystko zamiera), potem cykle graniczne (gdzie wszystko oscyluje), potem dziwne atraktory (wszystkie inne zachowania). Demonstrował to za pomocą grafiki komputerowej odtworzonej z magnetowidu. („Środki audiowizualne mają wiele zalet — powiedział 37. — Możemy hipnotyzować atraktory za pomocą błyskającego światła”). Naświetlił zagadnienie atraktora Lorenza i kapiącego kranu. Wyjaśnił geometrię — jak kształty są rozciągane i składane, i co to oznacza w języku teorii informacji. I na dodatek powiedział w kilku słowach o zmianie paradygmatu w nauce. Jego wykład był tryumfem, a na sali było
kilku członków rady wydziału z Santa Cruz, którzy po raz pierwszy ujrzeli chaos oczyma swoich kolegów. W roku 1979 wszyscy członkowie grupy wzięli udział w konferencji na temat chaosu, zorganizowanej przez New York Academy of Sciences (Nowojorska Akademia Nauk), tym razem już jako pełnoprawni uczestnicy, ale teraz ich dziedzina rozwijała się w ogromnym tempie. Konferencja w roku 1977 była konferencją Lorenza i przyjechało na nią kilkadziesiąt osób. To spotkanie należało do Feigenbauma i przybyły na nie setki osób. Podczas gdy dwa lata wcześniej Rob Shaw próbował znaleźć maszynę do pisania, aby napisać pracę, którą mógłby wsunąć nieśmiało pod drzwi innym ludziom, teraz Dynamical System Collective stała się prawdziwą drukarnią. Kolejne publikacje ukazywały się bardzo szybko i zawsze autorami byli wszyscy członkowie grupy. Ale grupa nie mogła trwać w nieskończoność. Im bardziej zbliżała się do prawdziwego świata nauki, tym bliżej była rozpadu. Pewnego dnia zadzwonił Bernardo Huberman 38. Zapytał o Roberta Shawa, ale akurat trafił na Crutchfielda. Huberman potrzebował współpracownika do przygotowania zwartej, prostej pracy o chaosie. Crutchfield, najmłodszy członek zespołu, którym interesowano się tylko dlatego, że był „operatorem komputera”, zaczął sobie uświadamiać, że pod jednym względem wydział w Santa Cruz miał rację przez cały czas: każdy z doktorantów pewnego dnia będzie musiał zostać oceniony indywidualnie. Huberman ponadto znał tajniki zawodu, o których studenci nie mają pojęcia, a w szczególności wiedział, jak z danej pracy wyciągnąć najwięcej korzyści. Gdy spojrzał na pracownię, naszły go wątpliwości: „To było wszystko bardzo niewyraźne, wiesz, kanapy i torebki z fasolą, jakbyś wsiadł do maszyny czasu, znów dzieci kwiaty i lata sześćdziesiąte” 39. Ale potrzebował komputera analogowego i faktycznie Crutchfield zdołał uruchomić program w ciągu godziny. Jednak praca
w zespole pozostała problemem. „Wszyscy w grupie chcą partycypować w wynikach — powiedział Crutchfield w pewnym momencie, ale Huberman się z tym nie zgodził. — To nie jest tylko sprawa uznania, to jest już sprawa odpowiedzialności za błędy. Załóżmy, że praca jest błędna — kto za to odpowiada? Nie jestem częścią zespołu”. Chciał jednego partnera do wyraźnie określonej pracy. Wynik był taki, jakiego spodziewał się Huberman: pierwsza praca o chaosie, która miała się ukazać w najważniejszym amerykańskim czasopiśmie publikującym przełomowe prace z fizyki, w „Physical Review Letters” 40. W kategoriach polityki naukowej nie stanowiło to banalnego osiągnięcia. „Dla nas była to zupełnie oczywista sprawa — powiedział Crutchfield — a Bernardo uważał, że to będzie miało duży oddźwięk”. „Było to również początkiem oswojenia się grupy z realnym światem” — Farmer był poirytowany, widząc zdradę Crutchfielda, która podkopała ducha zespołu 41. Nie tylko Crutchfield zaczął odchodzić od grupy. Wkrótce sam Farmer i Packard również podjęli współpracę ze znanymi fizykami i matematykami: Hubermanem, Swinneyem i Yorke’em. Idee sformułowane w Santa Cruz stały się mocną częścią współczesnych badań układów dynamicznych. Kiedy fizyk dysponujący masą danych chciał zbadać ich wymiar albo entropię, z dużym prawdopodobieństwem używał definicji i technik, które zostały wypracowane w latach przekładania kabli w komputerze analogowym Systron-Donner i obserwowania oscyloskopu. Klimatolodzy 42 będą prowadzić dyskusje na temat tego, czy chaos w globalnej atmosferze i oceanach ma nieskończony wymiar, jak zakładali tradycyjni dynamicy, czy też posiada niskowymiarowy dziwny atraktor. Ekonomiści, analizując rynek akcji, znajdą atraktory o wymiarach 3,7 i 5,3 43. Im niższy wymiar, tym prostszy system. Wiele matematycznych osobliwości musiało zostać
posegregowanych i zrozumianych. Wymiar fraktalny, wymiar Hausdorfa, wymiar Lapunowa, wymiar informacyjny — subtelności dotyczące tych miar układów chaotycznych zostały najlepiej wyjaśnione przez Farmera i Yorke’a 44. Wymiar atraktora był „pierwszym poziomem wiedzy niezbędnym do scharakteryzowania jego właściwości” 45. Była to cecha, która „dawała informację konieczną do określenia punktu atraktora z pewną dokładnością”. Metody grupy doktorantów z Santa Cruz i ich starszych współpracowników związały te idee z innymi ważnymi miarami układów: szybkością utraty przewidywalności, szybkością strumienia informacji, szybkością mieszania. Czasami naukowcy stosujący te metody będą wykreślać dane, rysować małe pudełka i liczyć liczbę punktów pomiarowych w każdym pudełku. Jednak nawet takie pozornie toporne techniki sprowadziły po raz pierwszy układy chaotyczne na obszar poznania naukowego. Tymczasem cała aktualna literatura naukowa zawiera prace, w których badacze, raz nauczywszy się znajdować dziwne atraktory w łopoczącej fladze i rozklekotanym prędkościomierzu, poszukują symptomów chaosu deterministycznego w innych układach. Niewyjaśnione szumy, zaskakujące fluktuacje, regularność mieszająca się z nieregularnością — są to problemy, które pojawiają się w pracach doświadczalników, obejmujące wszystko: od akceleratorów cząstek poprzez lasery aż po złącza Josephsona. Chaolodzy roszczą sobie pretensje do tych symptomów, mówiąc nienawróconym: wasze problemy są naszymi problemami. „Kilka doświadczeń ze złączem Josephsona ujawniło pojawianie się dziwnych szumów — tymi słowami zacznie się jedna z prac — które nie mogą być wyjaśnione na gruncie fluktuacji termicznych”. Zanim rozpadł się zespół, kilku członków rady wydziału w Santa Cruz rozpoczęło badania problemów z zakresu chaosu. Inni fizycy jednak
z perspektywy czasu oceniają, że ośrodek w Santa Cruz przegapił okazję, aby stać się narodowym centrum badań nad dynamiką nieliniową; takie centra zaczęły powstawać wkrótce w innych ośrodkach. We wczesnych latach osiemdziesiątych członkowie zespołu obronili doktoraty i rozproszyli się. Shaw zakończył swój doktorat w roku 1980, Farmer — w 1981, a Packard — w 1982. Doktorat Crutchfielda został sfinalizowany w roku 1983, kiedy autor miał w dorobku już jedenaście prac opublikowanych w czasopismach fizycznych i matematycznych. Kontynuował swoje prace na University of California w Berkeley. Farmer rozpoczął pracę na oddziale teoretycznym w Los Alamos. Packard i Shaw przeszli do Institute for Advanced Study w Princeton. Crutchfield badał pętle sprzężenia zwrotnego w sygnałach wizyjnych. Farmer pracował nad „tłustymi fraktalami” (ang. fat fractals) i modelował złożoną dynamikę układu odpornościowego człowieka. Packard zajął się chaosem przestrzennym i tworzeniem płatków śniegu. Tylko Shaw wydawał się niechętny przyłączaniu się do głównego nurtu. Jego własna spuścizna, która wywarła znaczący wpływ na rozwój nauki, obejmuje tylko dwie prace: tę, dzięki której wygrał podróż do Paryża, i tę (o kapiącym kranie), którą podsumował całość badań grupy z Santa Cruz. Kilka razy nosił się z zamiarem całkowitego porzucenia nauki. Jak powiedział jeden z jego przyjaciół: Shaw oscyluje.
1
J.D. Farmer, R. Shaw, J. Crutchfield, N. Packard, W. Burke, M. Nauenberg, R.H. Abraham, J. Guckenheimer. Najważniejszymi pracami Roberta Shaw na temat zastosowania teorii informacji w chaosie są artykuły: The Dripping Faucet as a Model Chaotic System (Aerial, Santa Cruz 1984) oraz Strange Attractors, Chaotic Behavior, and Information Theory („Zeitschrift für Naturforschung” 1981, 36a, s. 80). Opis przygód z ruletką przedstawiony przez kilku doktorantów z Santa Cruz, przekazujący wiele z kolorytu tych lat, jest zawarty w pracy Thomasa Bassa pt. The Eudemonic Pie (Houghton Mifflin, Boston 1985). 2 R. Shaw.
3
W. Burke, E.A. Spiegel. Edward A. Spiegel, Cosmic Arrhythmias, w: Chaos in Astrophysics, red. J.R. Buchler i in., D. Reidel, New York 1985, s. 91-135. 5 J.D. Farmer, J. Crutchfield. 6 R. Shaw, J. Crutchfield, W. Burke. 7 R. Shaw. 8 R.H. Abraham. 9 Farmer jest główną, a Packard drugoplanową postacią w The Eudemonic Pie, historii ruletkowego projektu, napisanej przez dawnego współpracownika grupy. 10 W. Burke, J.D. Farmer, J. Crutchfield. 11 R. Shaw. 12 J. Ford. 13 R. Shaw, J.D. Farmer. 14 Klasycznym tekstem na ten temat, wciąż dającym się czytać, jest książka Claude’a E. Shannona i Warrena Weavera, The Mathematical Theory of Communication, University of Illinois, Urbana 1963, zawierająca pomocne wprowadzenie Weavera. 15 Tamże, s. 13. 16 N. Packard. 17 R. Shaw. 18 R. Shaw, J.D. Farmer. 19 E. Lorenz, Strange Attractors, Chaotic Behavior, and Information Flow. 20 Y.G. Sinai, informacja prywatna. 21 N. Packard. 22 R. Shaw. 23 R. Shaw. 24 J.D. Farmer; dynamiczne podejście do układu odpornościowego, modelujące zdolność ciała człowieka do „zapamiętywania” i rozpoznawania wzoru, zostało naszkicowane w pracy J. Doyne’a Farmera, Normana H. Packarda i Alana S. Perelsona, The Immune System, Adaptation, and Machine Learning, preprint, Los Alamos National Laboratory, 1986. 25 Robert Shaw, The Dripping Faucet, s. 4. 26 Tamże. 27 J. Crutchfield. 28 R. Shaw. 29 J.D. Farmer. 30 Te metody, które stały się oparciem techniki eksperymentalnej w wielu różnych 4
dziedzinach, były głównie uszlachetnione i rozszerzone przez badaczy z Santa Cruz i innych eksperymentatorów oraz teoretyków. Jedną z kluczowych propozycji badaczy z Santa Cruz była sugestia Normana H. Packarda, Jamesa P. Crutchfielda, J. Doyne’a Farmera i Roberta S. Shawa (wzorcowy zestaw autorów): Geometry from a Time Series, „Physical Review Letters” 1980, 47, s. 712. Największy zasięg miała praca Florisa Takensa, Detecting Strange Attractors in Turbulence, w: Lecture Notes in Mathematics, 898, red. D.A. Rand, L.S. Young, Springer Verlag, Berlin 1981, s. 336. Wczesny, ale bardzo szeroki przegląd technik rekonstruowania portretów fazowych został zawarty w pracy Harolda Froehlinga, Jamesa P. Crutchfielda, J. Doyne’a Farmera, Normana H. Packarda i Roberta S. Shawa, On Determining the Dimension of Chaotic Flows, „Physica” 1981, 3D, s. 605-617. 31 J.P. Crutchfield. 32 Na przykład M. Nauenberg. 33 R. Shaw. 34 Nie wynika z tego, że studenci ci całkowicie ignorowali odwzorowania. Crutchfield, inspirowany pracą Maya, spędzał w 1978 roku tak dużo czasu przy wykonywaniu wykresów bifurkacji, że zakazano mu używania plotera w centrum obliczeniowym. Zniszczonych zostało bowiem zbyt wiele pisaków plotera, które stukały w papier, wykonując miliony kropek. 35 J.D. Farmer. 36 J.D. Farmer. 37 R. Shaw. 38 J. Crutchfield, B. Huberman. 39 B. Huberman. 40 Bernardo A. Huberman, James P. Crutchfield, Chaotic States of Anharmonic Systems in Periodic Fields, „Physical Review Letters” 1979, 43, s. 1743. 41 J. Crutchfield. 42 Dyskusja na ten temat trwa na łamach „Nature”. 43 J. Ramsey. 44 J. Doyne Farmer, Edward Ott, James A. Yorke, The Dimension of Chaotic Attractors, „Physica” 1983, 7D, s. 153-180. 45 Tamże, s. 154.
Wewnętrzne rytmy Nauka nie próbuje wyjaśniać, nawet nie próbuje interpretować, nauka głównie buduje modele. Przez model rozumie się matematyczną konstrukcję, która z dodatkiem pewnych werbalnych interpretacji opisuje obserwowane zjawiska. Uzasadnienie takiej matematycznej konstrukcji opiera się tylko i wyłącznie na nadziei, że to będzie działać. John von Neumann
Bernardo Huberman 1 zlustrował swoje audytorium, złożone z biologów, teoretyków i doświadczalników, matematyków, lekarzy i psychiatrów, i uświadomił sobie, że będzie miał problemy z porozumieniem się z nimi. Właśnie skończył niezwykły wykład na niezwykłym spotkaniu, które odbyło się w roku 1986, a które było pierwszą ważniejszą konferencją na temat chaosu w biologii i medycynie zorganizowaną pod auspicjami New York Academy of Sciences, National Institute of Mental Health oraz Office of Naval Research. W przepastnym Masur Auditorium w National Institutes of Health, poza Waszyngtonem, Huberman widział wielu znanych już, chaologów z długim stażem, jak również wiele nieznanych mu osób. Doświadczony mówca mógł się spodziewać jakiegoś przejawu niecierpliwości ze strony audytorium gdyż był to ostatni dzień konferencji i czas obiadu.
Huberman, smukły, ciemnowłosy Kalifornijczyk pochodzący z Argentyny, interesował się chaosem od czasu współpracy z członkami grupy chaologów z Santa Cruz. Był pracownikiem naukowym w Xerox Corporation’s Palo Alto Research Center. Ale czasami parał się projektami, które nie należały do zadań korporacji i tutaj, na konferencji biologicznej, właśnie kończył opisywanie jednego z nich: modelu ruchów oczu u schizofreników. Psychiatrzy dążyli od pokoleń do zdefiniowania schizofrenii i sklasyfikowania schizofreników, ale choroba jest prawie tak trudna do opisania jak do leczenia. Większość jej symptomów ujawnia się w umyśle i zachowaniu. Od roku 1908 naukowcy znali fizyczną manifestację tej choroby, która wydawała się gnębić nie tylko schizofreników, ale również ich krewnych. Kiedy pacjenci starają się obserwować wolno kołyszące się wahadło, ich oczy nie mogą śledzić ruchu w sposób ciągły. Zwykle oko jest instrumentem dobrze spełniającym swoje zadanie. Oczy zdrowej osoby fiksują na poruszającym się celu zupełnie nieświadomie; poruszający się obraz pozostaje w jednym miejscu na ich siatkówkach. Ale oczy schizofrenika poruszają się małymi skokami, przelatując poza lub przed cel i produkując stałą mgiełkę ubocznych ruchów. I nikt nie wie dlaczego. Fizjologowie przez lata zgromadzili ogromną ilość danych, sporządzali tabele i wykresy, aby pokazać strukturę błądzących ruchów oczu chorego. Generalnie zakładali, że nieregularność jest efektem fluktuacji sygnału z centralnego układu nerwowego sterującego mięśniami gałki ocznej. Szumy na wyjściu implikowały istnienie szumów na wejściu i może pewne przypadkowe zakłócenia zaburzające mózg schizofrenika zostają uwidocznione w ruchach oczu. Huberman był fizykiem: założył coś innego i zaproponował własny model. Rozważał mechanikę oka w uproszczony sposób i napisał równanie. Było tam wyrażenie na amplitudę poruszającego się wahadła i na jego
częstotliwość. Było również wyrażenie opisujące bezwładność oka. Było wyrażenie na tłumienie, czyli tarcie. I było też wyrażenie na korektę błędów, aby dać oku możliwość fiksowania na celu. Jak wyjaśnił swoim słuchaczom, tak się składa, że otrzymane równanie opisuje analogiczny układ mechaniczny: piłkę toczącą się w zakrzywionym korycie, gdy koryto kołysze się z boku na bok. Ruch z boku na bok odpowiada ruchowi wahadła, a ściany koryta odpowiadają zdolności do korygowania błędów poprzez popychanie piłki z powrotem w kierunku centrum. Zgodnie z nowym stylem badania takich równań Huberman przez kilka godzin testował swój model na komputerze, zmieniając różne parametry i wykonując rysunki wynikających stąd zachowań. Znalazł zarówno porządek, jak i chaos. W pewnych obszarach ruch śledzący oka jest gładki; później, kiedy stopień nieliniowości wzrasta, układ przechodzi przez sekwencję podwojeń okresu i generuje rodzaj nieporządku, który był nieodróżnialny od nieporządku przedstawianego w literaturze medycznej. W modelu tym błądzące zachowanie oka nie ma nic wspólnego z zewnętrznymi sygnałami. Było ono nieuchronną konsekwencją zbyt wielkiej nieliniowości układu. Kilku słuchających go lekarzy uznało, że model Hubermana wydaje się pasować do wiarygodnego, genetycznego modelu schizofrenii. Nieliniowość, która mogłaby albo stabilizować układ, albo go zaburzać w zależności od tego, czy jest słaba, czy silna, mogłaby również odpowiadać pojedynczej cesze genetycznej. Jeden z psychiatrów porównał tę koncepcję do genetyki podagry, w której zbyt wysoki poziom kwasu moczowego powoduje patologiczne objawy. Inni, lepiej niż Huberman znający literaturę kliniczną, zauważyli, że schizofrenicy nie są wyjątkami; wiele zaburzeń ruchu oczu można zauważyć u różnych pacjentów neurologicznych. Oscylacje okresowe, oscylacje nieokresowe, wszelkie rodzaje zachowań dynamicznych mogłyby być znalezione w danych przez
każdego, kto chciałby zastosować chaologiczne narzędzia. Jednak na każdego obecnego tam naukowca, który był świadkiem inauguracji nowych kierunków badań, przypadał inny, który podejrzewał, że Huberman nazbyt uprościł swój model. Kiedy nadszedł czas na zadawanie pytań, oponenci dali upust swojej irytacji i frustracji. „Jaki jest cel pańskiego modelowania? — zapytał jeden z naukowców. — Dlaczego szuka pan tych specyficznych elementów dynamiki nieliniowej, mianowicie tych bifurkacji i rozwiązań chaotycznych?” Hubermen odczekał chwilę. „Więc dobrze. Rzeczywiście nie przedstawiłem celu tego wszystkiego. Model jest prosty. Ktoś przychodzi do mnie i mówi: mamy to i wykonujemy obserwacje — co według pana się tutaj dzieje? Więc pytam: jakie wyjaśnienie jest możliwe? Oni mówią: dobrze, jedyną rzeczą, którą możemy znaleźć, jest coś, co fluktuuje w przeciągu tak krótkiego czasu w głowie. Mówię: spójrzcie, jestem chaologiem i wiem, że najprostszy nieliniowy model, jaki jesteście w stanie napisać, najprostszy, ma takie ogólne właściwości, niezależnie od tego, jak wyglądają szczegóły. Zrobiłem tak i ludzie powiedzieli: och, to bardzo interesujące, nigdy nie przypuszczaliśmy, że w układzie może być wbudowany chaos. Model nie obejmuje żadnych danych neurofizjologicznych, których nie umiałbym nawet obronić. Chciałem powiedzieć tylko, że najprostszy model takiego ruchu tak właśnie działa, że układ najpierw robi błąd, który później zostaje skorygowany. W ten sposób poruszamy naszymi oczami i w ten sposób antena śledzi samolot. Można zastosować ten model do wszystkiego”. Spośród słuchających inny biolog, wciąż niezadowolony z nadmiernych uproszczeń modelu Hubermana, wziął mikrofon. „W prawdziwych oczach — zauważył — działa równocześnie układ złożony z czterech mięśni”. I zaczął przedstawiać wysoce techniczny opis tego, co on uważał za realistyczny model, i że, na przykład, wyraz zawierający masę jest niewłaściwy, ponieważ
ruch oka byłby nadmiernie tłumiony. „I jest jeszcze inna dodatkowa komplikacja: efektywna masa zależy od prędkości rotacji, ponieważ część masy pozostaje w tyle, kiedy zewnętrzna otoczka obraca się bardzo szybko”. Cisza. Huberman był w trudnej sytuacji. Wreszcie zabrał głos jeden z organizatorów konferencji, Arnold Mandell, psychiatra od dawna interesujący się chaosem. „Proszę mi pozwolić coś dodać — zaczął. — To, co państwo widzieli, zdarza się wtedy, gdy specjalista od dynamiki nieliniowej pracujący nad ogólnymi układami o niskim wymiarze przychodzi zaprezentować coś biologom, którzy stosują narzędzia matematyczne. Idea, że w rzeczywistości istnieją uniwersalne właściwości układów wbudowane w najprostsze reprezentacje, zraża każdego z nas. Więc kwestie są następujące: O jaki typ schizofrenii chodzi? Są cztery układy motoryczne oka. Jaki jest związek tego modelu z faktyczną strukturą fizyczną oka? — i model zaczyna się rozpadać. W rzeczywistości lekarz albo naukowiec, poznawszy wszystkie pięćdziesiąt tysięcy części wszystkich możliwych mięśni i komórek, nie przyjmuje do wiadomości tego, że są faktycznie uniwersalne elementy ruchu. A Bernardo przybył z taką propozycją i widzimy, co się stało”. Huberman powiedział: „To samo zdarzyło się w fizyce pięć lat temu, ale teraz fizycy są już przekonani”. Zawsze są tylko dwa wyjścia. Możesz bardziej komplikować swój model, aby wierniej odzwierciedlał rzeczywistość, albo możesz go uprościć i ułatwić operowanie nim. Tylko najbardziej naiwni naukowcy wierzą, że idealny model to taki, który idealnie reprezentuje rzeczywistość. Taki model mógłby mieć te same wady jak plan tak wielki i szczegółowy jak miasto, które ukazuje, plan przedstawiający każdy park, każdą ulicę, budynek, drzewo, wybój na drodze, każdego mieszkańca, jak każda mapa. Gdyby wykonanie takiego planu było możliwe, jego dokładność niweczyłaby jego cel:
generalizację i abstrakcję. Twórcy map uwypuklają takie cechy, jakich potrzebuje ich klient. Niezależnie od ich celu, mapy i modele muszą nie tylko obrazować świat, ale muszą go również upraszczać. Dla Ralpha Abrahama, matematyka z Santa Cruz, dobrym modelem jest „świat stokrotek” Jamesa E. Lovelocka i Lynna Margulisa, proponentów tzw. hipotezy Gaia, w której warunki potrzebne do życia są tworzone i utrzymywane przez samo życie w samopodtrzymującym się procesie dynamicznego sprzężenia zwrotnego. Świat stokrotek jest może najprostszą myślową wersją Gaia, tak prostą, że wydaje się idiotyczna. „Mamy trzy rzeczy — jak to przedstawił Abraham 2 — białe stokrotki, czarne stokrotki i jałową pustynię. Trzy kolory: biały, czarny i czerwony. Jak może to nauczyć nas czegoś o naszej planecie? To wyjaśnia, jak pojawia się regulacja temperatury. To wyjaśnia, dlaczego ta planeta ma dobrą temperaturę dla życia. Model świata stokrotek jest okropnym modelem, ale uczy, jak utworzyła się biologiczna homeostaza na Ziemi”. Białe stokrotki odbijają światło, ochładzając w ten sposób planetę. Czarne stokrotki absorbują światło, obniżając albedo, czyli współczynnik odbicia, a zatem powodują ocieplanie się planety. Ale białe stokrotki „chcą” ciepła, co oznacza, że dobrze się rozwijają, gdy temperatura rośnie. Czarne stokrotki wolą zimną pogodę. Te cechy mogą być wyrażone za pomocą układu równań różniczkowych, a świat stokrotek można puścić w ruch na komputerze. Szeroki zakres warunków początkowych będzie prowadził do równowagi, ale niekoniecznie do równowagi statycznej. „To jest właśnie matematyczny model modelu pojęciowego i to jest to, czego potrzebujesz — nie chcesz modeli układów biologicznych czy społecznych o wysokiej wierności — powiedział Abraham. — Wprowadzasz współczynniki odbicia, jakąś wyjściową roślinność i obserwujesz miliardy lat ewolucji. I uczysz dzieci, aby były lepszymi członkami zarządu planety”.
Wzorem złożonego układu dynamicznego, a dla wielu naukowców kamieniem probierczym jakiegokolwiek podejścia do złożoności jest ciało człowieka. Żaden obiekt badań dostępny fizykom nie oferuje takiej kakofonii antyrytmicznych ruchów, od skali makroskopowej do mikroskopowej: ruchów mięśni, płynów, prądów, włókien, komórek. Żaden układ fizyczny nie nadaje się do tak obsesyjnego redukcjonizmu: każdy organ ma swoją mikrostrukturę i własną chemię, a student fizjologii spędza lata, aby nauczyć się nazywać jego części. Jednak jak trudne do zrozumienia mogą być te części! Co więcej, częścią ciała może być dobrze określony organ taki jak wątroba. Ale może to być przestrzennie skomplikowana sieć ciał stałych i cieczy taka jak układ naczyniowy. Albo może to być niewidoczny zespół równie abstrakcyjnych rzeczy jak „ruch drogowy” albo „demokracja”. Na przykład układ odpornościowy z limfocytami i strukturą molekuły T4 jest zminiaturyzowaną machiną kryptograficzną, kodującą i dekodującą dane o organizmach wnikających do ciała człowieka. Badanie takich układów bez szczegółowej wiedzy o ich anatomii i chemii byłoby próżne, więc kardiolodzy uczą się o transporcie jonów przez mięśnie komór serca, specjaliści od mózgu uczą się o elektrycznych osobliwościach wyładowań w komórkach nerwowych, specjaliści od oczu uczą się nazwy, miejsca i celu każdego mięśnia gałki ocznej. W latach osiemdziesiątych chaos powołał do życia nowy rodzaj fizjologii zbudowanej na koncepcji, że narzędzia matematyczne mogłyby pomóc naukowcom zrozumieć globalne układy złożone niezależnie od lokalnych szczegółów. Badacze coraz częściej napotykali w ciele człowieka różnego rodzaju ruchy oscylacyjne i rozwinęli metody słuchania ich urozmaiconego bębnienia 3. Znaleźli rytmy, które były niewidoczne na zamrożonych skrawkach mikroskopowych albo próbkach krwi. Badali chaos w chorobach układu oddechowego. Studiowali mechanizmy sprzężeń zwrotnych w sterowaniu czerwonymi i białymi
ciałkami krwi. Onkolodzy spekulowali o periodyczności i nieregularności w cyklu wzrostu komórek. Psychiatrzy rozważali wielowymiarowe podejście do przepisywania leków antydepresyjnych. Ale zadziwiające odkrycia dotyczące jednego organu dominowały w rozwijaniu się nowej fizjologii. Organem tym było serce, którego żywe rytmy, stabilne i niestabilne, fizjologiczne i patologiczne, tak precycyjnie mierzą różnicę między życiem i śmiercią. * Nawet David Ruelle od formalizmu zawędrował do spekulacji na temat chaosu w sercu — w „układzie dynamicznym o życiowym znaczeniu dla każdego z nas” — jak napisał 4. „W normalnym obszarze pracy serce bije okresowo, ale istnieje wiele nieokresowych patologii (jak migotanie komór), które prowadzą do stanu stabilnego — śmierci. Wydaje się, że można by wyciągnąć olbrzymie korzyści dla medycyny z badań komputerowych realistycznego matematycznego modelu, który reprodukowałby różne dynamiczne obszary pracy serca”. Zespoły badaczy ze Stanów Zjednoczonych i Kanady podjęły się tego zadania. Nieregularnoć w rytmie serca była od dawna znana, badana, izolowana i klasyfikowana. Wprawnym uchem można rozróżnić dziesiątki nieregularnych rytmów. Dla wprawnego oka struktura zapisu elektrokardiograficznego dostarcza wskazówek co do źródła i ważności nieregularności. Laik może oceniać bogactwo problemu na podstawie obfitości nazw używanych do określania różnych rodzajów arytmii. Istnieją pobudzenia pozazatokowe dodatkowe, zmienność elektryczna i torsades de pointes (częstoskurcz wielokształtny). Są bloki zaawansowane i rytm pozazatokowy. Istnieje parasystolia (przedsionkowa albo komorowa, czysta
lub modulowana). Są rytmy Wenckebacha (proste lub złożone). Jest częstoskurcz. Najbardziej niebezpieczne ze wszystkich jest migotanie. To nazywanie rytmów, podobnie jak nazywanie części ciała, pokrzepia lekarzy. Pozwala ono na uszczegółowienie diagnozy i zaangażowanie własnej inteligencji. Ale badacze stosujący teorię chaosu zaczęli odkrywać, że tradycyjna kardiologia dokonywała błędnej generalizacji, jeśli chodzi o nieregularność uderzeń serca, niebacznie używając sztucznej klasyfikacji, aby ukryć głębsze przyczyny. Oni odkryli serce dynamiczne. Prawie zawsze ich wykształcenie było niezwykłe. Leon Glass z McGill University w Montrealu był z wykształcenia fizykiem i chemikiem i w tych dziedzinach folgował swoim zainteresowaniom liczbami i nieregularnością. Zanim zwrócił się ku problemom rytmu serca, napisał rozprawę doktorską, która dotyczyła ruchów atomów w cieczach. „Na ogół — powiedział — specjaliści diagnozują wiele różnych typów arytmii, oglądając krótkie paski elektrokardiogramów. Jest to traktowane przez lekarzy jako problem rozpoznawania obrazów, jako sprawa identyfikowania obrazów, które widzieli poprzednio w praktyce i w podręcznikach. W rzeczywistości nie analizują w szczegółach dynamiki tych rytmów. A dynamika ta jest dużo bogatsza, niż ktokolwiek może wyczytać z podręczników” 5. W Harvard Medical School, Ary L. Goldberger, członek zarządu laboratorium w Beth Israel Hospital w Bostonie, wierzył, że badania serca stanowiły obszar możliwej współpracy między fizjologami, matematykami i fizykami. „Jesteśmy przy nowej granicy, a za nią pojawia się nowa klasa fenomenologii — powiedział 6. — Kiedy widzimy bifurkacje, nagłe zmiany w zachowaniu, żadne modele liniowe nie potrafią tego wyjaśnić. Widocznie potrzebujemy nowej klasy modeli i fizyka wydaje się je dostarczać”. Goldberger i inni naukowcy musieli obejść bariery języka naukowego
i instytucjonalnej klasyfikacji. Uczony ten sądził, że istotną przeszkodą była niechęć wielu fizjologów do matematyków. „W roku 1986 nie znajdziesz słowa «fraktal» w książce z zakresu fizjologii — powiedział. — Myślę, że w roku 1996 nie znajdę książki z fizjologii bez tego słowa”. Lekarz słuchający bicia serca słyszy syczenie i uderzenia płynu o płyn, płynu o ciało stałe oraz ciała stałego o ciało stałe. Krew przechodzi z komory do komory wyciskana przez mięśnie, a potem rozciąga ściany przed sobą. Aby uniemożliwić jej powrót, włókniste zastawki zatrzaskują się, wywołując słyszalny dźwięk. Skurcz mięśni zależy od złożonej trójwymiarowej fali aktywności elektrycznej. Modelowanie jakiegokolwiek fragmentu zachowania zmęczyłoby nawet superkomputer; modelowanie całego cyklu jest niemożliwe; natomiast modelowanie komputerowe w rodzaju tego, które wydaje się naturalne dla eksperta od dynamiki płynów projektującego skrzydła do samolotu dla Boeinga albo przepływy w silniku rakietowym dla NASA, jest praktyką obcą technologom medycznym. Metoda prób i błędów rządziła, na przykład, projektowaniem sztucznych zastawek serca — urządzeń z metalu i plastyku, które teraz przedłużają życie tym, których naturalne zastawki się zużyły. W annałach technicznych specjalne miejsce musi być zarezerwowane dla naturalnej zastawki serca: błonkowatego, podatnego, przezroczystego układu trzech cienkich zagłębień przypominających spadochrony. Aby wpuścić krew do komory tłoczącej serca, zastawka musi z gracją usunąć się z drogi. Aby przeszkodzić krwi w cofaniu się, kiedy serce ją wypompowuje, zastawka musi zatrzaskiwać się pod wpływem ciśnienia i musi to robić, nie rozrywając się i nie przeciekając, dwa albo trzy miliardy razy. Inżynierowie nie zrobili tego tak dobrze. Sztuczne zastawki, ogólnie mówiąc, zostały pożyczone od monterów: były to standardowe konstrukcje, takie jak zawór kulowy, testowane za wielkie pieniądze na zwierzętach. Obejście oczywistych problemów z przeciekaniem
i naprężeniami było już bardzo trudne. Niewielu spodziewało się, jak trudno będzie wyeliminować inny problem. Przez zmianę struktury przepływu cieczy w sercu sztuczne zastawki wytwarzają obszary turbulencji i obszary zastoju krwi: kiedy krew stoi, tworzą się zakrzepy, kiedy zakrzepy się odrywają, wędrują do mózgu i wywołują udar. Takie zakrzepy były fatalną barierą przy konstruowaniu sztucznego serca. Dopiero w połowie lat osiemdziesiątych, kiedy matematycy z Courant Institute z New York University 7 zastosowali nową technikę modelowania komputerowego do tego problemu, projektanci zastawek serca zaczęli w pełni korzystać z dostępnej technologii. Ich komputer wykonał obrazy ruchu bijącego serca, dwuwymiarowe, ale świetnie rozpoznawalne. Setki punktów, reprezentujące cząsteczki krwi, przepływało przez zastawkę, rozciągając elastyczne ściany serca i tworząc wiry. Matematycy stwierdzili, że serce powiększa standardowy problem przepływu płynów o jeden rząd trudności, ponieważ dowolny realistyczny model musi brać pod uwagę elastyczność ścian serca. Zamiast przepływu wokół sztywnej powierzchni, jak w przypadku powietrza płynącego nad skrzydłem samolotu, krew zmienia powierzchnię serca dynamicznie i nieliniowo. Jeszcze subtelniejszy i ważny życiowo był problem arytmii. Migotanie komór powoduje setki tysięcy nagłych zgonów każdego roku tylko w Stanach Zjednoczonych. Bardzo często migotanie ma specyficzną, dobrze znaną przyczynę: blokadę tętnic prowadzącą do obumarcia mięśnia sercowego. Zażywanie kokainy, stres nerwowy, hipotermia również mogą wytworzyć ryzyko wystąpienia migotania. W wielu przypadkach początek migotania pozostaje tajemniczy. Stojąc przed pacjentem, który przeżył atak migotania, lekarz będzie chciał widzieć uszkodzenie — dowód na istnienie przyczyny. Pacjent ze zdrowym na pozór sercem jest w rzeczywistości bardziej narażony na ponowny atak 8.
Istnieje klasyczna metafora obrazująca migotające serce: worek pełen robaków. Zamiast kurczyć się i rozkurczać, kurczyć się i rozkurczać na przemian, w periodyczny sposób, tkanki mięśnia sercowego wiją się w nieskoordynowany sposób, bezradnie próbując pompować krew. W normalnie bijącym sercu sygnał elektryczny wędruje jako skoordynowana fala poprzez trójwymiarową strukturę tego narządu. Kiedy sygnał dociera, zaczyna się skurcz. Potem każda komórka rozkurcza się przez okres refrakcji, podczas którego nie może ponownie zostać pobudzona przedwcześnie. W sercu migotającym fala się załamuje. Serce nigdy jako całość nie kurczy się i nie rozkurcza. Zdumiewającą właściwością zjawiska migotania jest to, że wiele indywidualnych składników serca może pracować normalnie. Często ośrodki bodźcotwórcze w dalszym ciągu wysyłają regularne tyknięcia elektryczne. Indywidualne komórki mięśniowe odpowiadają właściwie. Każda komórka otrzymuje swój bodziec, kurczy się, przekazuje bodziec dalej i rozkurcza się, oczekując na następny bodziec. Sekcja zwłok ujawnia, że tkanka mięśniowa nie wykazuje żadnego uszkodzenia. To jedna z przyczyn, dla których eksperci uważali, że nowe, globalne podejście jest konieczne: części serca migocącego wydają się pracować, jednak całość idzie zupełnie na opak. Migotanie jest chorobą złożonego układu, podobnie jak choroby umysłowe — niezależnie od tego, czy mają chemiczne podłoże. Serce samo nie zatrzyma migotania. Ten rodzaj chaosu jest stabilny. Dopiero wstrząs urządzenia defibrylacyjnego — wstrząs, który każdy dynamik rozpoznaje jako potężne zaburzenie — może spowodować powrót do stanu stabilnego. Na ogół defibrylatory są skuteczne. Ale ich projektowanie, podobnie jak projektowanie sztucznych zastawek serca, wymagało dużo zgadywania. „Sprawa określenia wielkości i kształtu tego uderzenia jest ściśle empiryczna — powiedział Arthur T. Winfree 9, biolog
teoretyk. — Nie było żadnej teorii tego. Teraz wydaje się, że pewne założenia nie były poprawne. Wydaje się, że defibrylatory powinny być radykalnie przeprojektowane, aby wielokrotnie podnieść ich skuteczność, a zatem, aby wielokrotnie powiększyć szanse sukcesu”. W przypadku innych anormalnych rytmów serca wypróbowywano zestaw terapii lekowych, również opartych głównie na metodzie prób i błędów, na „czarnej sztuce”, jak to określił Winfree. Bez rozsądnego teoretycznego zrozumienia dynamiki serca trudno przewidzieć efekty danego leku. „W ciągu ostatnich dwudziestu lat zrobiono wiele dobrej roboty, wyszukując wszystkie szczególiki fizjologii błony komórkowej, wszystkie precyzyjne, ogromnie złożone funkcje wszystkich elementów serca. Ta istotna część sprawy ma się dobrze. Przeoczono jednak drugą stronę medalu, nie próbowano uzyskać jakiegoś ogólnego spojrzenia na to, jak serce pracuje jako całość”. Winfree pochodził z rodziny, w której nikt nie uczęszczał do college’u. Rozpoczął — jak powiedział — od tego, że nie miał właściwego wykształcenia. Jego ojciec, rozpocząwszy karierę jako niższy pracownik przedsiębiorstwa ubezpieczeniowego i doszedłszy do szczebla wiceprezesa, przeprowadzał się prawie co roku do innego miasta Wschodniego Wybrzeża, więc Winfree uczęszczał do tuzina szkół, zanim skończył średnią szkołę ogólnokształcącą. Rozwinął w sobie przekonanie, że interesujące rzeczy na świecie są związane z biologią i matematyką, i że żadna standardowa kombinacja tych dwóch dziedzin nie oddaje tego, co jest interesujące. Zdecydował się więc nie podchodzić do nich standardowo. Rozpoczął pięcioletni kurs fizyki technicznej w Cornell University, ucząc się stosować matematykę i różne praktyczne techniki laboratoryjne. Przygotowany do służby w kompleksie militarno-przemysłowym otrzymał doktorat z biologii, usiłując łączyć eksperyment z teorią w nowy sposób. Zaczął w Johns Hopkins University, który opuścił z powodu konfliktów z radą wydziału.
Kontynuował w Princeton, skąd odszedł również z powodu konfliktu z radą wydziału i ostatecznie stopień doktora przyznano mu na odległość, kiedy już uczył w University of Chicago. Winfree należy do rzadkiego gatunku myślicieli przenoszących duże wyczucie geometrii do swoich prac z zakresu problemów fizjologicznych 10. Zaczął na początku lat siedemdziesiątych od badania dynamiki w zegarach biologicznych — w rytmach okołodobowych. Był to obszar tradycyjnie opanowany przez przyrodnicze podejście: każdemu zwierzęciu przyporządkowywano określony rytm. Według Winfreego problem rytmów okołodobowych powinien pasować do matematycznego stylu myślenia. „Miałem głowę pełną dynamiki nieliniowej — powiedział — i uświadomiłem sobie, że ten problem mógłby być rozważany i powinien być rozważany w tych jakościowych kategoriach. Nikt nie miał pojęcia, jakie są mechanizmy zegarów biologicznych, więc były dwie możliwości. Można było czekać, aż biochemicy wynajdą mechanizm zegarów i próbować wyprowadzić jakieś zachowanie na podstawie znanych mechanizmów, albo zacząć od studiowania tego, jak zegary pracują w kategoriach teorii złożonych układów oraz nieliniowej i topologicznej dynamiki. Wybrałem to drugie podejście” 11. Kiedyś obserwował w laboratorium moskity w klatkach. Jak wie każdy obozowicz, rozzuchwalają się one codziennie tuż przed zmierzchem. W pracowni, gdzie utrzymywana jest stała temperatura i oświetlenie, niezależnie od następstwa dnia i nocy, moskity wykazują wewnętrzny cykl o okresie nie dwudziestu czterech godzin, ale dwudziestu trzech. Co dwadzieścia trzy godziny brzęczą ze szczególnym natężeniem. Na świeżym powietrzu ich rytm jest regulowany przez impuls światła, które otrzymują każdego dnia; w rezultacie przestawia on zegar. Winfree oświetlał sztucznym światłem swoje moskity w dawkach, które
dokładnie regulował. Te bodźce albo przyspieszały, albo opóźniały następny cykl, a Winfree wykreślał ten efekt w funkcji czasu trwania bodźca. Potem, zamiast próbować wniknąć w procesy biochemiczne leżące u podstaw tego zjawiska, spojrzał na ten problem topologicznie — to znaczy przyjrzał się jakościowemu kształtowi danych zamiast ilościowym szczegółom. Doszedł do zdumiewającego wniosku: istnieje pewna osobliwość w geometrii, pewien punkt różny od wszystkich innych punktów. Patrząc na tę osobliwość, przewidział, że pewien szczególny, precyzyjnie odmierzony impuls światła spowoduje całkowite załamanie się zegara biologicznego moskitów czy innego dowolnego zegara biologicznego. Wniosek ten był zaskakujący, ale doświadczenia Winfreego potwierdziły go. „Idziesz do moskitów o północy i dajesz im pewną liczbę fotonów, i to szczególnie dobrze odmierzone uderzenie światła wyłącza zegar owada. W tym momencie zaczyna cierpieć na bezsenność — będzie drzemać, brzęczeć przez moment, wszystko przypadkowo, i będzie czynił to tak długo, jak długo będziesz go obserwował albo nadejdziesz z nowym impulsem światła. Wywołujesz u niego chroniczne opóźnienie w czasie” 12. Na początku lat siedemdziesiątych matematyczne podejście Winfreego do rytmów okołodobowych wzbudzało niewielkie ogólne zainteresowanie i było trudno rozszerzyć tę technikę laboratoryjną na inne gatunki, których nie można było miesiącami trzymać w małych klatkach. Zaburzenia rytmów biologicznych i bezsenność pozostają na liście nierozwiązanych problemów biologicznych. Oba te zagadnienia wyzwalają najgorszego gatunku szarlatanizm — bezużyteczne pigułki i leki znachorskie. Badacze zgromadzili dane dotyczące ludzi, zwykle studentów, emerytów albo autorów sztuk, którzy musieli pisać teksty na ostatnią chwilę. Osoby te zgodziły się za opłatą kilkuset dolarów tygodniowo żyć w „izolacji czasowej”: bez światła dziennego, bez zmian temperatury, bez zegarów
i telefonów. Ludzie mają cykl snu i czuwania oraz cykl zmian temperatury ciała, przy czym oba cykle są nieliniowymi oscylatorami, które wracają do normy po wytrąceniu ich za pomocą niewielkich zaburzeń. W izolacji, bez dziennych bodźców nastawczych, cykl temperaturowy wydaje się trwać dwadzieścia pięć godzin, przy czym minimum występuje podczas snu. Jednak doświadczenia niemieckich badaczy wykazały, że po kilku tygodniach cykl snu i czuwania oddziela się od cyklu temperaturowego i staje się chaotyczny. Ludzie czuwają przez dwadzieścia albo trzydzieści godzin, po czym śpią przez dziesięć albo dwadzieścia godzin. Osoby badane nie tylko nie są świadome, że ich doba wydłuża się, ale nie chcą w to wierzyć, nawet gdy się im o tym powie. Dopiero w połowie lat osiemdziesiątych badacze zaczęli stosować systematyczną metodę Winfreego do badania ludzi. Zaczęto od starszej kobiety, która wieczorami robiła na drutach przy świetle całej baterii lamp. Jej cykl zmienił się drastycznie i jednocześnie stwierdzała, że czuje się doskonale, jak gdyby jechała samochodem z opuszczonym dachem 13. Tymczasem Winfree przeniósł swoje zainteresowania na rytmy serca. W rzeczywistości on nie powiedziałby, że je „przeniósł”. Dla Winfreego był to ten sam temat — inna chemia, ta sama dynamika. Jego szczególne zainteresowanie sercem wzrosło jednak po tym, jak bezradnie przypatrywał się nagłej śmierci na serce dwóch osób: krewnego w czasie wakacji letnich i drugiej osoby na basenie, gdzie pływał 14. Dlaczego rytm, który utrzymuje się przez całe życie, dwa miliardy razy albo więcej nieprzerwanych cyklów, skurczów i rozkurczów, przyspieszeń i zwolnień, nagle rozpada się na niekontrolowane, fatalne, nieefektywne szaleństwo? Winfree opowiadał historię pewnego badacza, George’a Minesa, który w roku 1914 miał dwadzieścia osiem lat. W swym laboratorium w McGill University w Montrealu skonstruował niewielkie urządzenie, które mogło
wysyłać małe, precyzyjnie regulowane impulsy elektryczne do serca. „Kiedy Mines uznał, że nadszedł czas, aby zacząć badania na ludziach, wybrał najłatwiej osiągalny obiekt badań: siebie samego — pisał Winfree 15. — Około szóstej tego wieczora dozorca stwierdziwszy, że w laboratorium jest niezwyczajnie cicho, wszedł do pokoju. Mines leżał pod stołem laboratoryjnym, a wokół niego pogięty sprzęt elektryczny. Popsuty mechanizm był przytwierdzony do jego klatki piersiowej i jakiś fragment aparatury wciąż rejestrował słabnące bicie serca. Umarł, nie odzyskawszy przytomności”. Można się domyślać, że mały i precyzyjnie odmierzony wstrząs elektryczny mógł wprowadzić serce w stan migotania i Mines nawet przewidział to krótko przed śmiercią. Inne wstrząsy mogą przyspieszyć albo opóźnić następne uderzenie, tak jak w przypadku rytmu okołodobowego. Ale istnieje pewna różnica pomiędzy zegarem biologicznym i sercem, różnica, o której nie można zapomnieć nawet w uproszczonym modelu — serce jest obiektem przestrzennym. Możesz trzymać je w ręce. Możesz śledzić rozchodzenie się fali elektrycznej w trzech wymiarach.
ARTHUR WINFREE
Chaos chemiczny. Fale rozchodzące się na zewnątrz w postaci koncentrycznych okręgów, a nawet fale spiralne były oznakami chaosu w szeroko badanej reakcji chemicznej Biełousowa-Żabotyńskiego. Podobny wzór był obserwowany na szkiełkach laboratoryjnych zawierających miliony ameb. Arthur Winfree wysunął hipotezę, że takie fale są analogiem fal aktywności elektrycznej przebiegającej przez mięsień sercowy, regularnie bądź chaotycznie.
Jednak aby to uczynić, potrzeba pomysłowości 16. Raymond E. Ideker z Duke University Medical Center przeczytał artykuł Winfreego w „Scientific American” w 1983 roku i zanotował cztery konkretne przewidywania dotyczące indukowania i zatrzymywania migotania, oparte na dynamice nieliniowej i topologii. Ideker nie wierzył w ich prawdziwość. Wydawały się zbyt spekulatywne i, z punktu widzenia kardiologa, nazbyt abstrakcyjne. W ciągu trzech lat wszystkie cztery zostały przetestowane i potwierdzone, a Ideker realizował zaawansowany program badawczy mający na celu zgromadzenie bogatszych danych koniecznych do rozwinięcia dynamicznego podejścia do serca. Był to — jak powiedział Winfree 17 — „kardiologiczny odpowiednik cyklotronu”. Tradycyjny elektrokardiogram stanowi tylko wypadkowy jednowymiarowy zapis aktywności elektrycznej serca. Podczas operacji na sercu lekarz może wziąć elektrodę i przesuwać ją z jednego miejsca na sercu na drugie, próbkując około pięćdziesięciu albo sześćdziesięciu miejsc w ciągu dziesięciominutowego okresu i w ten sposób wygenerować pewien złożony obraz. Podczas migotania technika ta jest bezużyteczna. Serce zmienia się i drży o wiele za szybko. Ideker zastosował inną technikę: osadził 128 elektrod w siatce, którą umieszczał na sercu jak skarpetkę na nodze; do obróbki danych używał komputera prowadzącego analizę w czasie rzeczywistym. Elektrody rejestrowały pole elektryczne w czasie, gdy fale przemieszczały się wzdłuż mięśnia, a komputer sporządzał mapę serca. Intencją Idekera, poza testowaniem teoretycznych idei Winfreego, było udoskonalenie urządzeń elektrycznych używanych do zatrzymywania migotania 18. Zespoły pogotowia ratunkowego wożą standardowe wersje defibrylatorów gotowych do wytworzenia silnego wstrząsu prądem stałym poprzez klatkę piersiową pacjenta. W ramach eksperymentów kardiolodzy rozwinęli małe wszczepialne urządzenie wszywane do wnętrza klatki
piersiowej pacjentów podwyższonego ryzyka, chociaż identyfikacja takich pacjentów jest nadal trudna. Implantowany defibrylator, trochę większy niż stymulator serca, słucha bicia serca i czeka, aż stanie się konieczne wysłanie impulsów elektrycznych. Ideker zaczął gromadzić wiedzę fizyczną konieczną do zaprojektowania defibrylatorów mniejszych, które w większym stopniu oparte byłyby na wiedzy, a w mniejszym na wysoce ryzykownym zgadywaniu. Dlaczego prawa chaosu powinny stosować się do serca z jego osobliwą tkanką — komórkami tworzącymi wzajemnie połączone, rozgałęziające się włókna transportujące jony wapnia, potasu i sodu? To było pytanie intrygujące naukowców z McGill University i Massachusetts Institute of Technology. Leon Glass i jego koledzy — Michael Guevara i Alvin Schrier z McGill University zrealizowali jeden z najszerzej znanych programów badawczych w całej niedługiej historii dynamiki nieliniowej. Użyli niewielkich agregatów komórek serca siedmiodniowego embrionu kurczaka 19. Te kulki o średnicy 1/10 mm, złożone z komórek, położone na szkiełko laboratoryjne i potrząśnięte, zaczęły pulsować spontanicznie z szybkością rzędu jedno uderzenie na sekundę, bez żadnego rozrusznika z zewnątrz. Skurcze były dobrze widoczne pod mikroskopem. Następny krok polegał na zastosowaniu również zewnętrznego rytmu. Naukowcy z McGill University dokonali tego za pomocą mikroelektrod — cienkich rurek szklanych wyciągniętych w cienkie włókienko i wprowadzonych do jednej z komórek. Potencjał elektryczny był przenoszony przez rurkę, stymulując komórki z siłą i w rytmie, które mogły być regulowane. Wyniki uzyskane w ten sposób przedstawili w „Science” w roku 1981 20: „Egzotyczne dynamiczne zachowanie, które poprzednio było demonstrowane w badaniach matematycznych i w eksperymentach fizycznych, może być
obecne, kiedy biologiczne oscylatory są periodycznie zaburzane”. Zaobserwowali podwojenia okresu — rytmy uderzeń, które bifurkowały, kiedy zmieniał się bodziec. Wykonali odwzorowania Poincarégo i odwzorowania okręgu. Badali intermitencję i synchronizowanie modów. „Wiele różnych rytmów można wywołać pomiędzy bodźcem i małym kawałkiem serca kurczaka — powiedział Glass 21. — Używając matematyki nieliniowej, można całkiem dobrze zrozumieć rytmy i ich uporządkowanie. Obecnie wykształcenie kardiologa nie obejmuje matematyki, ale sposób, w jaki my patrzymy na te problemy, jest sposobem, którego — kiedyś w przyszłości — będą używać również inni ludzie”. Tymczasem w ramach połączonego programu Harvardu i MIT z pogranicza ochrony zdrowia i techniki Richard J. Cohen, kardiolog i fizyk, znalazł sekwencję bifurkacji w eksperymentach z psami. Używając modeli komputerowych, testował pewien prawdopodobny scenariusz, w którym czoło fali aktywności elektrycznej rozpadało się na wyspy w tkance. „Jest to świetny przykład zjawiska Feigenbauma — powiedział 22 — regularne zjawisko, które w pewnych warunkach staje się chaotyczne i okazuje się, że aktywność elektryczna w sercu ma wiele wspólnego z innymi układami, które rozwijają zachowanie chaotyczne”. Naukowcy z McGill University wrócili również do starych danych dotyczących różnych rodzajów anormalnych rytmów serca. W pewnym dobrze poznanym zespole anormalne, ektopowe uderzenia są przemieszane z normalnym rytmem zatokowym. Glass i jego koledzy zbadali strukturę rytmu, licząc uderzenia normalne, które występowały pomiędzy uderzeniami ektopowymi. U pewnych ludzi, choć liczba zmieniała się, jednak z jakichś przyczyn zawsze była nieparzysta: 3, 5 albo 7. U innych osób liczba normalnych uderzeń zawsze była częścią sekwencji: 2, 5, 8, 11... „Ludzie dokonali tych niesamowitych numerologicznych obserwacji, ale
mechanizmy nie są łatwe do zrozumienia — powiedział Glass 23. — Często występuje pewien typ regularności w tych liczbach, ale często istnieje również wielka nieregularność. Ukuto pewien slogan, który to charakteryzuje: porządek w chaosie”. Tradycyjnie rozważania o migotaniu przyjmują dwie formy. Jedna, klasyczna idea mówiła, że niektóre anormalne drugorzędowe ośrodki bodźcotwórcze wewnątrz samego mięśnia sercowego wysyłają sygnały, które wchodzą w konflikt z sygnałem głównym. Te drobne ektopowe ośrodki wyładowują w niewłaściwych momentach i współoddziaływanie oraz nakładanie się były uważane za przyczynę rozpadania się skoordynowanej fali skurczu. Badania naukowców z McGill University dostarczyły potwierdzenia tej idei: pokazali oni, że pełen zakres chaotycznych zachowań może powstać na skutek współoddziaływania pomiędzy zewnętrznym bodźcem a własnym rytmem tkanki sercowej. Ale dlaczego takie drugorzędne ośrodki bodźcotwórcze jednak w ogóle powstają, w dalszym ciągu jest trudne do wyjaśnienia. Inne podejście skupia uwagę nie na inicjacji fal elektrycznych, ale na sposobie, w jaki są one przewodzone „geograficznie” przez serce, i badacze z połączonego zespołu harwardzko-MIT-owskiego pozostali bliżsi tej tradycji. Stwierdzili, że anormalności w rozchodzeniu się fali prowadzi do zjawiska, w którym pewne obszary zaczynają nowy skurcz zbyt wcześnie, nie pozwalając na okres ciszy konieczny do utrzymania skoordynowanego pompowania. Przez położenie nacisku na metody dynamiki nieliniowej obie grupy badaczy były świadome tego, że mała zmiana jednego parametru — być może zmiana synchronizacji albo przewodności elektrycznej — może przeprowadzić zdrowy układ przez punkt bifurkacji w jakościowo nowe zachowanie. Zaczęto również znajdować wspólną podstawę do ogólnego
studiowania problemów serca, łącząc choroby, które nie były początkowo uważane za spokrewnione. Winfree był przekonany, że niezależnie od ich różnych zainteresowań, obie szkoły miały rację. Jego podejście topologiczne sugerowało, że te dwie idee mogą być jednym i tym samym. „Procesy dynamiczne są na ogół niezgodne z intuicją i serce nie stanowi tu wyjątku” — powiedział Winfree 24. Kardiolodzy mieli nadzieję, że badania doprowadzą do naukowego sposobu identyfikowania ich z ryzykiem migotania, zaprojektowania urządzeń defibrylacyjnych i przepisywania leków. Winfree spodziewał się również, że globalne, matematyczne spojrzenie na takie problemy użyźni biologię teoretyczną — dziedzinę, która w Stanach Zjednoczonych zaledwie egzystowała. Obecnie niektórzy fizjologowie mówią o chorobach dynamicznych: chorobach układów, załamaniu koordynacji albo sterowania. „Układy, które normalnie oscylują, przestają oscylować albo zaczynają oscylować w nowy i niespodziewany sposób, a układy, które normalnie nie oscylują, zaczynają oscylować” — mówi jedno sformułowanie 25. Te syndromy obejmują choroby układu oddechowego: oddychanie utrudnione, oddychanie CheyneStokesa i bezdech niemowlęcy — kojarzony z syndromem nagłej śmierci niemowląt. Istnieją choroby dynamiczne krwi, w tym pewna forma białaczki, w której zaburzenia zmieniają równowagę pomiędzy białymi i czerwonymi ciałkami krwi, płytkami krwi i limfocytami. Niektórzy naukowcy uważają, że schizofrenia mogłaby należeć do tej kategorii, podobnie jak pewne formy depresji. Ale fizjologowie zaczęli również rozumieć, że chaos może oznaczać zdrowie. Od dawna wiedziano, że nieliniowość w procesach ze sprzężeniem zwrotnym pełni funkcję regulacyjną i sterującą. Innymi słowy, w procesie liniowym niewielki impuls powoduje niewielkie wypadnięcie z toru na stałe. Nieliniowy proces przy tym samym impulsie wraca do swojego wyjściowego
punktu. Christian Huygens, siedemnastowieczny fizyk holenderski, który pomógł w wynalezieniu zegara wahadłowego i sformułowaniu klasycznej dynamiki, natrafił na jeden z największych przykładów tej formy regulacji — albo tak przynajmniej głosi tradycja. Huygens zauważył pewnego dnia, że kilka zegarów wahadłowych wiszących na ścianie waha się idealnie synchronicznie. Wiedział, że zegary nie mogą być tak dokładne. Nic w wówczas dostępnym matematycznym opisie wahadła nie mogło wyjaśnić tej tajemniczej propagacji porządku z jednego wahadła na drugie. Huygens podejrzewał słusznie, że zegary były koordynowane przez wibracje transmitowane przez drewno. To zjawisko, w którym jeden regularny cykl włącza się w drugi, jest obecnie nazywane porywaniem albo synchronizacją modów. Synchronizacja modów wyjaśnia, dlaczego Księżyc zwraca się ku Ziemi zawsze tą samą stroną, albo bardziej ogólnie, dlaczego okresy wirowania satelitów i ich okresy obiegu orbitalnego mają się do siebie jak pewne liczby całkowite: 1 do 1, 2 do 1 albo 3 do 2. Kiedy stosunek jest bliski liczby całkowitej, nieliniowość w przyciąganiu pływowym satelity dąży do zsynchronizowania go. Synchronizacja modów występuje w elektronice, umożliwiając na przykład odbiornikowi radiowemu odebranie sygnału radiowego, nawet gdy pojawią się małe wahania częstotliwości. Synchronizacja modów wyjaśnia zdolność grupy oscylatorów, w tym oscylatorów biologicznych, takich jak komórki serca czy neurony, do zgodnej pracy. Spektakularnym przykładem w przyrodzie jest gatunek świetlika z południowo-wschodniej Azji, którego przedstawiciele gromadzą się na drzewach w okresie godowym, tysiące w jednej chwili, błyskając w fantastycznej, upiornej harmonii. W przypadku wszelkich takich zjawisk sterowania krytycznym zagadnieniem jest stabilność: jak dobrze układ znosi niewielkie impulsy. Równie krytycznym czynnikiem w układach biologicznych jest elastyczność:
jak dobrze może układ funkcjonować w pewnym zakresie częstotliwości. Sprzęgnięcie się układów z jednym modem może oznaczać podporządkowywanie uniemożliwiające przystosowywanie się do zmiany. Organizmy muszą reagować na okoliczności, które zmieniają się gwałtownie i nieprzewidywalnie; rytm serca i oddychania nie mogą być zsynchronizowane ze ścisłą okresowością najprostszych modeli fizycznych i to samo dotyczy subtelniejszych rytmów reszty ciała. Niektórzy badacze, wśród nich Ary Goldberger z Harvard Medical School, zasugerowali, że dynamika zdrowego organizmu wyróżnia się fraktalną strukturą fizyczną, jak rozgałęziona sieć drzewka oskrzelowego w płucach i włókna bodźcoprzewodzącego w sercu, które dopuszczają szeroki zakres rytmów. Rozważając argumenty Roberta Shawa, Goldberger zauważył: „Procesy fraktalne związane ze skalowalnymi. szerokopasmowymi widmami są «bogate w informacje». Stany okresowe z drugiej strony odzwierciedlają wąskopasmowe widma i są określone przez monotoniczne, powtarzające się sekwencje, uszczuplające zawartość informacyjną” 26. Leczenie takich chorób, według sugestii jego oraz innych fizjologów, może zależeć od rozszerzenia rezerw widmowych układu, jego zdolności do obejmowania wielu różnych częstotliwości bez wpadania w zamknięty kanał okresowy. Arnold Mandell, psychiatra i dynamik z San Diego, który stał się rzecznikiem poglądów Bernarda Hubermana na temat ruchów oczu u schizofreników, poszedł nawet dalej w uwypuklaniu roli chaosu w fizjologii. „Czy jest możliwe, że patologia matematyczna, tj. chaos, oznacza zdrowie? I że matematyczne zdrowie, które jest przewidywalnością i różniczkowalnością tego rodzaju struktury, jest chorobą?” 27. Mandell zwrócił się ku chaosowi już w roku 1977, kiedy odkrył „osobliwe zachowanie” pewnych enzymów w mózgu, które można było wyjaśnić jedynie za pomocą nowych metod matematyki nieliniowej. Przystąpił
również do badania oscylujących trójwymiarowych plątanin molekuł białek w tych samych kategoriach; twierdził, że zamiast rysować statyczne struktury, biolodzy powinni rozumieć takie molekuły jako układy dynamiczne zdolne do przejść fazowych. Był on, jak sam twierdził, fanatykiem chaosu, a głównym jego zainteresowaniem pozostał najbardziej chaotyczny ze wszystkich organów. „Równowaga w biologii oznacza śmierć — powiedział 28. — Jeśli pytasz, czy twój mózg jest układem w równowadze, mogę tylko poprosić cię, abyś nie myślał o słoniach przez kilka minut, i już wiesz, że nie jest układem w równowadze”. Dla Mandella odkrycie chaosu narzuca zmianę w klinicznym podejściu do chorób psychicznych. Z obiektywnego punktu widzenia współczesna „psychofarmakologia” — używanie leków do leczenia wszystkiego, począwszy od podniecenia poprzez bezsenność aż do schizofrenii — musi być oceniona jako błąd. Niewielu pacjentów, jeśli w ogóle, wyleczono tą metodą. Najbardziej gwałtowne przejawy choroby umysłowej mogą być opanowane, ale z jakimi długoterminowymi konsekwencjami — tego nikt nie wie. Mandell przedstawiał swoim kolegom krytyczną ocenę najbardziej popularnych leków 29. Fenotiazyna, przepisywana schizofrenikom, pogłębia zasadniczą chorobę. Trójcykliczne leki przeciwdepresyjne „przyspieszają zmiany nastrojów, prowadząc do długookresowego zwiększenia się liczby nawracających psychopatologicznych epizodów”. I tak dalej. „Tylko lit odniósł jakiś realny sukces medyczny — powiedział Mandell — i tylko w przypadku niektórych chorób”. Według niego problem ma charakter koncepcyjny. Tradycyjne metody leczenia tej „najbardziej niestabilnej, dynamicznej, nieskończenie wymiarowej maszyny” były liniowe i redukcjonistyczne. „Zasadniczy paradygmat wygląda następująco: jeden gen → jedno białko → jeden enzym → jeden neurotransmiter → jeden receptor → jeden rodzaj zachowania się
zwierzęcia → jeden kliniczny syndrom → jeden lek → jedna klasyfikacja kliniczna. Dominuje on prawie we wszystkich badaniach i w leczeniu psychofarmakologicznym. Ponad pięćdziesiąt neurotransmiterów, tysiące typów komórek, złożona fenomenologia elektromagnetyczna i ciągła niestabilność oparta na aktywności autonomicznej na wszystkich poziomach — od białek do elektroencefalogramu — i wciąż mózg uważa się za chemiczną tablicę rozdzielczą” 30. Dla kogoś, kto zna dynamikę nieliniową, jedyną reakcją mogłoby być stwierdzenie: jakie to naiwne. Mandell pobudzał swoich kolegów do zrozumienia płynnej geometrii, która leży u podstaw złożonych układów, takich jak umysł.
JAMES A. YORKE
Chaotyczne harmonie. Współgranie różnych rytmów, takich jak częstotliwości radiowe albo orbity planetarne, produkuje szczególny rodzaj chaosu. Poniżej i na stronie obok przedstawiono obrazy komputerowe pewnych „atraktorów”, które mogą się pojawić, kiedy nakładają się trzy rytmy.
THEODOR SCHWENK
Chaotyczne prądy. Pręt przeciągnięty przez lepką ciecz wywołuje pojawienie się falistej formy. Jeśli przeciągnąć go kilka razy, powstają bardziej złożone wzory.
THEODOR SCHWENK
Wielu innych naukowców zaczęło stosować formalizm chaosu do badania sztucznej inteligencji. Dynamika układów wędrująca między basenami przyciągania pociągała tych, którzy szukali sposobów modelowania symboli
i pamięci 31. Fizyk rozważający idee jako regiony z rozmytymi granicami, rozdzielone, a jednak nakładające się, przyciągające jak magnes, a jednocześnie odpychające, w naturalny sposób zwraca się ku obrazowi przestrzeni fazowej z „basenami przyciągania”. Wydawało się, że takie modele mają właściwe cechy: punkty stabilności wymieszane z punktami niestabilności oraz obszary ze zmiennymi granicami 32. Ich fraktalna struktura przedstawiała rodzaj właściwości nieskończonego samoodnoszenia się, która wydaje się niezwykle ważna dla zdolności umysłu do rozwijania idei, decyzji, emocji i wszystkich innych wytworów świadomości. Z chaosem czy bez niego poważni psychologowie poznawczy nie mogą dłużej modelować umysłu jako statycznej struktury. Rozpoznają hierarchię skal, od neuronu w górę, dając okazję do oddziaływań między mikro- i makroskalą, tak charakterystyczną dla turbulencji w płynach i dla innych złożonych procesów dynamicznych. Struktura rodząca się w bezpostaciowości: jest to podstawowe piękno biologii i jej fundamentalna tajemnica. Życie wchłania porządek z oceanu nieporządku. Erwin Schrödinger, pionier fizyki kwantowej i jeden z kilku fizyków, którzy dokonali dyletanckiego wypadu w biologię, wypowiedział to czterdzieści lat temu 33: żywy organizm ma „zaskakujący dar koncentrowania na sobie «strumienia porządku», a zatem dar ucieczki przed rozpadem w atomowy chaos”. Dla Schrödingera jako fizyka było jasne, że struktura żywej materii różni się od struktury materii, którą badali jego koledzy. Jednostką organizującą życie było DNA (wtedy jeszcze nie używano tej nazwy) — kryształ aperiodyczny. „W fizyce mamy do czynienia na razie tylko z kryształami periodycznymi. Dla pokornego umysłu fizyka są to bardzo interesujące i skomplikowane obiekty; tworzą one jedną z najbardziej fascynujących i złożonych struktur materialnych, za pomocą których przyroda zadziwia jego zmysły. Jednak w porównaniu z kryształami
aperiodycznymi są one raczej proste i nieciekawe” 34. Różnica jest taka jak między tapetą a gobelinem, między powtarzanym wzorem a bogatą, spójną różnorodnością artystycznego dzieła. Fizycy nauczyli się rozumieć tylko tapetę. Nie dziwi fakt, że zdołali wnieść do biologii tak niewiele. Pogląd Schrödingera był niezwykły. To, że życie jest zarówno uporządkowane, jak i złożone, było truizmem; dostrzeżenie aperiodyczności jako źródła jego specjalnych właściwości graniczy z mistycyzmem. W czasach Schrödingera ani matematyka, ani fizyka nie dostarczały rzetelnego potwierdzenia tej idei. Nie było żadnych narzędzi do analizowania nieregularności jako jednostki organizującej życie. Obecnie istnieją takie narzędzia.
1
B. Huberman, A.J. Mandell (wywiady i uwagi zebrane na Conference on Perspectives in Biological Dynamics and Theoretical Medicine, Bethesda, Maryland, 10 kwietnia 1986). Patrz również Bernardo A. Huberman, A Model for Dysfunctions in Smooth Pursuit Eye Movement, preprint, Xerox Palo Alto Research Center, Palo Alto, California. 2 R.H. Abraham. Podstawowe wprowadzenie do zagadnienia hipotezy Gaia można znaleźć w J.E. Lovelock, Gaia: A New Look at Life on Earth (Oxford University Press, Oxford 1979). Jest to pomysłowe i dynamiczne (nieco popsute rozmyślnym antropomorfizmem) spojrzenie na to, jak złożone układy na Ziemi regulują same siebie. 3 Oto nieco arbitralna lista prac na temat aspektów fizjologicznych (z których każda ma własny użyteczny spis literatury): Ary L. Goldberger, Valmik Bhargava, Bruce J. West, Nonlinear Dynamics of the Heartbeat, „Physica” 1984, 17D, s. 207-214; Michael C. Mackay, Leon Glass, Oscillation and Chaos in Physiological Control Systems, „Science” 1977, 197, s. 287; Mitchell Lewis, D.C. Rees, Fractal Surfaces of Proteins, „Science”, 1985, 230, s. 1163-1165; Ary L. Goldberger i in., Nonlinear Dynamics in Heart Failure: Implications of Long-Wavelength Cardiopulmonary Oscillations, „American Heart Journal” 1984, 107, s. 612-615; Teresa Ree Chay i John Rinzel, Bursting, Beating, and Chaos in an Excitable Membrane Model, ,,Biophysical Journal” 1985, 47, s. 357-366. Szczególnie użytecznym zbiorem prac jest książka pt. Chaos, red. Arun V. Holden, Manchester University Press, Manchester 1986. 4 D. Ruelle: Strange Attractors, „Mathematical Intelligencer”, 1982, s. 48.
5
L. Glass. A.L. Goldberger. 7 C.S. Peskin; David M. McQueen, Charles S. Peskin, Computer-Assisted Design of Pivoting Disc Prosthetic Mitral Valves, „Journal of Thoracic and Cardiovascular Surgery” 1983, 86, s. 126-135. 8 R.J. Cohen. 9 A.T. Winfree. 10 Winfree rozwinął swoje poglądy na temat czasu geometrycznego w układach biologicznych w prowokującej i pięknej książce pt. When Time Breaks Down: The ThreeDimensional Dynamics of Electrochemical Waves and Cardiac Arrhythmias, Princeton University Press, Princeton 1987. Przegląd literatury na temat zastosowań do badań rytmu serca zawarł w pracy: Sudden Cardiac Death: A Problem in Topology „Scientific American” May 1983, 248, s. 144. 11 A.T. Winfree. 12 A.T. Winfree. 13 S. Strogatz; Charles A. Czeisler i in., Bright Light Resets the Human Circadian Pacemaker Independent of the Timing of the Sleep-Wake Cycle, „Science” 1986, 233, s. 667-670; Steven Strogatz, A Comparative Analysis of Models of the Human Sleep-Wake Cycle, preprint, Harvard University, Cambridge, Massachusetts. 14 A.T. Winfree. 15 Arthur T. Winfree, Sudden Cardiac Death. 16 R.E. Ideker. 17 A.T. Winfree. 18 R.E. Ideker. 19 L. Glass. 20 Michael R. Guevara, Leon Glass, Alvin Schrier, Phase Locking, Period-Doubling Bifurcations, and Irregular Dynamics in Periodically Stimulated Cardiac Cells, „Science”, 1981, 214, s. 1350. 21 L. Glass. 22 R.J. Cohen. 23 23 L. Glass. 24 A.T. Winfree. 25 Leon Glass, Michael C. Mackay, Pathological Conditions Resulting from Instabilities in Physiological Control Systems, „Annals of the New York Academy of Sciences” 1979, 316 , s. 214. 26 Ary L. Goldberger, Valmik Bhargava, Bruce J. West, Arnold J. Mandell, Some Observations on the Question: Is Ventricular Fibrillation ,,Chaos”, preprint. 6
27
A.J. Mandell. A.J. Mandell. 29 Arnold J. Mandell, From Molecular Biological Simplification to More Realistic Central Nervous System Dynamics: An Opinion, w: Psychiatry: Psychobiological Foundations of Clinical Psychiatry, 3:2. red. J.O. Cavenar i in., Lippincott, New York 1985. 30 Tamże. 31 B. Huberman. 32 Bernardo A. Huberman, Tad Hogg, Phase Transitions in Artificial Intelligence Systems, preprint, Xerox Palo Alto Research Center, Palo Alto, California 1986. Patrz również: Tad Hogg, Bernardo A. Huberman, Understanding Biological Computation: Reliable Learning and Recognition, „Proceedings of the National Academy of Sciences” 1984, 81, s. 6871-6875. 33 Erwin Schrödinger, What Is Life? Cambridge University Press, Cambridge 1967, s. 82, wyd. pol: Czym jest życie, przeł. S. Amsterdamski, Prószyński i S-ka, Warszawa 1998. 34 Tamże, s. 5. 28
Poza granicami chaosu Usiłuję tu dać ni mniej, ni więcej, tylko klasyfikację składników chaosu. Herman Melville 1
Edward Lorenz myślał o atmosferze, Michel Hénon o gwiazdach, Robert May o równowadze w przyrodzie. Benoit Mandelbrot był nieznanym matematykiem w firmie IBM, Mitchell Feigenbaum — uczniem City College w Nowym Jorku, Doyne Farmer — chłopcem dorastającym w Nowym Meksyku. Większość czynnych naukowców podzielało poglądy dotyczące złożoności. Były to dla nich przekonania tak bliskie sercu, że nie potrzebowali przedstawiać ich w formie słownej. Dopiero później stało się możliwe wypowiedzenie tych przekonań i poddanie ich badaniu. Proste układy zachowują się w prosty sposób. Mechaniczne urządzenie, takie jak wahadło, niewielki obwód elektryczny, wyidealizowana populacja ryb w stawie — tak długo, jak długo te układy można zredukować do kilku idealnie zrozumiałych, idealnie deterministycznych praw, ich długookresowe zachowanie powinno być stabilne i przewidywalne. Złożone zachowanie wynika ze złożonych przyczyn. Mechaniczny przyrząd, obwód elektryczny, dziko żyjące populacje, przepływ płynów, organ biologiczny, działo cząsteczkowe, prąd atmosferyczny, ekonomia — każdy układ, który jest wyraźnie niestabilny, nieprzewidywalny albo niesterowalny musi być albo rządzony przez mnóstwo niezależnych składników, albo musi być poddany działaniu przypadkowych zewnętrznych wpływów.
Różne układy zachowują się różnie. Neurobiolog, który zrobił karierę, badając chemię ludzkiego neuronu bez wiedzy na temat pamięci czy percepcji, projektant samolotów, który używa tuneli aerodynamicznych bez zrozumienia matematyki rządzącej turbulencją, ekonomista, który analizuje psychologię decyzji kupowania bez prób poprawienia zdolności przewidywania wielkoskalowych trendów — tacy naukowcy, wiedząc, że czynniki występujące w ich dyscyplinach są różne, przyjmują z góry, że skomplikowane układy złożone, z miliardów takich czynników muszą również być różne. Nagle wszystko uległo zmianie. Fizycy, matematycy, biologowie i astronomowie stworzyli alternatywny zbiór idei. Proste układy dają początek złożonym zachowaniom. Złożone układy dają początek prostemu zachowaniu. A najważniejsze: prawa złożoności są spełnione uniwersalnie, szczegóły atomów tworzących układ nie są ważne. Dla ogromnej rzeszy czynnych naukowców — fizyków cząsteczkowych, neurologów, a nawet matematyków — ta zmiana nie nabrała natychmiast znaczenia. Kontynuowali pracę nad problemami badawczymi w obrębie swoich dziedzin. Ale byli świadomi czegoś, co nazywane jest chaosem. Wiedzieli, że pewne złożone zjawiska zostały wyjaśnione, i wiedzieli, że inne zjawiska nagle zdają się wymagać nowych wyjaśnień. Naukowiec badający chemiczne reakcje w pracowni albo śledzący populację owadów w trzyletnim eksperymencie prowadzonym w terenie lub modelujący zmiany temperatury oceanu nie mógł wyjaśnić w tradycyjny sposób — to znaczy przez zignorowanie ich — pojawienia się niespodziewanych fluktuacji albo oscylacji. Dla niektórych oznaczało to kłopoty. Z drugiej strony, z pragmatycznego punktu widzenia zdawali oni sobie sprawę, że pieniądze na tę quasi-matematyczną naukę można dostać od rządu i od prywatnych fundacji. Coraz większa ich rzesza uświadamiała sobie, że chaos daje nowy
sposób wykorzystania starych danych zamkniętych w szufladach biurek, ponieważ okazały się zbyt bezładne. Coraz większa rzesza naukowców czuła, że szufladkowanie nauki utrudnia ich pracę. Coraz więcej osób zaczęło uznawać daremność badania części w izolacji od całości. Dla nich chaos stał się końcem programu redukcjonistycznego w nauce. Niezrozumienie, opór, złość, akceptacja. Ci, którzy promowali chaos, najdłużej mieli z tym wszystkim do czynienia. Joseph Ford z Georgia Institute of Technology pamiętał wykłady dla grupy termodynamików w latach siedemdziesiątych, podczas których wspomniał, że w równaniu Duffinga, dobrze znanym podręcznikowym modelu prostego oscylatora z tarciem, ukryte jest zachowanie chaotyczne. Dla Forda obecność chaosu w równaniu Duffinga była ciekawym faktem, o którym wiedział, że jest prawdą, chociaż kilka lat minęło, zanim publikacja na ten temat ukazała się w „Physical Review Letters”. Ale równie dobrze mógł powiedzieć paleontologom, że dinozaury miały pióra. Oni wiedzieli lepiej. „Kiedy to powiedziałem? Jeeezus Maria — audytorium zafalowało. Mogłem usłyszeć coś w rodzaju: «Mój tatuś bawił się równaniem Duffinga i mój dziadek bawił się równaniem Duffinga i nikt nie widział niczego takiego, o czym mówisz». Możesz naturalnie natrafić na opór w odniesieniu do poglądu, że przyroda jest złożona. Czego naprawdę nie rozumiałem, to wrogości” 2. Siedzieliśmy wygodnie w jego pokoju pracy w Atlancie. Wiosenne słońce zachodziło za oknem. Ford sączył wodę sodową ze zbyt dużego kufla z nadrukiem CHAOS wymalowanym w jaskrawych kolorach. Jego młodszy kolega, Ronald Fox mówił o swoim nawróceniu, które miało miejsce wkrótce po tym, jak kupił swojemu synowi komputer Apple II w czasie, kiedy żaden szanujący się fizyk nie nabywał takich rzeczy do swojej pracy. Fox słyszał, że Mitchell Feigenbaum odkrył prawa uniwersalności rządzące zachowaniem
funkcji sprzężenia zwrotnego i zdecydował się napisać krótki program, który pozwoliłby mu zobaczyć to zachowanie na monitorze apple’a. Ujrzał to wszystko wyrysowane na ekranie — widły bifurkacji, stabilne linie rozdzielające się na dwie części, potem na cztery, potem na osiem; pojawienie się samego chaosu; i wewnątrz chaosu zaskakującą geometryczną regularność. „W ciągu kilku dni możesz przerobić wszystko z Feigenbauma” — powiedział Fox 3. Samokształcenie się za pomocą komputera przekonało go i innych, którzy nie wierzyli w pisane argumenty. Niektórzy naukowcy bawili się takimi programami przez chwilę i później przestawali. Inni, chcąc czy nie, zaczynali myśleć innymi kategoriami. Fox był jednym z tych, którzy byli świadomi ograniczeń standardowej liniowej nauki. Wiedział, że sam z przyzwyczajenia odstawiał na bok trudne nieliniowe problemy. W praktyce fizyk skończyłby sprawę słowami: To jest problem, który prowadzi mnie do podręcznika funkcji specjalnych; jest to ostatnia rzecz, której pragnę. Jestem cholernie pewny, że nie mam zamiaru uruchamiać maszyny i rozwiązywać problemu w ten sposób. Jestem na to zbyt wyrafinowany. „Ogólny obraz nieliniowości przyciągał uwagę mnóstwa ludzi — najpierw powoli, potem coraz prędzej — powiedział Fox. — Było to pomocne dla każdego, kto się temu przyjrzał. Teraz problemy pojawiają się w nowym świetle niezależnie od tego, jaką dziedzinę reprezentujesz. Istniał punkt, w którym odchodziło się od problemu, ponieważ stawał się on nieliniowy. Teraz wiesz już, jak można na niego spojrzeć, i wracasz”. Ford powiedział: „Jeśli jakaś dziedzina zaczyna się rozwijać, oznacza to, iż pewna grupa osób czuje, że dziedzina ta coś im daje — że jeśli zmodyfikują swoje badania, nagroda będzie wspaniała. Dla mnie chaos jest jak sen. Daje nadzieję, że jeśli pokonasz trudności i zaczniesz grać w tę grę, możesz podłączyć się do żyły głównej”.
Jednak nikt nie musi wierzyć na słowo 4. Philip Holmes, białobrody matematyk i poeta, dotarł z Cornell, a przedtem z Oxfordu: „Skomplikowane, aperiodyczne, przyciągające się orbity pewnych (zwykle niskowymiarowych) układów dynamicznych”. Hao Bai-Lin, fizyk z Chin, który zgromadził wiele historycznych prac o chaosie w jednym tomie: „Rodzaj porządku bez okresowości”. Oraz: „Gwałtownie rozszerzające się pole badań, do którego matematycy, fizycy, hydrodynamicy, ekologowie i wielu innych wnoszą istotny wkład”. A także: „Nowo ustanowiona i wszędzie obecna klasa naturalnych zjawisk”. H. Bruce Stewart, matematyk stosowany z Brookhaven National Laboratory na Long Island: „Pozornie przypadkowe rekurencyjne zachowanie w prostym układzie deterministycznym (zegarowym)”. Roderick V. Jensen z Yale University, fizyk teoretyk badający możliwość chaosu kwantowego: „Nieregularne, nieprzewidywalne zachowanie deterministycznych, nieliniowych układów dynamicznych”. James Crutchfield z Santa Cruz: „Dynamika z dodatnią, ale skończoną entropią metryczną. Tłumaczenie z «matematycznego» brzmi: zachowanie, które produkuje informację (wzmacnia małą niepewność), ale nie jest całkowicie nieprzewidywalne”. I Ford, samozwańczy misjonarz chaosu: „Dynamika uwolniona wreszcie z kajdan porządku i przewidywalności... Możliwość pełnego badania wszystkich dynamicznych możliwości układów... Ekscytująca różnorodność, bogactwo możliwości”. John Hubbard, badający funkcje rekurencyjne i nieskończony, fraktalny bezład zbioru Mandelbrota, uważał, że chaos nie jest dobrą nazwą dla jego pracy, ponieważ nasuwa na myśl przypadkowość. Dla niego najważniejszym przesłaniem było to, że proste procesy w przyrodzie mogą produkować potężne budowle złożoności bez przypadkowości 5. W nieliniowości
i sprzężeniu zwrotnym leżą wszystkie konieczne narzędzia do zakodowania, a potem rozwinięcia struktur tak bogatych jak mózg człowieka. Dla innych naukowców, jak na przykład dla Arthura Winfreego, chaos jest zbyt wąską nazwą, gdy bada się globalną topologię układów biologicznych 6. Implikuje ona proste układy, jednowymiarowe odwzorowania Feigenbauma i dwu-, trój-(plus ułamek)-wymiarowe dziwne atraktory Ruelle’a. Niskowymiarowy chaos był specjalnym przypadkiem — uważał Winfree. Jego interesowały prawa wielowymiarowej złożoności — i był przekonany, że takie prawa istnieją. Zbyt wielka część wszechświata wydaje się funkcjonować poza zasięgiem niskowymiarowego chaosu. Czasopismo „Nature” na bieżąco prowadziło dyskusję na temat tego, czy istnieje dziwny atraktor, który wyznacza ziemski klimat. Ekonomiści szukali rozpoznawalnych dziwnych atraktorów w trendach giełdy papierów wartościowych, ale — jak dotąd — nie znaleźli ich. Dynamicy mieli nadzieję na zastosowanie teorii chaosu do wyjaśnienia w pełni rozwiniętych turbulencji. Albert Libchaber, obecnie w University of Chicago, zastosował swój elegancki styl eksperymentowania w służbie badania turbulencji, konstruując pudełko z ciekłym helem tysiące razy większe niż jego mała komórka z roku 1977. Czy takie eksperymenty wyzwalające nieporządek w cieczach zarówno w przestrzeni, jak i czasie doprowadzą do odkrycia dziwnego atraktora — nikt nie wie. Jak powiedział fizyk Bernardo Huberman 7: „Jeśli masz turbulentną rzekę, wpuść do niej sondę i powiedz: «Spójrz, tutaj jest niskowymiarowy dziwny atraktor», zdejmiemy wtedy wszyscy swoje kapelusze i będziemy się dziwić”. Chaos był zbiorem idei, które przekonały wszystkich tych naukowców, że są członkami wspólnego przedsięwzięcia. Fizycy, biologowie czy matematycy wierzyli, że proste, deterministyczne układy mogą rodzić złożoność; że układy zbyt złożone dla tradycyjnej matematyki mogą jednak
spełniać proste prawa; i że jakąkolwiek reprezentują dziedzinę, ich zadanie polegało na zrozumieniu złożoności jako takiej. „Przyjrzyjmy się jeszcze raz prawom termodynamiki — napisał James E. Lovelock, autor hipotezy Gaia 8. — Jest prawdą, że na pierwszy rzut oka wyglądają jak napis na bramie do Piekła Dantego...” Ale... Druga zasada termodynamiki, przynosząca złe wieści dla techniki, jest również dobrze znana w kulturze nienaukowej. W każdym procesie, w którym energia zostaje zamieniona z jednej formy na drugą, musi być tracona część energii w postaci ciepła. Idealna wydajność jest niemożliwa. Wszechświat jest ulicą jednokierunkową. Entropia musi wzrastać we wszechświecie i w każdym hipotetycznym izolowanym układzie wewnątrz niego. Jakkolwiek wyrażona druga zasada wydaje się regułą, od której nie ma odwołania. W termodynamice jest to prawdą. Ale druga zasada żyje swoim własnym życiem w różnych intelektualnych dziedzinach bardzo odległych od nauki, biorąc na siebie odpowiedzialność za dezintegrację społeczeństw, upadek ekonomiczny, upadek dobrych obyczajów i wiele innych odmian dekadenckich tematów. Te wtórne, metaforyczne wcielenia drugiej zasady termodynamiki teraz wydają się szczególnie wprowadzać w błąd. W naszym świecie rozkwita złożoność i tym, którzy szukają w nauce ogólnego zrozumienia struktury przyrody, lepiej będą służyły prawa chaosu. W końcu jednak wszechświat zdążający w kierunku swojej ostatecznej równowagi, w jednorodnej cieplnej kąpieli z maksymalną entropią, jakoś potrafi stworzyć interesujące struktury. Myślący fizycy zajmujący się termodynamiką uświadamiają sobie, jak niepokojące jest pytanie: „Jak pozbawiony celu strumień energii może na brzeg świata wyrzucić życie i świadomość” 9. Ogromną trudność stanowi ryzykowne pojęcie entropii w miarę rozsądnie określone dla celów termodynamicznych w kategoriach ciepła i temperatury, ale niezwykle łatwo wymykające się jako miara
nieporządku. Fizycy mają dość kłopotów, mierząc stopień uporządkowania w wodzie tworzącej struktury krystaliczne podczas przechodzenia w lód i tracenia przez cały czas energii. Ale termodynamiczna entropia nie nadaje się niestety do mierzenia zmian stopnia uformowania przy tworzeniu aminokwasów, mikroorganizmów, samoreprodukujących się roślin i zwierząt, złożonych układów informatycznych, takich jak mózg. Z pewnością te rozwijające się wyspy porządku muszą podlegać drugiej zasadzie. Ważne prawa, prawa tworzenia, leżą gdzie indziej. Przyroda tworzy struktury. Niektóre są uporządkowane w przestrzeni i nieuporządkowane w czasie, inne uporządkowane w czasie i nieuporządkowane w przestrzeni. Niektóre struktury są fraktalne i wykazują właściwość samopodobieństwa. Inne zapoczątkowują stany równowagi lub oscylacje. Nauka o tworzeniu struktur stała się gałęzią fizyki i nauki o materiałach pozwalającą naukowcom modelować agregacje cząsteczek w klastery, rozprzestrzenianie się wyładowań elektrycznych oraz wzrost kryształów lodu oraz kryształów w stopach metali. Ta dynamika wydaje się fundamentalna, dotyczy kształtów zmieniających się w przestrzeni i czasie — jednak dopiero teraz są dostępne narzędzia pozwalające na jej zrozumienie. Rozsądne jest teraz zapytać fizyka: „Dlaczego wszystkie płatki śniegu są różne?”. Kryształy lodu tworzą się w turbulentnym powietrzu w wyniku wspaniałego mieszania się symetrii i przypadku jako szczególnie piękna sześciokrotna nieokreśloność. Kiedy woda zamarza, kryształy wysyłają wypustki; wypustki powoli rosną, ich granice stają się niestabilne i nowe wypustki strzelają z boków. Kryształki lodu spełniają matematyczne prawa o zaskakującej subtelności i byłoby niemożliwe przewidzieć dokładnie, jak szybko rośnie wypustka, jak wąska będzie albo jak często będzie się rozgałęziać. Pokolenia naukowców szkicowały i katalogowały urozmaicone
struktury: płytki i kolumny, kryształy i polikryształy, igły i dendryty. W rozprawach klasyfikowano jedynie formacje krystaliczne, ponieważ brakowało lepszego podejścia. Rozwój takich wypustek, dendrytów, jest teraz znany jako wysoce nieliniowy, niestabilny problem swobodnej granicy, co oznacza, że modele muszą wykreślać złożoną, powyginaną, zmieniającą się dynamicznie granicę 10. Kiedy proces krzepnięcia postępuje z zewnątrz ku wnętrzu, tak jak w foremce na lód, granica na ogół pozostaje stabilna i gładka, przy czym szybkość jej przesuwania się jest kontrolowana przez zdolność ścian do odprowadzania ciepła. Ale kiedy kryształ wzrasta na zewnątrz od początkowej zarodzi — jak to się dzieje w przypadku płatka śniegu, który porywa cząsteczki wody, podczas spadku przez nasycone wilgocią powietrze — proces staje się niestabilny. Każdy fragment granicy, który wyrywa się przed swoich sąsiadów, zyskuje przewagę w zbieraniu nowych molekuł wody, a zatem rośnie dużo szybciej — jest to tzw. efekt odgromnikowy. Tworzą się nowe gałęzie, a potem gałązki. Trudność polegała na ustaleniu, które z wielu sił fizycznych związanych z tym procesem są ważne, a które mogą być bezpiecznie zaniedbane. Najważniejsza, jak od dawna wiadomo, jest dyfuzja ciepła uwalnianego podczas zamarzania wody. Ale fizyka dyfuzji ciepła nie może całkowicie wyjaśnić struktur obserwowanych przez badaczy, kiedy patrzą na płatki śniegu przez mikroskop albo hodują je w laboratoriach. Niedawno naukowcy wypracowali sposób włączenia innego procesu: napięcia powierzchniowego. Istotę nowego modelu płatka śniegu stanowi chaos: delikatna równowaga pomiędzy siłami stabilności i siłami niestabilności; potężna wzajemna gra sił mikro- i makroskopowych. Tam, gdzie dyfuzja ciepła dąży do wywoływania niestabilności, napięcie powierzchniowe stwarza stabilność. Siła napięcia powierzchniowego
powoduje, że substancja przyjmuje raczej gładkie granice, takie jak ścianka bańki mydlanej. Utworzenie chropowatej powierzchni wymaga energii. Równowaga między tymi tendencjami zależy od wielkości kryształu. Podczas gdy dyfuzja zachodzi głównie w makroskali, jest procesem makroskopowym, napięcie powierzchniowe jest najsilniejsze w skalach mikroskopowych.
OSCAR KAPP, INSET, SHOUDON LIANG
Rozgałęzianie i tworzenie się form. Badanie tworzenia się struktur zainspirowane przez matematykę fraktalną sprowadziło do wspólnego mianownika takie naturalne struktury, jak tor błyskawicy wyładowania elektrycznego i symulowane połączenia przypadkowo poruszających się cząsteczek (wstawka).
Ponieważ efekty napięcia powierzchniowego są tak małe, badacze tradycyjnie zakładali, że w praktyce mogą je zaniedbać. Okazuje się, że nie. Najdrobniejsze skale okazały się najważniejsze; tam efekty powierzchniowe dowodzą nieskończonej czułości na strukturę molekularną krzepnącej substancji. W przypadku lodu naturalna symetria molekularna stwarza wewnętrzne uprzywilejowanie dla sześciokierunkowego wzrostu. Ku swojemu ogromnemu zaskoczeniu naukowcy odkryli, że mieszanina stabilności i niestabilności jest w stanie wzmocnić te mikroskopowe preferencje, tworząc prawie fraktalną koronkę, która stanowi płatek śniegu. Matematykę dostarczyli nie specjaliści od fizyki atmosfery, ale fizycy teoretycy wraz z metalurgami, którzy mieli w tym też swój interes. W metalach symetria molekularna jest inna, a zatem inne są też charakterystyczne kryształy, które określają wytrzymałość stopu. Ale matematyka jest taka sama: prawa tworzenia się struktur są uniwersalne. Wrażliwość na warunki początkowe nie służy do niszczenia, lecz do tworzenia. Kiedy rosnący płatek śniegu spada na ziemię, unosząc się w powietrzu godzinę lub dłużej, rozgałęzianie wypustek w danym momencie zależy bardzo od takich czynników, jak temperatura, wilgotność i obecność zanieczyszczeń w atmosferze. Sześć wypustek w pojedynczym płatku śniegu, rozłożonych wewnątrz milimetrowego obszaru, ma taką samą temperaturę, a ponieważ prawa wzrostu są czysto deterministyczne, uzyskują one niemal idealną symetrię. Ale przyroda turbulentnego powietrza jest taka, że proces tworzenia się dowolnych dwóch płatków śniegu będzie zachodzić bardzo różny sposób. Ostateczny wygląd płatka rejestruje historię wszystkich zmian warunków atmosferycznych w których powstawał, a liczba tych kombinacji może być równie dobrze nieskończenie wielka.
MARTIN GLICKSMAN / FEREYDON FAMILY
DANIEL PLATT, TAMÄS VICSEK
Na granicy stabilności i niestabilności. Kiedy ciecz krystalizuje się, tworzy narastające wypustki (pokazane na wielokrotnie naświetlanej fotografii) z granicami, które stają się niestabilne i wypuszczają boczne gałęzie (po lewej). Symulacja komputerowa delikatnych procesów termodynamicznych naśladuje rzeczywiste płatki śniegu (powyżej).
Płatki śniegu są zjawiskiem nierównowagowym — zwykli mówić fizycy. Są produktem nierównowagi w przepływie energii z jednego fragmentu przyrody do drugiego. Przepływ przekształca granice w wypustkę, wypustkę w układ wypustek, a układ wypustek w złożoną, niepowtarzalną strukturę. Kiedy naukowcy odkryli taką niestabilność spełniającą uniwersalne prawa chaosu, udało im się zastosować te same metody do mnóstwa fizycznych i chemicznych problemów, a biologia niewątpliwie jest następną dziedziną. Kiedy patrzą na symulację komputerową wzrostu dendrytów, oczyma duszy widzą wodorosty, ściany komórek, pączkowanie i dzielenie się organizmów 11. Wiele ścieżek — od mikroskopowych cząsteczek do codziennej złożoności — wydaje się teraz otwartych. W fizyce matematycznej teoria bifurkacji Feigenbauma i jego kolegów rozwijana jest w Stanach Zjednoczonych i Europie. Fizyka teoretyczna w swych abstrakcyjnych rozważaniach próbuje sięgać do innych tematów, takich jak wciąż nierozwiązany problem chaosu kwantowego: czy mechanika kwantowa dopuszcza zjawiska chaotyczne mechaniki klasycznej. Przy badaniu poruszających się cieczy Libchaber buduje swoje gigantyczne pudło z ciekłym helem, gdy tymczasem Pierre Hohenberg i Günter Ahlers badają bieżące fale konwekcyjne o dziwnych kształtach 12. W astronomii eksperci od chaosu używają niespodziewanej niestabilności grawitacyjnej do wyjaśnienia pojawiania się meteorytów — na pozór niewyjaśnionego wybijania asteroidów spoza orbity Marsa 13. Naukowcy używają fizyki układów dynamicznych do badania układu obronnościowego organizmu, z jego miliardami składników i zdolnością do uczenia się, pamiętania i rozpoznawania obrazów, a jednocześnie studiują ewolucję, mając nadzieję na odkrycie uniwersalnego mechanizmu adaptacji. Ci, którzy budują takie modele, szybko dostrzegają struktury, które się reprodukują, współzawodniczą i ewoluują w wyniku naturalnej selekcji 14.
„Ewolucja jest to chaos ze sprzężeniem zwrotnym” — powiedział Joseph Ford 15. Tak, wszechświat jest przypadkowością i dyssypacją. Jednak przypadkowość ukierunkowana może produkować zaskakującą złożoność. I — co Lorenz odkrył dawno temu — dyssypacja jest czynnikiem porządkującym. „Bóg gra w kości ze wszechświatem — brzmi odpowiedź Forda na słynne pytanie Einsteina 16. — Ale kości są fałszywe. I główne zadanie fizyki polega obecnie na odkryciu, jak zostały one sfałszowane i jak możemy ich użyć do naszych celów”. Takie idee pomagają rozwijać to wspólne przedsięwzięcie, jakim jest nauka. Jednak żadna filozofia, żaden dowód, żaden eksperyment nigdy nie wystarczają, aby wywrzeć dostateczny wpływ na indywidualnych badaczy, dla których nauka musi przede wszystkim dostarczać metody pracy. Jednak w pewnych laboratoriach tradycyjne metody chwieją się. Normalna nauka błądzi — jak to przedstawił Kuhn — aparatura nie spełnia oczekiwań; „badania nie mogą już unikać anomalii” 17. Dla żadnego naukowca idea chaosu nie mogła zwyciężyć, dopóki metody chaosu nie stały się koniecznością. Każda dziedzina może dostarczyć swoich własnych przykładów. W ekologii William M. Schaffer był ostatnim studentem Roberta MacArthura, wielkiego przedstawiciela tej dziedziny w latach pięćdziesiątych i sześćdziesiątych. MacArthur wysunął koncepcję, która dała mocną podstawę idei równowagi naturalnej. Jego modele zakładały, że istnieją stany równowagi i że populacje roślin oraz zwierząt pozostają w ich pobliżu. Dla MacArthura równowaga w przyrodzie zawierała to, co można by prawie nazwać jakością moralną — stany równowagi w jego modelach pociągały za sobą najbardziej efektywne użycie zasobów żywnościowych, najmniejsze marnotrawstwo. Przyroda pozostawiona sama sobie miałaby się dobrze.
Dwadzieścia lat później ostatni student MacArthura uświadomił sobie, że ekologia oparta na pojęciu równowagi jest być może skazana na niepowodzenie. Tradycyjne modele są zdradzane przez swoje liniowe skłonności. Przyroda jest bardziej złożona. Zamiast tego chaos postrzega on jako „ożywczy i trochę przerażający” 18. Chaos może podkopać najbardziej trwałe założenia ekologii. „To, co uchodzi za jej założenia, jest jak mgła przed szałem burzy — w tym przypadku burzy nieliniowej” 19. Schaffer używał dziwnych atraktorów do badania epidemiologii chorób dziecięcych, takich jak odra i ospa wietrzna 20. Zgromadził dane najpierw z obszaru Nowego Jorku i Baltimore, potem z Aberdeen w Szkocji oraz całej Anglii i Walii. Stworzył dynamiczny model przypominający tłumione i wymuszane wahadło. Choroby są „wymuszane” każdego roku przez infekcje szerzące się wśród dzieci powracających do szkół i tłumione przez naturalną odporność. Model Schaffera przewiduje zasadniczo różne zachowanie się tych chorób. Wietrzna ospa powinna zmieniać się okresowo. Odra powinna zmieniać się chaotycznie. Tak się składa, że dane pokazują dokładnie to, co przewiduje Schaffer. Dla epidemiologa tradycjonalisty roczne zmiany w przypadku odry wydają się niewyjaśnialne — przypadkowe i pełne szumów. Schaffer, używając technik rekonstrukcji przestrzeni fazowej, pokazał, że w przypadku odry pojawia się dziwny atraktor z wymiarem fraktalnym około 2,5. Uczony ten obliczył wykładniki Lapunowa i sporządził odwzorowania Poincarégo. „Co ważniejsze — powiedział Schaffer 21 — jeśli patrzysz na obrazy, nagle przed twoimi oczyma pojawia się wynik i mówisz: «Mój Boże, to jest to samo»”. Chociaż atraktor jest chaotyczny, pewne przewidywania stają się możliwe w świetle deterministycznej natury modelu. Po roku z dużą liczbą zachorowań na odrę nastąpi gwałtowny ich spadek. Po roku ze średnią liczbą zachorowań poziom zmieni się tylko nieznacznie. Rok z niewielką
liczbą zachorowań dostarcza największej nieprzewidywalności. Model Schaffera określał również konsekwencje tłumienia dynamiki przez program masowych szczepień — konsekwencje, które nie mogłyby być przewidziane przez standardową epidemiologię. W skali zespołowej i w indywidualnej skali idee chaosu postępują na różne sposoby i powstają z różnych przyczyn. Dla Schaffera oraz dla innych naukowców przejście od tradycyjnej nauki do chaosu przyszło niespodziewanie. Był on idealnym adresatem misjonarskiej odezwy Roberta Maya przedstawionej w roku 1975; jednak przeczytał prace Maya i odrzucił je. Uznał te idee matematyczne za nierealistyczne dla układów, które badają ekologowie. Rzecz dziwna, wydaje się, że wiedział zbyt wiele na temat ekologii, aby docenić koncepcję Maya. To były jednowymiarowe odwzorowania — cóż mogły mieć wspólnego, myślał, z układami zmieniającymi się w sposób ciągły? Wtedy któryś z kolegów powiedział: „Przeczytaj Lorenza”. Zapisał tytuł i dane dotyczące tej pracy na kawałku papieru, ale na tym poprzestał. Wiele lat później Schaffer mieszkał na pustyni obok Tuscon w stanie Arizona i okresy letnie spędzał w górach Santa Catalina nieco na północ, wśród wyspy chaparrali 22, gdzie jest tylko gorąco, gdy na pustyni jest jak na ruszcie 23. W czerwcu i lipcu, po wiosennej porze kwitnienia i przed letnimi deszczami, Schaffer i jego studenci obserwowali wśród gęstych zarośli pszczoły i kwiaty różnych gatunków. Ten system ekologiczny był łatwy do mierzenia mimo zmienności rocznej. Schaffer liczył pszczoły na każdym źdźble, mierzył pyłki, osuszając kwiaty za pomocą pipet i analizował dane matematycznie. Trzmiele współzawodniczyły z pszczołami, a pszczoły konkurowały z zadrzechniami. Schaffer zaproponował przekonujący model, który wyjaśniał fluktuacje wielkości populacji. W roku 1980 wiedział, że gdzieś popełnił błąd. Jego model nie sprawdził
się. Tak się zdarzyło, że kluczową rolę odgrywał gatunek, który przeoczył: mrówki. Kilku kolegów podejrzewało niezwykłą pogodę w zimie; inni niezwykłą pogodę letnią. Schaffer rozważał rozbudowanie swojego modelu przez dodanie większej liczby zmiennych. Ale był mocno sfrustrowany. Studenci już wiedzieli, że lato z Schafferem na wysokości 5000 stóp będzie ciężką pracą. I wtedy wszystko się zmieniło. Trafił na preprint o chemicznym chaosie w skomplikowanym eksperymencie laboratoryjnym i poczuł, że autorzy mieli do czynienia dokładnie z jego problemem: niemożliwość monitorowania dziesiątków fluktuujących produktów reakcji w probówce odpowiadała dokładnie niemożliwości monitorowania dziesiątków gatunków w górach Arizony. A jednak udało im się to, z czym on nie mógł sobie poradzić. Przeczytał o rekonstruowaniu przestrzeni fazowej. I wreszcie zapoznał się z pracą Lorenza, Yorke’a i innych. University of Arizona sponsorował cykl wykładów pt. „Porządek w chaosie”. Przybył Harry Swinney, a on wiedział, jak mówić o eksperymentach. Kiedy wyjaśnił chaos chemiczny, wyświetlając przezrocze z dziwnym atraktorem, powiedział: „To są realne dane” — dreszcz przebiegł Schafferowi po plecach. „Raptem zrozumiałem, że to jest moje przeznaczenie” — stwierdził Schaffer. Miał dostać urlop naukowy. Wstrzymał zgłoszenie swojego projektu badawczego do National Science Foundation i zwrócił się do Guggenheim Fellowship. Wiedział, że tam, w górach, mrówki zmieniają się wraz z porą roku. Pszczoły unosiły się w powietrzu i pędziły, brzęcząc dynamicznie. Chmury płynęły po niebie. A on nie mógł już pracować starymi metodami.
1 2
Moby Dick czyli Biały Wieloryb, przeł. B. Zieliński, Glob, Szczecin 1987, s. 219. J. Ford.
3
R. Fox. (Holmes) „SIAM Review” 1986, 28, s. 107; (Hao) Chaos (World Scientific, Singapore 1984) s. I; (Stewart) The Geometry of Chaos, w: The Unity of Science, Brookhaven Lecture Series, No 209, 1984, s. 1; (Jensen) Classical Chaos, „American Scientist” 1987; (Crutchfield) informacja prywatna; (Ford) Book Reviews, „International Journal of Theoretical Physics” 1986, 25, No 1. 5 J.H. Hubbard. 6 A.T. Winfree. 7 B. Huberman. 8 James E. Lovelock, Gaia, Oxford University Press, Oxford 1979, s. 125. 9 P.W. Atkins, The Second Law, W.H. Freeman, New York 1984, s. 179. Ta wspaniała książka jest jednym z niewielu opracowań na temat drugiej zasady termodynamiki, w którym pokazuje się kreatywną moc dyssypacji w systemach chaotycznych. Wysoce indywidualny i filozoficzny pogląd na temat relacji między termodynamiką i układami dysypatywnymi przedstawił Ilya Prigogine w książce Od chaosu do porządku. Nowy dialog człowieka z przyrodą (przeł. K. Lipszyc, PIW, Warszawa 1990). 10 J. Langer. Aktualna literatura na temat dynamicznych płatków śniegu obejmuje wiele tomów. Najbardziej pożyteczne są prace: James S. Langer, Instabilities and Pattern Formation, „Reviews of Modern Physics” 1980, 52, s. 1-28; Johann Nittmann, H. Eugene Stanley, Tip Splitting without Interfacial Tension and Dendritic Growth Patterns Arising from Molecular Anisotropy, „Nature” 1986, 321, s. 663-668; David A. Kessler i Herbert Levine, Pattern Selection in Fingered Growth Phenomena, „Advances in Physics”. 11 J.P. Gollub; J. Langer. 12 Interesującym przykładem tego podejścia do badania tworzenia się struktur jest praca P.C. Hohenberga i M.C. Crossa, An Introduction to Pattern Formation in Nonequilibrium Systems, preprint, AT & T Bell Laboratories, Murray Hill, New Jersey. 13 J. Wisdom; Jack Wisdom, Meteorites May Follow a Chaotic Route to Earth, „Nature”, 315, 1985, s. 731-733; tenże, Chaotic Behavior and the Origin of the 3/1 Kirkwood Gap, „Icarus” 1983, 56, s. 51-74. 14 Jak to przedstawili Farmer i Packard: „Zachowanie adaptacyjne jest właściwością pochodną, która pojawia się spontanicznie poprzez oddziaływanie pomiędzy prostymi składnikami. Niezależnie od tego, czy są to neurony, aminokwasy, mrówki czy łańcuchy bitów, adaptacja może występować, jeśli zbiorowe zachowanie się całości jest jakościowo różne od zachowania prostej sumy indywidualnych części. Jest to dokładnie definicja nieliniowości”. Evolution, Games, and Learning: Models for Adaptation in Machines and Nature, Wprowadzenie do materiałów konferencyjnych, Center for Nonlinear Studies, Los Alamos National Laboratory, maj 1985). 15 Joseph Ford,What Is Chaos? Georgia Institute of Technologie, s. 14. 16 J. Ford. 4
17
Thomas S. Kuhn, Structure of Science Revolutions, University of Chicago Press, Chicago 1970, s. 5. 18 William M. Schaffer, Chaos in Ecological Systems: The Coals That Newcastle Forgot, „Trends in Ecological Systems” 1986, 1, s. 63. 19 William M. Schaffer, Mark Kot, Do Strange Attractors Govern Ecological Systems? „Bioscience” 1985, 35, s. 349. 20 Na przykład: William M. Schaffer, i Mark Kot, Nearly One-dimensional Dynamics in an Epidemic, „Journal of Theoretical Biology” 1985, 112, s. 403-427. 21 W.M. Schaffer. 22 Wiecznie zielone twardolistne zarośla charakterystyczne dla obszaru o klimacie śródziemnomorskim w Kalifornii (przyp. tłum.). 23 W.M. Schaffer; również William M. Schaffer, A Personal Hejeira, nieopublikowany artykuł.
Podziękowania Pisząc tę książkę, korzystałem z pomocy wielu naukowców, którzy kierowali mną, informowali i instruowali mnie. Wkład niektórych będzie widoczny dla czytelnika, ale wielu innych, niewymienionych z nazwiska albo tylko wspomnianych krótko, poświęciło mi nie mniej swojego czasu i wiedzy. Otworzyli przede mną swoje biurka, przeszukiwali pamięć, wzajemnie dyskutowali i sugerowali sposoby myślenia o nauce, które były dla mnie bardzo ważne. Kilku przeczytało manuskrypt. Potrzebowałem ich cierpliwości i szczerości. Chciałbym wyrazić moje podziękowanie wydawcy, Danielowi Frankowi, którego wyobraźnia, wrażliwość i uczciwość dały tej książce więcej, niż mogę wyrazić. Mogłem polegać na Michaelu Carlisle’u, moim agencie, na jego nadzwyczajnym doświadczeniu i entuzjastycznym poparciu. W redakcji „New York Times” Peter Millones i Don Erickson pomogli mi w zasadniczych sprawach. Wśród tych, którzy wnieśli swój wkład do ilustracji na tych stronach byli: Heinz-Otto Peitgen, Peter Richter, James Yorke, Leo Kadanoff, Philip Marcus, Benoit Mandelbrot, Jerry Gollub, Harry Swinney, Arthur Winfree, Bruce Stewart, Fereydoon Family, Irving Epstein, Martin Glicksman, Scott Burns, James Crutchfield, John Milnor, Richard Voss, Nancy Sterngold i Adolph Brotman. Jestem również wdzięczny moim rodzicom, Beth i Donen Gleickom, którzy nie tylko opiekowali się mną, ale również przeprowadzili korektę książki. Goethe napisał: „Mamy prawo oczekiwać od autora, który zamierza opisać historię rozwoju jakiejś dziedziny nauki, że poinformuje nas, w jaki sposób zjawiska,
którymi się ta gałąź wiedzy zajmuje, zostały stopniowo poznane, i jak je sobie niegdyś wyobrażano, oceniano, co domniemywano na ich temat i czy myślano o nich z respektem. To jest ryzykowna sprawa — kontynuował — gdyż w takim przedsięwzięciu pisarskim autor milcząco oznajmia na samym początku, że chodzi mu o to, by ustawić pewne rzeczy w świetle, pozostawiając inne w cieniu. Autor ma, pomimo to, długotrwałą przyjemność, którą czerpie z kontynuacji swojego zadania...” (przeł. Marek Obarski)
Informacje na temat źródeł i wskazówki bibliograficzne Książka ta powstała na podstawie wypowiedzi około dwustu naukowców, wygłoszonych podczas publicznych wykładów, zapisanych w pracach naukowych, a najczęściej przekazanych w wywiadach przeprowadzonych od kwietnia 1984 do grudnia 1986. Wielu z nich było specjalistami w zakresie teorii chaosu, inni nie. Niektórzy byli do mojej dyspozycji przez wiele godzin w przeciągu kilku miesięcy, dając mi nieocenioną możliwość wejrzenia w historię i praktykę nauki. Kilku udostępniło niepublikowane jeszcze wspomnienia na piśmie. Istnieje niewiele użytecznych źródeł informacji na temat chaosu, a czytelnik nieprofesjonalista poszukujący kolejnych lektur znajdzie niewiele, z których mógłby skorzystać. Prawdopodobnie pierwszym ogólnym wprowadzeniem do tej nauki — elokwentnie niosącym czar dziedziny i szkicującym nieco fundamentalnej matematyki — był artykuł wstępny Douglasa R. Hofstadtera w „Scientific American” (November 1981), przedrukowany w „Metamagical Themas” (Basic Books, New York 1985). Dwa użyteczne zbiory najgłośniejszych prac naukowych to: Hao Bai-Lin, Chaos (World Scientific, Singapore 1984) i Predrag Cvitanovič, Universality in Chaos (Adam Hilger, Bristol 1984). Ich wybór nakłada się w zaskakująco niewielkim stopniu; pierwsza praca jest może trochę bardziej zorientowana historycznie. Każdego zainteresowanego początkami geometrii fraktalnej odsyłamy koniecznie do encyklopedycznej i irytującej książki Benoita Mandelbrota The Fractal Geometry of Nature (Freeman, New York 1977).
The Beauty of Fractals, Heinza-Otto Peitgena i Petera H. Richtera (Springer Verlag, Berlin 1986) dociera do wielu obszarów matematyki chaosu w europejsko-romantycznym stylu, zawiera dodatkowo bezcenne eseje Mandelbrota, Adriena Douady’ego i Gerta Eilenbergera; książka jest przy tym bogato ilustrowana kolorowymi i czarno-białymi grafikami, z których kilka reprodukowano w tej książce. Dobrze zilustrowanym podręcznikiem adresowanym do inżynierów i innych szukających praktycznego przeglądu idei matematycznych jest książka H. Bruce’a Stewarta i J.M. Thompsona, Nonlinear Dynamics and Chaos (Wiley, Chichester 1986). Żadna z tych książek nie będzie jednak przydatna czytelnikom bez pewnego matematycznego przygotowania. Opisując zdarzenia zawarte w tej książce, motywacje i perspektywy naukowców, unikałem języka naukowego, gdy tylko było to możliwe, zakładając, że przygotowani czytelnicy będą wiedzieli, kiedy czytają o całkowalności, rozkładzie potęgowym czy analizie zespolonej. Czytelnicy, którzy szukają matematycznych opracowań albo specyficznego piśmiennictwa, znajdą je w odnośnikach. Przy selekcji kilku artykułów z tysięcy, które mogłem zacytować, wybierałem te, które najbardziej bezpośrednio wpływały na zdarzenia opisane w tej książce, albo te, które będą najbardziej użyteczne dla czytelników szukających szerszego kontekstu dla idei, które ich interesują. Opisy miejsc na ogół są oparte na autopsji. Następujące instytucje udostępniły mi swoich badaczy, a biblioteki w pewnych przypadkach swoich udogodnień komputerowych: Boston University, Cornell University, Courant Institute of Mathematics, European Centre for Medium Range Weather Forecasts, Georgia Institute of Technology, Harvard University, IBM Thomas J. Watson Research Center, Institute for Advanced Study, LamontDoherty Geophysical Observatory, Los Alamos National Laboratory,
Massachusetts Institute of Technology, National Center for Atmospheric Research, National Institutes of Health, National Meteorological Center, New York University, Observatoire de Nice, Princeton University, University of California w Berkeley, University of California w Santa Cruz, University of Chicago, Woods Hole Océanographie Institute, Xerox Palo Alto Research Center. W przypisach podałem zasadnicze źródła cytowań i idei. Przedstawiałem pełne dane bibliograficzne w przypadku książek i artykułów; tam, gdzie występuje tylko nazwisko, odnośnik dotyczy jednego z poniższej listy naukowców, którzy w specjalny sposób pomogli mi w moich dociekaniach: Ralph H. Abraham Günter Ahlers, F. Tito Arecchi, Michael Barnsley, Lennart Bengtsson, William D. Bonner, Robert Buchal, William Burke, David Campbell, Peter A. Carruthers, Richard J. Cohen, James Crutchfield, Predrag Cvitanovič, Minh Duong-van, Freeman Dyson, Jean-Pierre Eckmann, Fereydoon Family, J. Doyne Farmer, Mitchell J. Feigenbaum, Joseph Ford, Ronald Fox, Robert Gilmore, Leon Glass, James Glimm, Ary L. Goldberger, Jerry P. Gollub, Ralph E. Gomory, Stephen Jay Gould, John Guckenheimer, Brosl Hasslacher, Michel Hénon, Douglas R. Hofstadter, Pierre Hohenberg, Frank Hoppensteadt, Hendrik Houthakker, John H. Hubbard, Bernardo Huberman, Raymond E. Ideker, Erica Jen, Roderick V. Jensen, Leo Kadanoff, Donald Kerr, Joseph Klafter, Thomas S. Kuhn, Mark Laff, Oscar Lanford, James Langer, Joel Lebowitz, Cecil E. Leith, Herbert Levine, Albert Libchaber, Edward N. Lorenz, Willem Malkus, Benoit Mandelbrot, Arnold Mandell, Syukuro Manabe, Arnold J. Mandell, Philip Marcus, Paul C. Martin, Robert M. May, Francis C. Moon, Jürgen Moser, David Mumford, Michael Nauenberg, Norman Packard, Heinz-Otto Peitgen, Charles S. Peskin, James Ramsey, Peter H. Richter, Otto Rössler, David Ruelle, William M. Schaffer, Stephen H. Schneider, Christopher Scholz,
Robert Shaw, Michael F. Shlesinger, Yasha G. Sinai, Steven Smale, Edward A. Spiegel, H. Bruce Stewart, Steven Strogatz, Harry Swinney, Tomas Toffoli, Felix Villars, William M. Visscher, Richard Voss, Bruce J. West, Robert White, Gareth P. Williams, Kenneth G. Wilson, Arthur T. Winfree, Jack Wisdom, Helena Wisniewski, Steven Wolfram, J. Austin Woods, James A. Yorke. Illustration credits: s. 29 — Edward N. Lorenz/Adolph E. Brotman; s. 41 — Adolph E. Brotman; s. 42 — Adolph E. Brotman; s. 43 — James P. Crutchfield/Adolph E. Brotman; s. 70 — Irving R. Epstein; s. 71 — H. Bruce Stewart, J. M. Thompson, Nonlinear Dynamics and Chaos (Chichester; Wiley, 1986); s. 85 — Adolph E. Brotman; s. 96 — James P. Crutchfield/Adolph E. Brotman; s. 100, 101 — James P. Crutchfield/Nancy Sterngold; s. 104 — Robert May; s. 122 — Benoit Mandelbrot, The Fractal Geometry of Nature (New York: Freeman, 1977) s. 125 — Richard F. Voss; s. 130 — Benoit Mandelbrot; s. 133 — Benoit Mandelbrot; s. 168 — Jerry Gollub, Harry Swinney; s. 178, 179 — Adolph E. Brotman; s. 183 — Edward N. Lorenz; s. 186 — James P. Crutchfield/Adolph E. Brotman; s. 195 — Michel Henon; s. 197 — James P. Crutchfield; s. 226 — H. Bruce Stewart, J.M. Thompson/Nancy Sterngold; s. 245 — Albert Libchaber; s. 253 — Theodor Schwenk, Sensitive Chaos, Copyright © 1965 by Rudolf Steiner Press, by permission of Schocken Books Inc.; s. 254 — D’Arcy Wentworth Thompson, On Growth and Form (Cambridge: Cambridge University Press, 1961); s. 261 — Predrag Cvitanovic/Adolph E. Brotman; s. 264 — Albert Libchaber; s. 275 — Heinz-Otto Peitgen, Peter H. Richter; s. 278 — HeinzOtto Peitgen, Peter H. Richter, The Beauty of Fractals (Berlin: SpringerVerlag, 1986); ss. 282, 283 — Benoit Mandelbrot; s. 295 — James A. Yorke; s. 299 — Michael Barnsley; s. 317 — Julio M. Ottino; s. 360 — Arthur Winfree; ss. 370, 371 — James A. Yorke; ss. 372, 373 — Theodor Schwenk,
Sensitive Chaos, Copyright © 1965 by Rudolph Steiner Press, by permission of Schocken Books Inc.; ss. 386 — Oscar Kapp, Shoudon Liang; ss. 388, 389 — Martin Glicksman/Fereydoon Family, Daniel Platt, Tamäs Vicsek Credits for color: s. 1 — Heinz-Otto Peitgen [Lorenz attractor], Benoit Mandelbrot, The Fractal Geometry of Nature (New York: Freeman, 1977) [Koch curve]; ss. 2-5 — Heinz-Otto Peitgen, Peter H. Richter, The Beauty of Fractals (Berlin: Springer-Verlag, 1986) [Mandelbrot sequence]; s. 6 — Scott Burns, Harold E. Benzinger, Julian Palmore [Newton‘s method]; s. 7 — Richard F. Voss [Percolation cluster]; s. 8 — National Aeronautic and Space Administration [Jupiter], Philip Marcus [red spot simulation]
Fotografie
Atraktor Lorenza
Zbiór Mandelbrota. Podróż przez coraz mniejsze skale ukazuje wzrastającą złożoność zbioru z jego ogonami konika morskiego i wyspami molekuł przypominającymi cały zbiór. Poziom powiększenia ostatniej ramki wynosi około miliona w każdym kierunku.
Złożone granice metody Newtona. Przyciąganie czterech punktów — w czterech ciemnych dziurach — tworzy „baseny przyciągania”, każdy oznaczony innym kolorem, ze złożoną granicą fraktalną. Obraz reprezentuje sposób, w jaki metoda Newtona prowadzi od różnych punktów początkowych do czterech możliwych rozwiązań (w tym przypadku równanie ma postać x4 –1 = 0).
Gromady fraktalne. Przypadkowe gromady cząstek generowane przez komputer tworzą „sieć perkolacyjną”, jeden z wielu wizualnych modeli inspirowanych przez geometrię fraktalną. Naukowcy zajmujący się fizyką stosowaną odkryli, że takie modele imitują różnorodne rzeczywiste procesy, takie jak formowanie się polimerów i dyfuzję ropy przez popękaną skałę. Każdy kolor w sieci perkolacyjnej reprezentuje zgrupowanie, które jest połączone.