153 100 5MB
Polish Pages [175]
Prawda i mity w fizyce Andrzej K. Wróblewski
Spis treści Przedmowa do drugiego wydania ........................................................................................................... 3 Wstęp ...................................................................................................................................................... 3 1. Pseudohistoria nauki ........................................................................................................................... 6 2. Nauka na manowcach ....................................................................................................................... 34 Promienie N ....................................................................................................................................... 38 Subelektrony ..................................................................................................................................... 41 Efekt Barnesa-Davisa ......................................................................................................................... 44 Efekt Allisona ..................................................................................................................................... 46 Kanały na Marsie ............................................................................................................................... 48 Ogniskowanie neutronów ................................................................................................................. 53 Zmienność prędkości światła w czasie .............................................................................................. 53 Waritrony .......................................................................................................................................... 55 Rozszczepienie mezonu A2 ................................................................................................................ 58 3. Nauka przeciw autorytetom .............................................................................................................. 59 4. Nauka wobec nieznanego.................................................................................................................. 82 Biorytmy .......................................................................................................................................... 108 Wrażliwość roślin............................................................................................................................. 109 Różdżkarstwo .................................................................................................................................. 111 5. Nauka i pseudonauka ...................................................................................................................... 114 Literatura ............................................................................................................................................. 140 Fotografie ............................................................................................................................................ 151
Przedmowa do drugiego wydania Niski, pięciotysięczny nakład pierwszego wydania tej książki przez Ossolineum w 1982 r. oraz bardzo życzliwe przyjęcie jej przez Czytelników sprawiły, że stała się ona zupełnie niedostępna. Reakcje krytyków i recenzentów były bardzo przychylne. Te przyczyny sprawiły, że z radością przyjąłem propozycję Wydawnictwa „Iskry” przygotowania drugiego, rozszerzonego wydania. Drugie wydanie zachowuje bez zmian układ rozdziałów książki, jest jednak znacznie rozszerzone w stosunku do wydania pierwszego. Uzupełnienia zostały wprowadzone do wszystkich rozdziałów. Wprowadzając do pierwszego rozdziału obszerną dyskusję fałszywych interpretacji odkrycia Roemera miałem na celu lepsze objaśnienie źródeł pseudohistorii nauki. W rozdziale drugim dodałem kilka przykładów fałszywych odkryć. Elementy historii odkrycia Neptuna i poszukiwań Wulkana dodane w rozdziale trzecim ilustrują tradycjonalizm w nauce; sądzę, że Czytelnicy z zaciekawieniem przyjmą też fragment o numerologii Keplera i Huygensa. W rozdziale czwartym dodałem dyskusję paru głośnych zagadnień, a mianowicie biorytmów, wrażliwości roślin i różdżkarstwa. Wreszcie rozdział piąty został uzupełniony o komentarze na temat piramidologii, astrologii, ufologii i innych pseudonauk. W drugim wydaniu zostały też poprawione drobne błędy, które zakradły się do pierwszego wydania. Mam nadzieję, że rozszerzone wydanie książki Prawda i mity w fizyce posłuży wielu osobom, podobnie jak wydanie pierwsze, w lepszym zrozumieniu złożonego procesu postępu w nauce, będzie też mogło być odtrutką na szerzącą się u nas pseudonaukę. Andrzej Kajetan Wróblewski Warszawa, grudzień 1983 r.
Wstęp Chciałbym przede wszystkim wyrazić wdzięczność dyrektorowi Wszechnicy PAN, prof. dr. Włodzimierzowi Michajłowowi, za zaproszenie do wygłoszenia w 1980 r. w ramach Wszechnicy cyklu wykładów pt. „Prawda i mity w fizyce”, z których powstała niniejsza książka. Zaproszenie to umożliwiło mi bowiem przedstawienie zagadnień, które rzadko stają się przedmiotem popularyzacji, koncentrującej się raczej wokół spektakularnych odkryć i wynalazków i stroniącej od tego, co można by ogólnie nazwać duchem nauki. Zdefiniujmy na wstępie słowa składające się na tytuł cyklu. W encyklopediach i słownikach [1,2] znajdujemy stwierdzenie, że prawda to treść słów zgodna z rzeczywistością, z tym, co rzeczywiście jest, było, zdarzyło się; jest to obiektywna rzeczywistość. Powstaje pytanie, w jaki sposób sprawdzamy, czy dany sąd jest zgodny z rzeczywistością. Odpowiedź na to brzmi, że weryfikacja prawdziwości sądów następuje przez ich konfrontację z faktami szeroko pojętego doświadczenia. Stąd wynika, że prawda jest względna, może zmieniać się w czasie, jest to tylko przybliżone, niepełne odbicie rzeczywistości, dostatecznie jednak wierne, aby mogło spełniać wymogi praktyki ludzkiej w danym etapie jej rozwoju.
Słowo mit jest pojęciem wieloznacznym. Jeśli pominiemy pierwotne, oryginalne znaczenie, które mówi, że mit jest to opowieść o charakterze religijnym, mówiące np. o początkach rodzaju ludzkiego czy o początkach świata, to pozostanie inne, zgodnie z którym mit to z reguły fałszywe, uznawane bez dowodu mniemanie o czymś, o kimś, o jakimś fakcie lub wydarzeniu; jest to wymysł, legenda, bajka, fantastyczna historia. Wreszcie słowo fizyka. W tej książce chcę mówić o fizyce w jej pierwotnym znaczeniu, pochodzącym od greckiego physis - natura. Fizyka oznacza więc naukę o poznawaniu natury. Przytoczmy tu piękny Wyjątek ze wstępu do podręcznika fizyki napisanego w 1825 r. przez Feliksa Drzewińskiego, profesora Uniwersytetu Wileńskiego [3]: „Fizyka nazwisko nauki pochodzące od wyrazu greckiego Physis, natura, przyrodzenie, oznacza naukę poznawania natury. Przyrodzeniem, albo naturą zmysłową, zowiemy to wszystko cokolwiek dziafci na zmysły nasze, i sprawuje w nas czucie. Wszystkie więc rzeczy nas otaczające, których się dotykamy, na które patrzymy, to co słyszymy, co działa na zmysły smaku, i powonienia, wszystko to stanowi naturę zmysłową, i poznawanie tego wszystkiego do Fizyki należy. Przeto Fizyka jest nauką poznawania rzeczy świat składających, badania i dochodzenia ich własności. Rzeczy składające świat fizyczny, to jest zmysłom naszym dostępny, są niezmiernie liczne, i rozmaitemi własnościami obdarzone. Cała ziemia i części ją składające, istoty na niey i wewnątrz jey umieszczone, niebo i to co niem postrzegamy, powietrze w którem żyjemy, budowa nas samych i innych podobnych nam jestestw, to wszystko stanowi świat zmysłowy. W epokach zaczęcia nauk, badania tych wszystkich rzeczy stanowiły jedną naukę, mającą ogólne nazwisko Fizyki: taką miały fizykę starożytne narody Egipcyan, Greków i Rzymian. Poznawaniem coraz bliżey tylu rozlicznych przedmiotów, i odkrywaniem w nich coraz więcey nowych własności, gdy nauka z czasem wzrosła, i stała się bardzo obszerną, uczeni wieków późnieyszych podzielili ją na wiele odnóg, albo części, z których głównieysze są następujące: lód Nauka uważania nieba, albo raczey położeń, ruchów i postaci brył światłych widzianych, w przestrzenie niebios; tę część fizyki Astronomiją nazywamy. 2re Oznaczanie kształtów istot znaydujących się na ziemi i w ziemi, w wodzie i powietrzu, należy do oddziału Fizyki zwanego Historyą naturalną. 3cie Uważanie wewnętrzney budowy tych istot, stanowi naukę zwaną Anatomiją. 4te Dochodzenie pierwiastków, czyli nayprostszych części, z jakich się składają istoty w naturze, i na jakie ostatecznie rozebrać się, rozdzielić, albo rozłożyć mogą, jest przedmiotem Chemii”. Będziemy więc zajmowali się fizyką jako szeroko pojętą filozofią przyrody, sięgając często do tych jej działów, które nazywa się również astronomią, chemią itp. Na zakończenie tych wstępnych uwag chciałbym przytoczyć piękny przykład, chyba znakomicie ilustrujący charakter zagadnień, o których w tej książce będzie mowa. Przykład ten wzięto z bardzo starej historii fizyki, tej ogólnej nauki o przyrodzie. Otóż Egipt starożytny był w zasadzie państwem Jednowymiarowym”, rozciągającym się wąskim pasmem wzdłuż Nilu, który płynie z południa na północ. Natomiast wiatry wieją w tej okolicy przeważnie z północy na południe. Wobec tego podróżny udający się rzeką na północ mógł płynąć z silnym prądem, natomiast udając się na południe musiał używać żagla. W piśmie hieroglificznym te dwie sytuacje były zatem oznaczane odmiennie. Hieroglif oznaczający „płynąć na północ” (a więc
z prądem rzeki) przedstawiał łódź bez żagla, natomiast hieroglif o znaczeniu „płynąć na południe” łódź z żaglem (rys. 1). Ponieważ Nil był jedyną dużą rzeką znaną Egipcjanom przez wiele stuleci, uznano za prawo przyrody, że woda w rzece płynie z południa na północ. Pojęcia i słowa północ z prądem i południe - przeciw prądowi stopiły się z biegiem czasu. Wielkie więc było zdziwienie, gdy za panowania faraona Totmesa I armia egipska doszła do brzegów Eufratu, który akurat płynie z północy na południe. To zdziwienie udokumentowane zostało napisem wyrytym na steli Totmesa I ustawionej nad brzegiem tej „dziwnej” rzeki. Napis ten głosił mniej więcej tak: „Ta odwrócona woda, która płynąc w dół (na północ) płynie na południe (w górę)” [4]. W taki oto sposób uznawane przez stulecia prawo przyrody okazało się mitem.
Rysunek 1 Hieroglify egipskie: „płynąć na północ” „płynąć na południe”
Bardzo dawno temu Chińczycy zauważyli, że ich wielkie rzeki Jangtse-kiang, Si-kiang i Huang-ho płyną z zachodu na wschód. Pochodzenie tego „prawa przyrody” tłumaczyli mitem kosmogonicznym, według którego, gdy „...podtrzymująca nieboskłon góra rozleciała się na drobniutkie kawałki, niebo ze wszystkimi świecącymi na nim ciałami... zaczęło się pochylać ku zachodowi... ziemia zaś pochyliła się ku wschodowi, przez co wszystkie wody rzek popłynęły w tym właśnie kierunku...” [5]. Nie znane mi są doniesienia o tym, kiedy Chińczycy przekonali się, że ich „prawo przyrody” nie obowiązuje wszędzie. I jeszcze jeden przykład. W 1775 r. Akademia Nauk w Paryżu ogłosiła, że w przyszłości nie będzie więcej badała żadnego rozwiązania zagadnień podwojenia sześcianu, podziału kąta na trzy części lub kwadratury koła ani też żadnej maszyny ogłaszanej jako przykład ruchu wiecznego (perpetuum mobile). A trzy lata wcześniej, w 1772 r., słynny uczony Antoine Lavoisier (o którym będzie tu jeszcze mowa) podpisał memoriał uczonych do tejże Akademii Nauk, w którym stwierdzono, że kamienie, którym przypisuje się pochodzenie „z nieba”, są zwykłymi kamieniami ziemskimi o strukturze zmienionej przez uderzenia piorunów, gdyż przecież spadki „kamieni z nieba” są niemożliwe. Gdy w 1790 r. w Gaskonii spadł deszcz meteorytów i zeznania kilkuset naocznych świadków przesłano do Akademii Nauk w Paryżu, ta postanowiła nie wydawać żadnego orzeczenia. A jeden z fizyków stwierdził na łamach „Journal des Sciences Utiles”, że żałosne jest, gdy zarząd miejski próbuje poświadczyć formalnym protokółem bajania ludowe o faktach oczywiście, nieprawdziwych i niemożliwych fizycznie. Minęło niewiele lat i jedno z tych stwierdzeń Paryskiej Akademii Nauk trzeba było uznać za fałszywe, gdyż przekonano się ponad wszelką wątpliwość o spadkach meteorytów. Drugie orzeczenie zachowujemy do dziś, nie próbując rozważać perpetuum mobile. Jakie są więc właściwe kryteria w fizyce uznawania czegoś za prawdę czy za nieprawdę? To zagadnienie będzie centralnym tematem dalszych moich rozważań.
1. Pseudohistoria nauki Gdy weźmiemy do ręki książki o fizyce, czy to będą podręczniki, czy nawet książki traktujące o historii fizyki, znajdziemy tam bardzo wiele błędów i przeinaczeń. Oto szereg przykładów. 1. Co pisze się o Duńczyku Olausie Roemerze, który pierwszy mierzył prędkość światła? Pomijając nawet to, że daty jego osiągnięcia podawane przez różnych autorów różnią się o kilka czy kilkanaście lat, można spotkać różne wartości prędkości światła, które Roemer miał podać w swej pracy: od mniej więcej 190 000 do 350 000 km/s, a więc różniące się niemal o czynnik 2. Powstaje pytanie, co naprawdę Roemer zmierzył i jaką wartość podał światu. Gdy się dotrze do oryginalnej pracy Roemera, to okazuje się, że nie podał on żadnej wartości prędkości światła, lecz mówił wyłącznie o tym, że światło musi zużyć skończony czas na przebycie określonej odległości. Problem, który wówczas stał przed uczonymi, sprowadzał się do rozstrzygnięcia, czy prędkość światła jest skończona czy nieskończenie wielka. Wszystkie przypisywane Roemerowi wartości prędkości światła są po prostu wymysłem późniejszych autorów, którzy zapomnieli, o co naprawdę chodziło w fizyce XVII wieku [6]. 2. Wszyscy zapewne przypominają sobie ze szkoły prawo gazowe, które Anglosasi nazywają prawem Boyle'a, Francuzi - prawem Mariotte'a, a my i większość innych narodów - prawem Boyle'a-Mariotte'a. Otóż w rzeczywistości prawo to zostało odkryte przez Powera i Towneleya mniej więcej dwa lata przed pierwszym opisaniem go przez Boyle'a w 1662 r., znał je wcześniej także Robert Hooke (o tym wszystkim pisał Boyle w swym dziele New Experiments Physico-Mechanical Touching the Spring of the Air wydanym w Oxfordzie w 1662 r.). W kilkanaście lat później Francuz Mariotte ogłosił i rozpropagował to prawo na kontynencie europejskim (i nie jest jasne, czy doszedł doń niezależnie). Wobec tego powinno się mówić: prawo Powera-Towneleya-Hooke'a, ugruntowane i rozpropagowane przez Boyle'a i Mariotte'a [7]. 3. Pamiętamy też ze szkoły, że o innych prawach gazowych mówi się wymieniając nazwiska Charlesa i Gay-Lussaca. Nie wspomina się jednak, że wcześniej lub równocześnie to samo zrobili Alessandro Volta i John Dalton, którzy wyniki swe opublikowali [8]. 4. W fizyce bryły sztywnej mówi się o tzw. twierdzeniu Steinera. Steiner był matematykiem i fizykiem z XIX wieku, zaś wymienione twierdzenie po raz pierwszy ogłosił Christiaan Huygens już w połowie XVII wieku! 5. Mówi się, że Newton podał teorię korpuskularną światła i przeciwstawia się ją „dobrej” teorii falowej Huygensa, Younga i Fresnela. Gdy jednak zajrzymy do dzieł Newtona, możemy przekonać się, że sprawa wcale nie wygląda tak prosto, że Newton mówił też o drganiach i że jego teoria światła jest może najbliższa naszemu dualistycznemu wyobrażeniu [9] (patrz str. 99). 6. Mówi się często, że Yukawa wymyślił ideę mezonu, co dało impuls do poszukiwania takich cząstek przez fizyków eksperymentatorów. Okazuje się to mitem, gdyż w pierwszej pracy donoszącej o odkryciu mezonu nazwisko Yukawy w ogóle się nie pojawia. Jego praca była bowiem ogłoszona w mało znanym i trudno dostępnym japońskim periodyku matematycznym i dopiero odkrycie mezonu zwróciło uwagę na wcześniejsze przewidywania Yukawy [10] .
7. Mitem okazuje się też opowieść o eksperymentach Galileusza, który ponoć rzucał różne przedmioty z krzywej wieży w Pizie [11]. 8. Wiele podręczników podaje, jakoby Maxwell uzupełnił równania elektromagnetyzmu o tzw. prąd przesunięcia, gdyż chciał usunąć niezgodność między prawem Ampére'a i równaniem ciągłości. W rzeczywistości cel badań Maxwella był prozaiczny (i dawno zapomniany): chodziło mu o obliczenie sprężystości eteru kosmicznego [10]. 9. Szczytem wszystkiego jest przepisywanie historii fizyki tak, aby lepiej zgadzała się z naszymi obecnymi wyobrażeniami. I tak np. według niektórych autorów Max Planck podał swój słynny wzór na rozkład energii w widmie ciała doskonale czarnego jako odpowiedź na nieudane próby w ramach fizyki klasycznej podejmowane przez Rayleigha i Jeansa. Tylko że w rzeczywistości Planck podał swój wzór w 1900 r., a wzór Rayleigha-Jeansa w ostatecznej postaci pochodzi z 1905 r. [10]. Na razie tych przykładów wystarczy. Nasuwa się pytanie: Dlaczego materiał historyczny w zwykłych podręcznikach czy wykładach fizyki zawiera tak wiele fałszu i jest w znacznej mierze pseudohistorią nauki? Niektórzy autorzy sądzą zapewne, że wzmianki historyczne są tylko materiałem ubarwiającym wykład, który ma na celu nauczyć studentów rozumienia fizyki, jej zasad, technik i zastosowań. Mniejsza zatem o ścisłość informacji. Zdarza się też, jak widzieliśmy, że historię niektórych zagadnień przepisuje się tak, aby ugruntowywała przekazywane idee. Jeśli bowiem fizyka odznacza się porządkiem logicznym, to tak samo ma wyglądać jej historia. Jest to szczególnie niebezpieczne w tych przypadkach, gdy porządek logiczny jest akurat odwrotny do porządku chronologicznego. Innym spotykanym czasem podejściem autorów współczesnych jest pobłażliwe traktowanie starych osiągnięć i wręcz przeciwstawianie obecnych „dobrych” poglądów tym starym, naiwnym i błędnym [10]. Błędy zdarzają się, jak powiedziałem, nie tylko w podręcznikach fizyki, lecz także w książkach o historii fizyki, gdzie widocznie też autorzy starają się pokazać „logiczną” historię rozwoju idei. Jaka jest na to rada dla kogoś, kto chce poznać historię rzeczywistą? Otóż trzeba oprzeć się tylko na dziełach oryginalnych lub na tych pracach z historii nauki, które są na takich dziełach oparte i zawierają z nich cytaty. Znany fizyk i astrofizyk amerykański Samuel Langley w 1889 r. zajął się w swoim wykładzie sprawą właściwego rozumienia historii nauki. „Często porównuje się postęp nauki do marszu armii do określonego celu” - pisał Langley, ale „(...) Wydaje mi się, że nie jest to droga, którą zwykle kroczy nauka, lecz tylko droga, jaką zdaje się ona kroczyć, gdy patrzy nań kompilator, który prawdopodobnie nie wie nic o rzeczywistym braku zrozumienia, różnorodności posunięć, a nawet cofaniu się ludzi składających się na ciało nauki, droga pokazująca zaledwie te etapy rozwoju, które kompilator z obecnego punktu widzenia traktuje jako prowadzące we właściwym kierunku. Sądzę, że to porównanie rozwoju nauki do marszu armii, która kierowana jest rozkazami jednej głowy, ma w sobie więcej fałszu niż prawdy. Chociaż więc wszelkie porównania są mniej lub bardziej mylące, wolałbym, abyście raczej wyobrazili sobie poruszający się tłum, kiedy to kierunek całości jest wypadkową niezależnych zamiarów składających się nań ludzi; albo stado psów myśliwskich, które
w końcu może dosięgnąć swą ofiarę, w którym jednak, gdy trop jest zgubiony, każdy członek stada porusza się własną drogą, kierując się raczej węchem niż wzrokiem, w którym bardziej hałaśliwy prowadzi za sobą wiele innych niemal równie często w błędnym kierunku jak w kierunku właściwym, że czasem całość sfory biegnie po fałszywym tropie. Choć jest to mniej dostojne porównanie, wydaje mi się zawierać w sobie prawdę, nie dostrzeganą przez autorów podręczników. W każdym razie rzeczywisty rozwój nauki był zawiły i kręty, często zawierał kroki do tyłu i to w takim stopniu, o którym nie można by się nic dowiedzieć z opisu w podręcznikach czy encyklopediach, które podają głównie tylko wypadkową tych wszystkich niezdecydowanych posunięć. Z rzadkimi wyjątkami kroki wstecz, tzn. błędy i omyłki, które w rzeczywistości stanowią niemal połowę, czasem ponad połowę całości, są opuszczane w historii nauki. Czytelnik, chociaż wie, że błędy się zdarzały, nie ma właściwego pojęcia o tym, jak ściśle błędy i prawda przeplatają się, niby w związku chemicznym, nawet w pracach wielkich odkrywców, jak również o tym, że to przeważnie czas pozwala nam stwierdzić, co naprawdę jest postępem, gdy sam człowiek tego nie potrafi. Jeżeli zdaje się to truizmem, to w każdym razie często zapominanym, ale o którym trzeba zawsze pamiętać” [12]. Ten cytat wydaje mi się bardzo właściwym wstępem do naszych rozważań. Sądzę, że tylko wtedy, gdy zdamy sobie sprawę z tego, jak skomplikowana jest historia nauki, będziemy mogli właściwie ocenić to, co reprezentuje nauka dzisiejsza, co w niej można uznać za prawdę już rzeczywiście dowiedzioną, a co za prawdę względną, z której być może jakiś przyszły wykładowca za lat 50 czy 100 będzie się wyśmiewał. A może nie będzie się wyśmiewał, jeśli będzie pojmował historię nauki właściwie, w sposób, który chciałbym spopularyzować. Jako główny temat tego rozdziału, jako przykład, który świetnie ilustruje tę niezwykłą złożoność rozwoju nauki, jej kręte ścieżki, wahania i częste kroki wstecz, obrałem ważny epizod z historii rozwoju nauki o cieple. Jest to dziedzina wyjątkowo wdzięczna, gdyż wydaje mi się, że obecnie wiemy już, na czym ciepło polega i że jest to wiedza prawdziwa. Natomiast w przeszłości bywały na ten temat różne opinie, prawdziwe i fałszywe, które przeplatały się tak, że nie zawsze porządek chronologiczny odpowiadał obecnemu porządkowi logicznemu w wykładzie z tej dziedziny fizyki. Opanowanie ognia, tzn. umiejętność jego rozniecania, kontrolowania i podtrzymywania, było wielkim odkryciem, które stanowiło przełom w postępie cywilizacji. Toteż ogień od bardzo dawna zajmuje ważne miejsce w poglądach człowieka na przyrodę, a pojęcia ciepła i zimna należą do tych, które człowiek poznał najdawniej. Spory o naturę ciepła rozpoczęły się już w starożytności. Tacy uczeni jak Heraklit z Efezu, Empedokles z Agrigento, Arystoteles i Platon sądzili, że istnieje w przyrodzie materia ognia, jeden z podstawowych elementów budowy świata. Platon był przekonany nawet, że atomy ognia mają kształt czworościanów foremnych. Natomiast atomiści, jak np. Lukrecjusz, mówili o związku ciepła z ruchem atomów zwykłej materii, a nie specjalnej materii ognia i ciepła. Na przełomie XVI i XVII wieku Galileusz konstruuje termoskop i to wydarzenie początkuje nowoczesną naukę o cieple, która bardzo powoli przekształca się w naukę ilościową. Jeden z pierwszych siedemnastowiecznych traktatów o naturze ciepła to De forma calidi Francisa Bacona z 1620 r. Bacon w traktacie tym wyliczył wszystkie znane mu fakty na temat ciepła i jego wytwarzania i doszedł do wniosku, że ciepło to rodzaj ruchu. Wniosek ten oparł głównie na rozważaniu takich
sposobów wytwarzania ciepła, jak np. przez tarcie i uderzenie, kiedy ciepło pojawia się w ciałach nie stykających się z innymi, lecz podległych działaniu siły mechanicznej. Robert Boyle w jednym ze swych traktatów też sądził, że ciepło jest rodzajem ruchu. Później jednak, gdy zważył ogrzany metal I stwierdził przyrost jego ciężaru (ta obserwacja była oczywiście błędna!), uznał, że przemawia to za istnieniem materii ciepła (ognia), której cząstki wnikają do ogrzewanego ciała. W latach sześćdziesiątych XVII wieku odkryto prawo stałości iloczynu ciśnienia i objętości powietrza (nazywane dziś najczęściej prawem Boyle'a-Mariotte'a). Izaak Newton w swych Zasadach matematycznych filozofii naturalnej poświęcił jeden z ustępów temu zagadnieniu. Dowiódł mianowicie, że jeśli atomy odpychają się siłą odwrotnie proporcjonalną do odległości między ich środkami, to tworzą „fluid sprężysty”, którego gęstość jest proporcjonalna do ciśnienia (a więc objętość odwrotnie proporcjonalna do ciśnienia). Newton dodał jednak starannie, że: „(...) czy fluidy sprężyste rzeczywiście składają się z drobnych cząstek odpychających się wzajemnie, to już jest pytanie fizyczne. Udowodniliśmy matematycznie właściwość fluidów składających się z drobnych cząstek takiego rodzaju, aby dostarczyć filozofom przyrody punktu wyjścia do badania tego pytania” (Principia, Księga II, Prop. XXII). W modelu matematycznym Newtona pominięty został zupełnie ruch atomów. Obecnie wiemy, że ciśnienie gazu jest uwarunkowane niemal całkowicie uderzeniami atomów o ścianki naczynia, a nie stale działającymi siłami międzyatomowymi. Jednak ze względu na wielki autorytet Newtona większość fizyków trzymała się przedstawionego przez niego modelu, chociaż, jak widzieliśmy, dla Newtona była to tylko możliwa hipoteza. W XVIII wieku popularność tego poglądu nawet wzrosła, gdy pojawiła się idea, że z siłami odpychania międzyatomowego jest związane ciepło. W wielu podręcznikach, nawet jeszcze z początku XIX wieku, podawano, że zasugerowane przez Newtona prawo siły odpychającej między cząstkami gazu zostało udowodnione ponad wszelką wątpliwość. Do wyjątków należał Daniel Bernoulli (fot. 1), który w swym dziele Hydrodynamica (1738 r.) rozwinął kinetyczny model cząstek gazu uderzających sprężyście o ścianki naczynia i udowodnił, że w takim wypadku ciśnienie będzie odwrotnie proporcjonalne do objętości. To wyjaśnienie prawa Boyle'aMariotte'a nie zrobiło jednak wielkiego wrażenia na współczesnych i zostało szybko zapomniane. Pamiętajmy, że nauka o gazach i cieple była jeszcze wówczas w powijakach i Bernoulli nie mógł dać odpowiedzi na szereg podstawowych pytań, np.: 1) Jak ciepło wpływa na ruch cząstek gazu (jaki jest związek temperatury z energią kinetyczną cząstek)? 2) Jeśli ciepło jest ruchem cząstek, to jak może być przekazywane w pustej przestrzeni, np. od Słońca? W połowie XVII wieku dokonano w nauce o cieple przełomowego odkrycia. Joseph Black z Edynburga (fot. 2) rozróżnił mianowicie pojęcia ilości ciepła i temperatury. Odkrycie to było wynikiem badań Blacka nad zmianami stanu skupienia. Jak wiadomo, przy takich procesach (np. przemiana lodu w wodę lub odwrotnie) następuje pobieranie (lub oddawanie) pewnej ilości ciepła, tzw. ciepła przemiany (dawniej zwanego też ciepłem utajonym) bez zmiany temperatury ciała. Z wykładów Blacka na uniwersytecie w Edynburgu [13] dowiadujemy się o ważnym kroku w kierunku opracowania teorii fluidu ciepła, zwanego później cieplikiem. Mówiąc o cieple Black omawia najpierw poglądy Francisa Bacona (patrz wyżej), a następnie pisze:
„Ale większość francuskich i niemieckich filozofów przyrody i dr Boerhaave było zdania, że ruch składający się na ciepło nie jest drganiem samych cząstek gorącego ciała, lecz cząstek subtelnego, bardzo sprężystego i przenikającego wszystko fluidu, który jest zawarty w porach gorących ciał, między ich cząstkami, fluidu, który, jak sobie wyobrażali, jest rozproszony w całym wszechświecie i przenika nawet najgęstsze ciała. Niektórzy uważają, że ta materia, zmieniona w różny sposób, wytwarza światło i zjawiska elektryczne. Lecz żadne z tych przypuszczeń nie było rozważane przez tych autorów w pełni dokładnie ani też nie było zastosowane do wyjaśnienia wszystkich faktów i zjawisk odnoszących się do ciepła. Nie dostarczyli więc nam oni właściwej teorii ani wyjaśnienia natury ciepła. Bardziej pomysłowa próba została podjęta ostatnio. Jej pierwszy zarys podał zmarły już dr Cleghorn w swej dysertacji na temat ciepła tutaj ogłoszonej [Uniwersytet w Edynburgu, 1779 r.]. Przyjął on, że ciepło zależy od obecności tego subtelnego i sprężystego fluidu, który według wyobrażeń innych filozofów jest obecny w całym wszechświecie i jest przyczyną ciepła. Ale ci inni filozofowie przyjmowali tylko jedną właściwość tej subtelnej materii, a mianowicie jej wielką sprężystość, czyli silne odpychanie wzajemne jej cząstek. Natomiast dr Cleghorn założył jeszcze inną jej właściwość, a mianowicie silne przyciąganie między jej cząstkami i innymi rodzajami materii w przyrodzie, które ogólnie wykazują mniejsze lub większe wzajemne przyciąganie grawitacyjne. Przyjął on zatem, że zwykłe rodzaje materii składają się z cząstek obdarzonych własnością silnego przyciągania się wzajemnego, i przyciągania materii ciepła; natomiast subtelna, sprężysta materia ciepła ma własność odpychania, jej cząstki wzajemnie się odpychają, chociaż są przyciągane przez inne rodzaje materii (...) Taka idea o naturze ciepła jest najbardziej prawdopodobna ze wszystkich, jakie znam. Bardzo pomysłowy z niej użytek zrobił dr Higgins w swej książce o kwasie roślinnym i innych zagadnieniach. Jest to jednak nadal tylko przypuszczenie”. Obok fluidu ciepła rozważano inny fluid sprężysty, flogiston. Pomysł pochodził od Johanna Joachima Bechera (1669 r.), a właściwą teorię podał w 1697 r. Georg Ernst Stahl. Oto co o tym fluidzie pisał Stahl [14j: „Ten materiał ognia sam przez się, inaczej niż inne rzeczy (specjalnie powietrze i woda), nie znajduje się zjednoczony i aktywny, ani jako ciecz, ani w stanie rozrzedzonym. Ale jeśli przez ruch ognia, przy dodatku powietrza, staje się rozrzedzony i ulatnia się, wtedy pozostaje rozproszony dzięki swej niepojętej subtelności i niemierzalnemu rozrzedzeniu i żadna wiedza znana człowiekowi, żadna ludzka umiejętność nie może go zebrać ponownie i zamknąć w małej przestrzeni, zwłaszcza jeśli zaszło to szybko na dużą skalę. Doświadczenie poucza nas o tym, jak niezmiernie rozrzedzonym i subtelnym staje się ten materiał wskutek ruchu ognia; daje nam to pole do rozmyślań i napawa zadowoleniem. Wobec tych jego własności, uważam, że zasługuje on na swą nazwę własną, jako pierwsza, jedyna, podstawowa zasada palności. Ale ponieważ dotychczas nie może być wyodrębniony sam, poza związkami i połączeniami z innymi materiałami i nie ma wobec tego podstaw, by nadać mu nazwę opisową wyjaśniającą własności, sądziłem, że najlepiej nadać mu nazwę od ogólnego działania, które
zwykle pokazuje we wszystkich swych związkach. Dlatego wybrałem dlań grecką nazwę flogiston (...)”. A oto wyjątek z traktatu o elektryczności Tiberiusa Cavallo [15]: „Element ognia można rozważać biorąc pod uwagę jego sprężystość, różne stany jego występowania i jego efekty. Jeśli chodzi o jego pochodzenie, to zwykle rozróżnia się ogień niebieski, ogień podziemny i ogień kulinarny. Ogień niebieski to ten, który rozchodzi się ze Słońca i będąc rozproszony w całym wszechświecie jest źródłem życia i ruchu niemal wszystkiego, co istnieje. Ogień podziemny jest przyczyną wulkanów, gorących źródeł itd. Wreszcie ogniem kulinarnym nazywamy ogień wytwarzany na ziemi przez spalanie różnych substancji. To rozróżnienie rodzajów ognia jest jednak mało użyteczne, gdyż niezależnie od pochodzenia efekty ognia są zawsze takie same. Jeśli chodzi o różne stany jego istnienia, to Chemicy znają tylko dwa: pierwszy, oczywisty i w zasadzie ten, któremu wyłącznie nadaje się nazwę Ogień, to rzeczywiste poruszenia cząstek tego elementu, które wytwarzają złożone idee jasności, gorąca itd., czyli tego, co powszechnie rozumie się pod nazwą Ognia; drugi stan - to rzeczywista zasada ognia istniejąca jako składnik szeregu, być może nawet wszystkich substancji, czyli ta materia, której cząstki, poruszone w szczególny i gwałtowny sposób, produkują zwykły, odczuwalny ogień. To zatem, co możemy nazwać ogniem w jego nieaktywnym stanie, jest Flogistonem Chemików; to właśnie on połączony w dostatecznej ilości z innymi substancjami czyni je palnymi. Nie ma wątpliwości, że ta zasada rzeczywiście istnieje, gdyż możemy ją przenosić z jednego ciała do innego, przez nasycenie flogistonem możemy uczynić palnym ciało, które ze swej natury palnym nie jest, możemy także zabierając flogiston ciału palnemu z natury, uczynić je niepalnym”. Flogiston miał więc być odpowiedzialny za procesy spalania. Ciała zawierające dużo flogistonu paliły się dobrze, a ciała pozbawione flogistonu były niepalne. Każde ciało palne (np. węgiel, wosk, olej) mogło przekazywać flogiston np. rudzie żelaza, która przez napełnienie flogistonem zamieniała się w metaliczne żelazo. Żelazo metaliczne przy podgrzewaniu oddawało flogiston zamieniając się w „metal zwapniały” (lub „popiół”). Procesy te można przedstawić więc schematycznie równaniem metal metal zwapniały + flogiston. Flogiston został szybko usunięty z chemii i fizyki, a dokonał tego sławny chemik francuski Antoine Lavoisier (fot. 3). Przeprowadzając szereg prób z wieloma substancjami doszedł on do wniosku, że proces spalania polega nie na oddawaniu flogistonu, lecz na łączeniu się z tlenem, czyli utlenianiu. I tak np. jedna z reakcji, którą zajmował się Lavoisier, przejście od tlenku rtęci do rtęci i tlenu (lub odwrotnie, zależnie od temperatury) przebiega wg schematu 2HgO 2Hg+ O2 Współczesny historyk nauki John Bernal tak komentuje sprawę flogistonu [16]: „Jesteśmy skłonni, spoglądając z punktu widzenia bezpośrednio następnej teorii - teorii spalania jako utleniania - uważać teorię flogistonu za absurd; w rzeczywistości była to bardzo wartościowa teoria, skoordynowała ona dużo różnych zagadnień w chemii (...)
Centralną koncepcją, na której opierała się logika flogistonu, była uniwersalność przeciwstawnych procesów - flogistykacji i deflogistykacji (...) Tak jak to widzieli jej przeciwnicy, deflogistykacja nie polegała na usunięciu metafizycznej substancji flogistonu, było to dodanie materialnej substancji tlenu - utlenianie, podczas gdy flogistykacja była jego usunięciem, czyli redukcją (...) Obecnie w dwudziestym stuleciu możemy odwrócić tę myśl i powrócić do flogistonu traktowanego pomimo jego dużej lekkości jako materiał; w dzisiejszym języku mówilibyśmy o elektronach. Te substancje, które mają nadmiar łatwo usuwalnych elektronów, jak wodór, metale, węgiel są to te, o których sądzono, że są bogate, we flogiston; te, w których istnieje równowaga elektronów, jak sole i tlenki, są zdeflogistykowane, wreszcie te, które chciwie wchłaniają elektrony, jak tlen, będą wybitnie zdeflogistykowane. Niepowodzenie teorii flogistonu nie polegało na jej wewnętrznej nielogiczności, lecz na tym, że w tej postaci nie mogła być zgodna z faktami”. Tę obszerną dygresję o flogistonie1 zamieściliśmy nie tylko dlatego, że sprawa flogistonu to typowy przykład siedemnastowiecznego sposobu myślenia, ale też, ponieważ koniec flogistonu to jednocześnie początek największej sławy fluidu ciepła. Lavoisier wypędził z chemii flogiston, ale niemal jednocześnie nobilitował fluid ciepła - cieplik - na czołowym miejscu wśród pierwiastków chemicznych (fot. 4). W słynnej rozprawie o cieple, którą Lavoisier ogłosił wraz z Laplacem w 1783 r., nie zajmował jeszcze wyraźnego stanowiska w sporze o naturę ciepła, jak to widać z poniższego wyjątku [18]: „Fizycy nie są jednomyślni co do istoty ciepła. Wielu z nich uważa je za fluid, który jest rozpowszechniony w całej przyrodzie i który mniej lub więcej przenika ciała, stosownie do stopnia ich temperatury i właściwej im zdolności zatrzymywania ciepła; może się on łączyć z ciałami i wtedy przestaje działać na termometr i przechodzić z jednego ciała do drugiego. Jedynie w stanie swobody pozwalającej temu fluidowi dojść w ciałach do równowagi, stanowi on to, co nazywamy „ciepłem swobodnym”. Inni fizycy sądzą, że ciepło nie jest niczym innym, jak tylko skutkiem niedostrzegalnych ruchów cząstek materii. Wiadomo, że ciała, nawet najgęstsze, są wypełnione wielką ilością por, czyli małych próżni, których objętość może znacznie przewyższać objętość zawierającej je materii. Te puste przestrzenie pozwalają cząstkom drgać swobodnie w rozmaitych kierunkach i to naprowadza na myśl, że cząstki znajdują się w ustawicznym ruchu, który wzrastając do oznaczonej granicy, może nawet rozłączyć małe cząstki i tym sposobem rozkładać ciała. Ten ruch wewnętrzny jest według poglądów fizyków, o których mówimy, tym, co stanowi ciepło (...) Nie chcemy rozstrzygać między dwiema wyżej przytoczonymi hipotezami. Wiele zjawisk przemawia na korzyść ostatniej hipotezy, np. to, że ciepło powstaje przez tarcie dwóch ciał stałych. Ale są inne, które łatwiej objaśnić na zasadzie pierwszej hipotezy: być może, że obydwie są jednocześnie słuszne. W każdym razie, ponieważ co do istoty ciepła można postawić tylko te dwie hipotezy, więc należy przyjąć zasady wspólne dla nich obu. Otóż zarówno według jednej, jak i drugiej, swobodna ilość ciepła pozostaje zawsze ta sama, gdy zachodzi zwyczajne mieszanie ciał. To jest oczywiste, jeżeli ciepło jest fluidem, który dąży do stanu równowagi, jeżeli zaś jest siłą żywą wewnętrznych ruchów materii, wówczas zasada, o którą chodzi, jest wnioskiem z zachowania siły żywej (...)”.
1
Bardziej szczegółowe wiadomości o teorii flogistonu można znaleźć np. w pracach [17].
Ale sześć lat później w swym największym dziele Traité élémentaire de chimie Lavoisier pozbywa się wszystkich wątpliwości. Oto wyjątek, w którym po przypomnieniu, że wzrost temperatury powoduje stopniową przemianę lodu w wodę, a tej w parę, Lavoisier mówi [19]: „To samo można powiedzieć o wszystkich ciałach w przyrodzie. Są one w stanie stałym, ciekłym lub w stanie sprężystego gazu, zależnie od stosunku między siłą przyciągania właściwą ich cząstkom i siłą odpychania ciepła; inaczej mówiąc, zależnie od stopnia ciepła, jakiemu podlegają. Trudno jest zrozumieć te zjawiska nie przypisując ich działaniu realnej, materialnej substancji, bardzo subtelnego fluidu, który wnikając między cząstki ciał oddziela je od siebie. Nawet gdyby zgodzić się, że istnienie tego fluidu jest hipotetyczne, to jednak wyjaśnia ono w zadowalający sposób zjawiska przyrody. Czymkolwiek jest ta substancja będąca powodem ciepła lub, inaczej mówiąc, uczucia, które nazywamy ciepłem, a które jest spowodowane nagromadzeniem tej substancji, nie możemy jej nazwać ciepłem, gdyż ta sama nazwa niewłaściwie oznaczałaby zarówno przyczynę, jak i skutek. Z tego powodu w memoriale, który opublikowałem w 1777 r., nadałem jej nazwę fluidu ognistego i materii ciepła. Następnie w pracy o reformie nomenklatury chemicznej, którą ogłosiłem wraz z panami de Morveau, Berthollet i de Fourcroy uznaliśmy za konieczne zlikwidowanie wszystkich wyrażeń peryfrastycznych, które zarówno wydłużają język fizyczny, jak czynią go mniej precyzyjnym i bardziej nużącym, a także często niewłaściwie wyrażają idee przedmiotu. W pracy tej zatem wyróżniliśmy przyczynę ciepła, czyli tworzący ją niezmiernie sprężysty fluid, nadając jej nazwę cieplik (...) To, co powiedziałem dotąd, może wystarczyć dla wyjaśnienia idei przypisanej słowu cieplik, pozostaje jednak sprawa trudniejsza, a mianowicie wyjaśnić sposób, w jaki cieplik działa na ciało. Ponieważ ta materia subtelna przenika pory wszystkich znanych substancji, ponieważ nie ma naczyń, z których by nie mogła się wydostać, i wobec tego żadnych naczyń, w których można by ją przechować, możemy poznać jej właściwości jedynie na podstawie zjawisk ulotnych i trudnych do stwierdzenia. W tych rzeczach, których nie widzimy ani nie czujemy, trzeba nam szczególnie strzec się ekstrawagancji w naszej wyobraźni, zawsze skłaniającej się do przestępowania granic ustalonej prawdy i trudnej do utrzymania w wąskim zakresie faktów. Widzieliśmy już, że to samo ciało występuje w stanie stałym lubo jako ciecz, lub gaz, zależnie od zawartości przenikającego je cieplika, lub ściślej mówiąc, zależnie od tego, czy siła odpychająca wywierana przez cieplik jest równa, większa lub mniejsza od przyciągania wzajemnego cząstek ciała”. W ostatnich zdaniach tego wyjątku widać już wyraźnie przekształcanie się teorii cieplika z hipotezy słabo sprecyzowanej i czysto jakościowej w teorię ilościową, która, jak zobaczymy poniżej, mogła zadowalająco wyjaśnić wiele faktów doświadczalnych i stała się na pewien czas motorem postępu w fizyce2. Całkowite zarzucenie pod koniec XVIII wieku prymitywnej wówczas teorii kinetycznej ciepła i triumf teorii cieplika są też związane z ogólnym trendem fizyki tego stulecia. Fizykę osiemnastowieczną 2
Dodajmy jako ciekawostkę, że jednym z tych, którzy rozwijali teorię cieplika był fizyk francuski, późniejszy słynny działacz okresu rewolucji, Jean Paul Marat; podał on wyczerpujący wykład tej teorii w dziele Recherches physiques sur le feu (Paryż, 1780 r.)
można określić jako naukę o subtelnych nieważkich fluidach. Poza flogistonem i cieplikiem rozważano wówczas inne nieważkie fluidy - elektryczny i magnetyczny, a także fluidy związane z organizmami żywymi: fluid elektryczności zwierzęcej (Galvani), fluid nerwowy (Lamarck) i fluid magnetyzmu zwierzęcego (Mesmer). Poniższy urywek z pracy Benjamina Franklina z 1750 r. o fluidzie elektrycznym [20] wykazuje, jak bardzo podobne były wyobrażenia ó fluidzie ciepła i fluidzie elektrycznym: „Materia elektryczna składa się z cząstek niezmiernie subtelnych, ponieważ może przenikać przez materię zwykłą, nawet przez najgęstsze metale z taką swobodą, jakby nie doznawała widocznego oporu. Jeśli ktokolwiek wątpiłby w to, że materia elektryczna przenika przez substancję ciał, a rozchodzi się tylko po ich powierzchniach, to przekona go prawdopodobnie uderzenie przy dotknięciu dużej naładowanej butelki lejdejskiej. Materia elektryczna różni się tym od materii zwykłej, że cząstki tej ostatniej nawzajem się przyciągają, a cząstki pierwszej nawzajem się odpychają. To właśnie powoduje widoczną rozbieżność wypływów elektrycznych. Chociaż cząstki materii elektrycznej odpychają się nawzajem, to jednak są one silnie przyciągane przez każdą inną materię. Z tych trzech rzeczy: nadzwyczajnej subtelności materii elektrycznej, wzajemnego odpychania się jej cząstek i silnego przyciągania między nimi i inną materią, wynika, że jeśli udzielić pewnej ilości materii elektrycznej masie materii zwykłej, o jakiejkolwiek wielkości czy długości (która nie posiada w sobie elektryczności), to materia elektryczna rozejdzie się natychmiast równomiernie w całej masie. Zatem materia zwykła jest rodzajem gąbki dla fluidu elektrycznego. Gąbka nie nasiąkałaby wodą, gdyby cząstki wody nie były mniejsze niż pory gąbki, nasiąkałaby powoli, gdyby nie istniało przyciąganie między cząstkami wody i cząstkami gąbki, nasiąkałaby szybciej, gdyby przyciąganie wzajemne między cząstkami wody nie stawało temu na przeszkodzie, gdyż trzeba użyć pewnej siły, aby je od siebie odłączyć; wreszcie nasiąkanie byłoby szybsze, gdyby zamiast przyciągania zachodziło wzajemne odpychanie między cząstkami wody, które współdziałałoby przyciąganiu przez gąbkę. Tak właśnie ma się rzecz z materią zwykłą i materią elektryczną. Ale materia zwykła zawiera ogólnie tyle materii elektrycznej, ile może się pomieścić w jej substancji. Jeśli dodać jej więcej, to nadmiar pozostaje na powierzchni i tworzy to, co nazywamy atmosferą elektryczną; mówimy wtedy, że ciało jest naelektryzowane. Wiemy, że fluid elektryczny jest zawarty w materii zwykłej, ponieważ możemy go stamtąd wypompować za pomocą kuli lub rury. Wiemy, że materia zwykła zawiera tego fluidu tyle mniej więcej, ile może go utrzymać, gdyż jeżeli dodamy go nieco więcej, to nadwyżka nie wchodzi wewnątrz materii, lecz tworzy atmosferę elektryczną. Wiemy wreszcie, że materia zwykła nie posiada (ogólnie) więcej materii elektrycznej, niż może zawierać, gdyż inaczej cząstki niewiązane odpychałyby się wzajemnie, co czynią stale, gdy mają atmosferę elektryczną”. Widzimy więc, że teoria fluidu cieplnego Cleghorna była zbudowana na obraz i podobieństwo teorii fluidu elektrycznego. I w jednej, i w drugiej teorii cząstki fluidu nawzajem się odpychały, natomiast były przyciągane przez materię zwykłą. Dlatego też cieplik został tak bardzo chętnie przyjęty do fizyki.
Na przełomie XVIII i XIX wieku następuje bardzo dramatyczny okres walki pojęciowej w fizyce. Z jednej strony pojawiają się prace eksperymentalne zaprzeczające teorii cieplika, ale przez ówczesnych fizyków ignorowane lub tłumaczone opacznie, z drugiej zaś strony - ważne prace oparte na teorii cieplika i posuwające w sposób istotny zrozumienie wielu zjawisk. Chcę tu najpierw wspomnieć prace Johna Daltona, ojca współczesnej atomistycznej teorii materii. To właśnie Dalton (fot. 5) pierwszy od czasu luźnych przypuszczeń filozofów greckich i równie mało uzasadnionych hipotez wieku XVII (Boyle'a, Newtona, Gassendiego i in.) wprowadził do nauki ilościową teorię atomistyczną, podał pierwsze wzory budowy cząsteczek chemicznych. Stosunkowo mało jednak jest rozpowszechniona wiedza o wpływie teorii cieplika na teorię Daltona. Tymczasem, jak się wydaje, bez teorii cieplika teoria Daltona mogłaby w ogóle nie powstać. Jednym z zainteresowań Daltona była meteorologia. Wiadomo już było wtedy, że w atmosferze występują różne gazy: tlen, azot, dwutlenek węgla i para wodna. Dalton nie mógł zrozumieć, dlaczego te gazy mające różną gęstość nie rozdzielają się w atmosferze tak, że gęstsze gazy nie są bliżej powierzchni, a lżejsze - wyżej. Prawdę mówiąc, niezrozumiałe też było, dlaczego w ogóle cząstki gazu mogą wypełniać całą objętość naczynia zamiast skupiać się na jego dnie. Jak pisze Dalton, w 1801 r. znalazł wreszcie wyjaśnienie tego zjawiska właśnie na gruncie teorii cieplika (fot. 6). Jeżeli się przyjmie, że każda cząstką gazu jest otoczona atmosferą cieplika - podobnie jak Ziemia atmosferą - i że atmosfera ta jest najgęstsza w pobliżu cząstki I staje się coraz rzadsza w miarę wzrostu odległości, to odpychanie się wzajemne atmosfer cieplika daje właśnie tę siłę przeciwstawiającą się skupianiu wszystkich gazów przy powierzchni Ziemi i pozwalającą gazom wypełniać całe naczynia i pomieszczenia. Według teorii cieplika, każdy rodzaj atomów ma właściwą sobie móc przyciągania ciepła, więc w podobnych okolicznościach atomy będą miały wokół siebie mniej lub więcej ciepła, co tłumaczyło różnice pojemności cieplnych ciał. Jeżeli umieścimy w ośrodku dwa ciała o różnej pojemności cieplnej, to przyjmą one jednakową temperaturę, co teoria cieplika wyjaśniała tym, że poszczególne atmosfery cieplika przybierają jednakową gęstość na swych zewnętrznych powierzchniach, gdzie się z sobą stykają. Dodajmy, że Dalton nie mógł się pogodzić z poglądem Newtona o oddziaływaniu na odległość. Dlatego też model Daltona jest modelem statycznym, w którym cząstki są w spoczynku i ich otoczki cieplika dotykają się [21]. Przejdźmy teraz do omówienia prac dwóch wybitnych uczonych, Benjamina Thompsona, czyli hrabiego Rumforda, oraz Humphry Davy'ego. Pierwszy z nich (fot. 7), fizyk amerykański, jako rojalista był przeciwny oderwaniu się Stanów Zjednoczonych od Anglii i w 1776 r. przeniósł się do Londynu. Następnie długie lata spędził w służbie elektora bawarskiego i tam właśnie dokonał swych ważnych odkryć dotyczących ciepła. Oto co pisze w swym traktacie z 1798 r. [22]: „Gdy ostatnio nadzorowałem wiercenie dział w arsenale wojskowym w Monachium, zwróciło moją uwagę bardzo znaczne podnoszenie się temperatury brązu w bardzo krótkim czasie wiercenia oraz znacznie jeszcze większe ciepło opiłków i wiórów metalowych wyrzucanych przez świder (ciepło większe niż wrzącej wody, co sprawdziłem eksperymentalnie). Im więcej medytowałem nad tymi zjawiskami, tym bardziej wydawały się one dziwne i interesujące. Wydało mi się, że dokładne ich zbadanie może dać lepszy wgląd w ukrytą naturę ciepła i pozwoli na
sformułowanie rozsądnych przypuszczeń na temat istnienia czy nieistnienia fluidu ognia, a więc kwestii, w której zdania filozofów przyrody wszystkich czasów były podzielone. (...) Skąd bierze się ciepło wywiązujące się we wspomnianym mechanicznym wierceniu? Czy jest ono dostarczane przez wióry metalowe, które oddziela świder od masy metalu? Jeśliby tak miało być, to według nowoczesnych doktryn ciepła utajonego i cieplika ciepło właściwe części metalu zamienionych na wióry i opiłki nie tylko powinno się zmienić, lecz zmiana ta byłaby tak znaczna, że winna wyjaśniać całe wytworzone ciepło. Tymczasem stwierdziłem, że żadna taka zmiana nie nastąpiła, gdyż biorąc jednakowe ciężary tych opiłków i cienkich plasterków metalu odciętych od tego samego bloku za pomocą cienkiej piły i wkładając je w tej samej temperaturze (wrzącej wody) do jednakowych ilości wody zimnej (o temperaturze 59,5°F), nie mogłem zauważyć, by woda, do której włożone zostały opiłki, ogrzała się mniej lub więcej niż woda, do której zostały wrzucone plasterki metalu. Powtarzałem ten eksperyment kilkakrotnie i za każdym razem uzyskiwałem tak podobne wyniki, że nie mogłem stwierdzić żadnej zmiany ciepła właściwego metalu przy jego zamianie w opiłki przez świder”. Rumford zauważa następnie, że ponieważ powyższy eksperyment ma duże znaczenie, więc warto podać do wiadomości członków Towarzystwa Królewskiego szczegóły ilościowe.- Opuścimy te szczegóły, przechodząc do dalszych rozważań. „(...) Jest oczywiste, że wywiązujące się ciepło nie mogło być dostarczone przez ubytek ciepła utajonego opiłków metalu. Ale nie chcąc się zadowolić wynikami tych prób, jakkolwiek rozstrzygające były one dla mnie, postanowiłem wykonać jeszcze bardziej przekonywające doświadczenia”. Rumford użył do doświadczeń walca ważącego 113,13 funta obracanego wokół osi końmi. Na dno walca naciskał mocno (z siłą około 10 000 funtów) tępy, zaokrąglony świder. Świder był obracany około 32 razy na minutę. Był to kawałek stali hartowanej 0,63 cala grubości, 4 cale długości, stykał się z dnem walca na powierzchni około 2,5 cala kwadratowego. Do pomiaru wywiązującego się ciepła wywiercono w walcu otwór, w którym można było umieszczać termometr rtęciowy. Przed rozpoczęciem doświadczenia temperatura powietrza w cieniu i samego walca była 60°F. Po półgodzinie, gdy walec obrócił się 960 razy dokoła osi, wstawiono do otworu termometr, w którym rtęć natychmiast podniosła się do 130°F. Po wyjęciu świdra wydobyto opiłki i starannie je zważono. Ważyły 837 granów3, zaledwie 1/948 część masy walca. „Czy jest możliwe [pisze Rumford], żeby cała tak wielka ilość ciepła wywiązana w eksperymencie (podnosząca temperaturę 113 funtów brązu o co najmniej 70°F i zdolna stopić 6,5 funta lodu) mogła być dostarczona przez tak niewielką ilość opiłków metalowych? I to tylko wskutek zmiany ich ciepła właściwego? (...) Nie zaprzeczając jednak możliwości temu przypuszczeniu, musimy tylko przypomnieć sobie wyniki rozstrzygających doświadczeń wykonanych jedynie w celu przekonania się, że ciepło właściwe metalu, z którego odkuwane są duże działa, nie zmienia się w widoczny sposób, gdy metal ten zamienimy w wióry po wierceniu działa; nie ma żadnego powodu przypuszczać, by ciepło to mogło zmienić się bardziej, gdyby używając tępego świdra zamienić meta] w drobniejsze opiłki”.
3
Gran równa się około 64,8 mg.
W następnym eksperymencie (rys. 2) Rumford umieścił swój walec w podłużnej skrzyni drewnianej i napełnił ją wodą, tak że cały świder był zanurzony. W skrzyni zmieściło się około 2 galonów wody (18,77 funta). Temperatura wody przed rozpoczęciem doświadczenia wynosiła 60°F. Obracany świder, jak poprzednio, naciskał mocno na dno walca.
Rysunek 2 Rysunek Rumforda przedstawiający eksperyment
„Wynik tego pięknego doświadczenia [pisze Rumford] był zdumiewający. Uciecha moja wynagrodziła mi sowicie trudy, jakie poniosłem przy wynalezieniu i zbudowaniu tak skomplikowanego mechanizmu. Oto po godzinie temperatura wody podniosła się o całe 47°F, a w następne pół godziny do 142°F. Po dwóch godzinach temperatura wody w skrzyni była równa 178°F, po 2 godzinach 20 minutach już 200°F, a po 2,5 godzinach od rozpoczęcia doświadczenia woda zawrzała. Trudno wysłowić [pisze Rumford] podziw i zachwyt, jakie się malowały na twarzach obecnych, kiedy zobaczyli, że tak wielka masa zimnej wody ogrzała się i zawrzała bez ognia. I jakkolwiek nie było w tym doświadczeniu niczego, co można by uznać za naprawdę dziwne, przyznać muszę, że mnie samego opanowała dziecinna radość. Gdybym pragnął zyskać reputację poważnego filozofa, musiałbym raczej tę radość ukryć niż wyjawiać”. Rumford zmierzył następnie ilość ciepła wywiązanego we wszystkich częściach mechanizmu i doszedł do wniosku, że taką ilość dostarczyłoby spalenie 2300 granów wosku. Wobec tego: „(...) ilość ciepła wywiązującego się w tym eksperymencie w sposób ciągły przy tarciu tępego świdra o dno wydrążonego walca metalowego była większa niż z palenia naraz dziesięciu świec woskowych o średnicy 3/4 cala każda. Jakkolwiek użyłem w tym doświadczeniu dwóch koni do obracania świdra, jeden także by wystarczył. Z rachunku wynika dalej, jak wielką ilość ciepła można wywiązywać siłą jednego konia przy użyciu odpowiedniego mechanizmu, bez ognia, światła, spalania lub rozkładu chemicznego; ciepło to w razie potrzeby można by użyć do warzenia potraw. Trudno jednak wyobrazić sobie warunki, w których ta metoda wytwarzania ciepła mogłaby być korzystna, gdyż ze spalania paszy niezbędnej do wyżywienia jednego konia można by uzyskać więcej ciepła (..”)”. Po opisie kolejnego podobnego eksperymentu Rumford ciągnie dalej:
„Gdy zastanowimy się nad wynikami tych wszystkich doświadczeń, to w sposób naturalny jawi się nam to wielkie pytanie, które tak często było przedmiotem spekulacji filozofów: Co to jest ciepło? Czy istnieje coś takiego jak fluid ogniowy? I czy jest coś, co można by nazwać właściwie cieplikiem? Widzieliśmy, że można wywiązywać bardzo znaczną ilość ciepła przez tarcie dwóch powierzchni metalowych, i to w ten sposób, że rozchodzi się w postaci strumienia we wszystkich kierunkach bez przerwy i bez żadnych oznak zmniejszania się lub wyczerpania. Skąd wzięło się to ciepło?” Pisząc, że jego zdaniem nie mogło być ono dostarczone ani przez opiłki, ani przez powietrze, ani przez wodę Rumford podkreśla, że: „(...) nie należy zapominać najważniejszej okoliczności, że w tych doświadczeniach źródło ciepła powstającego przez tarcie zdaje się oczywiście być niewyczerpane (...) Zbyteczne jest dodawać, że coś, co może być dostarczane bez końca przez jakiekolwiek izolowane ciało lub układ ciał, nie może przecież być substancją materialną. Co do mnie, to jest mi nadzwyczaj trudno, że nie powiem niemożliwe, pojąć, aby coś, co się wytwarzało w tych doświadczeniach, mogło być czymś innym, jak tylko ruchem. Daleki jestem od tego, że wiem, jak, jakim mechanicznym sposobem, wznieca się, podtrzymuje i rozchodzi ten osobliwy rodzaj ruchu, który - jak sądzę - stanowi ciepło. Nie mam zamiaru nużyć Towarzystwa samymi tylko przypuszczeniami, zwłaszcza że chodzi o przedmiot, który przez tyle tysięcy lat próbowali bezskutecznie zrozumieć najbardziej światli filozofowie. Lecz nawet jeżeli w istocie mechanizm ciepła okaże się jedną z tych tajemnic natury, które są poza zasięgiem inteligencji ludzkiej, nie powinno to nas odstraszać ani osłabiać naszego zapału do prób zbadania praw rządzących tymi zjawiskami. Jak daleko możemy się posunąć którąkolwiek z dróg otwartych przez naukę, zanim znajdziemy się otoczeni tą gęstą mgłą, która ogranicza z każdej strony horyzont intelektu ludzkiego? Ale jak obiecujące i interesujące jest to pole, które dane jest nam badać! Na pewno nikt przy zdrowych zmysłach nie pretendował nigdy do zrozumienia mechanizmu grawitacji. A przecież jakich głębokich odkryć dokonał nieśmiertelny Newton badając tylko prawa jej działania. Efekty, które powoduje w świecie ciepło, są przypuszczalnie równie rozległe i równie ważne jak te, które wynikają z dążenia cząstek materii do skupiania się. I nie ma wątpliwości, że działania ciepła są we wszystkich przypadkach określone przez prawa równie niewzruszone”. Eksperymenty Rumforda nie stanowiły jednak zaprzeczenia teorii cieplika. Wykazanie, że ciepło właściwe opiłków jest takie samo jak pozostałego metalu, było konieczne dla odrzucenia cieplika, ale niedostateczne. Trzeba było bowiem wykazać, że jednakowe masy opiłków i metalu zawierają jednakowe ilości ciepła w tej samej temperaturze. Przy jednakowej wartości ciepła właściwego metal mógł bowiem zawierać więcej ciepła utajonego niż opiłki ze względu na zmiany zaszłe przy świdrowaniu. Rumford musiałby np. zmierzyć ilości ciepła potrzebne do stopienia jednakowych mas opiłków i bryły metalu; gdyby okazały się one jednakowe, a ciecze pozostałe ze stopienia były pod każdym względem takie same, to można by stąd wyciągnąć wniosek o jednakowej zawartości ciepła w jednakowej temperaturze. Przytoczmy tu krytykę wniosków Rumforda wypowiedzianą przez zwolennika teorii cieplika Emmeta(„Annals of Philosophy” 16, 137, 1820) [23].
„Na początku tego rozumowania czyni się bardzo nieszczęśliwe założenie, a mianowicie, że jeśli ciepło będąc fluidem sprężystym wywiązuje się przy ściskaniu materii w stanie stałym, to pojemność cieplna tego ciała ma zostać zmniejszona w stosunku do ilości ciepła, która została wydzielona. Niewątpliwie cała ilość ciepła zawartego w ciele stałym zostaje zmniejszona, ale dlaczego ma się zmieniać pojemność cieplna? (...) Bez wątpienia ilość ciepła wywiązanego w tym eksperymencie była wielka, ale to nie wystarcza do zapewnienia wniosków, które wyciągnięto (:..) W tych eksperymentach bardzo duża masa metalu została poddana podwyższonemu ciśnieniu i w masie tej, przez stopniowe ścieranie się brązu, stale coraz to nowe warstwy były wystawiane na naciskanie. Zatem kolejno z każdej warstwy oddzielana była określona ilość ciepła. Jeżeli przyjmiemy, że w metalach występuje cieplik w stanie dużej gęstości, to wymieniona przyczyna zupełnie wystarcza do wytworzenia obserwowanego efektu. Największym błędem okazuje się założenie, że źródło ciepła w ten sposób wytwarzanego jest niewyczerpane, tymczasem ilość ciepła, która może być w ten sposób wytwarzana, jest skończona”. Zatem wydzielanie ciepła nie ustanie, dopóki nie zetrze się cały brąz. I jest to prawda! Ponadto u podstaw teorii cieplika leżało twierdzenie, że cieplik przenikał całą materię i wobec tego mógł być dostarczany przez wszystkie te źródła, które Rumford starał się zaniedbywać, jak powietrze, woda otaczająca aparaturę. Przecież cała aparatura Rumforda była skąpana w atmosferze cieplika. Zacytujmy tu jeszcze jednego zwolennika teorii cieplika („Phil. Mag.”48, 29, 1816) [23]: „Jeżeli ciepło jest fluidem materialnym, to działanie siły na ciało zawierające ciepło będzie dawało efekt podobny do działania siły na ciało zawierające jakiś inny fluid rozprowadzony w jego porach. Fluidem dającym w wielu przypadkach efekty podobne do dawanych przez ciepło jest woda, wydaje się więc ona najodpowiedniejsza do ilustracji wytwarzania ciepła przez tarcie. Postarałem się o kawałek lekkiego i porowatego drewna i trzymałem je zanurzone w wodzie, aż zostało nią nasycone; następnie umocowałem je porządnie ponad naczyniem wypełnionym wodą, przy czym dolny koniec był pod powierzchnią wody. Następnie działałem ze znacznym ciśnieniem na górny koniec, przesuwając po nim tam i z powrotem kawałkiem twardego drewna, i stwierdziłem, że mogę w ten sposób tarciem podnosić poziom wody przez pory. Proces ten łatwo zrozumieć: kawałek twardego drewna wyciska wodę z porów i zamyka je przemieszczając wyciśniętą wodę, wtedy jednak woda z dołu spieszy, by przywrócić równowagę. Działanie tępego świdra w eksperymencie hr. Rumforda zdaje się wywoływać podobny efekt: ciepło jest wyciskane przez świder z porów metalu i na jego miejsce wchodzi ciepło dostarczane z części sąsiednich. Brąz jest dobrym przewodnikiem ciepła, więc szyjka brązowa łącząca walec z armatą mogła ułatwiać przejście ciepła z działa i innych przedmiotów, z którymi ono się stykało”. Być może pewien wpływ na lekceważenie poglądów Rumforda przez współczesnych miało jego dalsze życie i poglądy. Przyjechawszy do Paryża ożenił się z piękną wdową po Lavoisierze (A. Lavoisier został w 1794 r. ścięty na gilotynie z wyroku sądu rewolucyjnego), ale małżeństwo to było nieudane i trwało krótko. Rumford odrzucał pogląd, że zimno - to brak ciepła. Ze swych doświadczeń nad skupianiem zimna przy użyciu zwierciadła parabolicznego wyciągnął Wniosek o istnieniu „.promieni zimna”, dla których odbijania zalecał noszenie w zimie białego ubrania. Poglądy te wywoływały wiele uciech i kpin wśród śmietanki towarzyskiej Paryża.
Humphry Davy (fot. 8), znakomity chemik i fizyk brytyjski, późniejszy prezes Royal Society i wychowawca Faradaya zaczął swe doświadczenia nad ciepłem już jako młodzieniaszek, gdy był praktykantem w aptece. W 1799 r. ogłosił rozprawę O cieple, świetle i połączeniach światła [24], w której pisał: „Materia jest obdarzona siłą przyciągania. Dzięki temu przyciąganiu cząstki ciał dążą do zbliżenia się i istnieją w stanie zwartym. Cząstki wszystkich znanych nam ciał można zbliżać do siebie szczególnymi sposobami, albowiem ciężar właściwy każdego ciała można zwiększać obniżając jego temperaturę. Stąd wynika, jeśli zakładamy, że materia jest nieprzenikliwa, że cząstki ciał nie stykają się z sobą. Zatem na cząstki te musi działać jakaś inna siła, która uniemożliwia ich stykanie się; możemy to nazwać odpychaniem się cząstek. Zjawiska odpychania większość filozofów chemii przypisuje pewnemu nieważkiemu fluidowi, który otrzymał nazwę «ciepła utajonego» lub «cieplika». Rozmaity stan ciał: stały, ciekły i lotny, zależą - według mniemania zwolenników teorii cieplika - od ilości cieplika, który wchodzi w ich skład. Ten fluid wciskając się między cząstki ich ciał, rozdziela je i zapobiega ich bezpośredniemu stykaniu się, co jest według zwolenników cieplika przyczyną siły odpychającej. Inni znów filozofowie przyrody, nie zadowalając się argumentami za istnieniem tego nieważkiego fluidu, a widząc, że ciepło wywiązuje się przez tarcie i uderzenie, uważają, iż jest ono ruchem. Przekonany, że odkrycie rzeczywistej przyczyny siły odpychającej byłoby bardzo ważne dla filozofii przyrody, podjąłem próbę zbadania drogą doświadczeń tej części nauki chemii. I na podstawie tych doświadczeń, które poniżej opiszę, wnioskuję, że ciepło, albo przyczyna odpychania, nie jest materią. Nie rozważając wpływu działania siły odpychającej na ciała ani też starając się udowodnić, że wpływy te wynikają z ruchu, zamierzam wykazać za pomocą doświadczeń, że nie są one wynikiem istnienia szczególnej materii. W dowodzeniach swoich użyję metody, którą matematycy nazywają reductio ad absurdum. Załóżmy na chwilę, że ciepło jest materią i niech nie można zwiększyć temperatury ciała, jeśli nie zmniejszy się jego ciepła właściwego ani nie doda mu ciepła przez zetknięcie z innymi ciałami. Ale temperaturę wszystkich ciał można zwiększyć przez tarcie. Zatem wzrost temperatury musi wynikać z jednej z trzech możliwości: 1) albo przez zmniejszenie ciepła właściwego pocieranych o siebie ciał, wywołane jakąś zmianą powstałą w nich przez tarcie, zmianą wywołującą w nich wzrost temperatury, 2) albo przez przekazanie ciepła jako wyniku rozkładu tlenu w zetknięciu z jednym lub oboma pocieranymi ciałami (tzn. tarcie ma wywoływać zmiany w ciałach podobne do wzrostu temperatury, co pozwala na rozkład tlenu i powinno powodować ich częściowe albo całkowite utlenianie się), 3) lub wreszcie przez cieplik przekazywany pocieranym ciałom przez inne stykające się z nimi ciała (tzn. tarcie wywołuje w ciałach zmiany pozwalające im przyciągać cieplik z ciał otaczających). Przypuśćmy więc, że podnoszenie się temperatury przez tarcie lub uderzenie powstaje wskutek zmniejszenia się ciepła właściwego pocieranych ciał. W takim razie jest oczywiste, że tarcie winno wywoływać w tych ciałach jakieś zmiany, które powodują zmniejszanie się ich ciepła właściwego i wzrost temperatury.
Doświadczenie: Wziąłem dwa prostopadłościany z lodu (ten sam wynik otrzymamy biorąc zamiast lodu wosk, łój, żywicę lub jakąkolwiek inną substancję topliwą w dość niskiej temperaturze; nawet żelazo można stopić przez uderzanie) 6 cali długie, 2 cale szerokie i 2/3 cala grube, w temperaturze 29°F i przywiązałem drutami do dwóch żelaznych sztabek. Za pomocą specjalnego mechanizmu powierzchnie lodu stykały się ze sobą i tarły gwałtownie przez kilka minut. Prawie całkowicie stopiły się, przy czym wodę zebrałem i okazało się, że miała temperaturę 35°F, chociaż stała kilka minut w niższej temperaturze otoczenia. Stopienie nastąpiło tylko na tych powierzchniach, którymi oba kawałki lodu się tarły. Dodać trzeba, że poza lodem nie było tarcia między innymi ciałami. Z tego doświadczenia jest oczywiste, że lód przez tarcie zamienia się w wodę, a więc według zwolenników cieplika jego ciepło właściwe się zmniejsza. Tymczasem dobrze wiadomo, że ciepło właściwe lodu jest dużo mniejsze niż wody i że chcąc zamienić lód w wodę trzeba mu dodać określoną ilość ciepła. Zatem tarcie nie zmniejsza ciepła właściwego ciał. Doświadczenie to wykazuje zarazem, że wzrost temperatury wskutek tarcia nie może powstawać z rozkładu tlenu stykającego się z lodem, ponieważ lód nie ma powinowactwa do tlenu. Jeżeli więc podwyższenie temperatury wskutek tarcia nie pochodzi ze zmniejszenia się ciepła właściwego ani też z utlenienia trących się ciał, to musi pochodzić z dodania im pewnej ilości ciepła odjętego innym ciałom w kontakcie z rozważanymi. Tarcie więc musiałoby wytwarzać w ciałach jakieś zmiany, że mogą to ciepło przyciągać do innych. Doświadczenie: Postarałem się o mechanizm zegarowy urządzony w taki sposób, że można go było wprawiać w ruch w opróżnionym z powietrza naczyniu. Jedno z zewnętrznych kółek mechanizmu dotykało cienkiej płytki metalowej. Gdy wprawiano w ruch mechanizm, wskutek tarcia tego kółka o płytkę powstawała znaczna ilość ciepła, lecz tym razem przyrząd nie był izolowany od ciał mogących mu je udzielić. Wziąłem następnie kawałek lodu, wyżłobiłem w nim rowek wzdłuż górnych brzegów, napełniłem go wodą i postawiłem mechanizm na lodzie nie dotykając nim wody. Tak przygotowany przyrząd wstawiłem do naczynia połączonego z pompą próżniową i wypełnionego kwasem węglowym, gdzie wrzuciłem jeszcze trochę żrącego potażu. Następnie zacząłem wypompowywać powietrze i to, łącznie z pochłanianiem kwasu węglowego przez potaż, wytworzyło, jak sądzę, niemal doskonałą próżnię. Teraz mechanizm puściłem w ruch i wosk4 stykający się z płytką stopił się raptownie, co dowodziło podniesienia się temperatury5. Tarcie zatem skupia cieplik, który według przyjętej hipotezy powinien być wzięty od ciał stykających się z mechanizmem. Ale w tym doświadczeniu jedynym ciałem, z którym się stykał mechanizm, był lód, a że woda w wydrążeniu lodu nie zamarzła, lód nie oddał swego cieplika. Ponadto cieplik nie mógł też pochodzić od innych ciał stykających się z lodem, gdyż aby dostać się do mechanizmu musiałby on przejść przez lód, a to przejście, czyli dodanie cieplika do lodu, byłoby go stopiło.
4
Davy używał wosku, chociaż we wcześniejszej części opisu pisał o lodzie. Temperatura lodu, całego mechanizmu i otaczającego powietrza wynosiła na początku doświadczenia 32°F. Pod koniec temperatura najzimniejszej części przyrządu była blisko 33°F, zaś lodu i powietrza tyle co na początku. Zatem ciepło wytworzone przez tarcie różnych części mechanizmu wystarczyło, by podnieść o 1°F temperaturę blisko pół funta metalu i stopić 18 gramów wosku. 5
Tak więc ciepło wytworzone przez tarcie nie może być zbierane od ciał otaczających. Co więcej, poprzednie doświadczenie wykazało, że wzrost temperatury wskutek tarcia nie mógł wyniknąć ani ze zmniejszenia ciepła właściwego, ani z utlenienia. Jeśli jednak ciepło traktujemy jako materię, to musiało ono powstać w jeden z wymienionych trzech sposobów. A ponieważ doświadczenia powyższe wykazują, że żadna z tych przyczyn nie wywołała ciepła, nie może ono być uważane za materię. Jednym słowem, doświadczenia udowodniły, że cieplik, czyli materia ciepła, nie istnieje. Ciała stałe wskutek długiego i silnego tarcia rozszerzają się (rozszerzanie się przy tarciu zachodzi dla wszystkich niemal ciał; ponieważ wyjątków jest bardzo niewiele, można to uznać za regułę), a jeżeli ich temperatura jest wyższa od temperatury naszego ciała, to działając na nasze zmysły budzą to szczególne uczucie, znane pod nazwą ciepła. Ponieważ ciała rozszerzają się wskutek tarcia, więc ich cząstki muszą się poruszać i oddalać od siebie. Ponadto tarcie i uderzenie muszą koniecznie wzniecać ruch czy drganie cząstek ciał. Możemy zatem wyciągnąć wniosek, że właśnie ten ruch czy drganie jest ciepłem, czyli czynnikiem odpychającym. Ciepło zatem albo tę siłę, która przeszkadza bezpośredniemu stykaniu się cząstek ciał, która jest przyczyną tych szczególnych uczuć, zwanych ciepłem i zimnem, można uważać za osobliwy ruch cząstek ciał, przypuszczalnie drganie starające się je rozłączyć. I dlatego właściwie można by je nazwać „ruchem odpychającym”. Krytyka wniosków Davy'ego z jego doświadczeń była bardzo prosta. Przecież Rumford wykazał, że ciepło może przenosić się przez próżnię, więc nie jest ona taką barierą, jak myślał Davy. Ponadto wykazano, że po zastosowaniu ciśnienia temperatura topnienia lodu spada poniżej 32°F. Tarcie nie może odbywać się bez przyłożenia ciśnienia, tak więc bloki lodu utrzymywały na powierzchni temperaturę 32°F, co było powyżej temperatury topnienia przy zwiększonym ciśnieniu; wobec tego zupełnie zrozumiałe było stopienie lodu bez odwoływania się do jakiejkolwiek teorii o naturze ciepła. W 1935 r. fizyk brytyjski Andrade przeanalizował krytycznie opisy doświadczeń Davy'ego i udowodnił, że wnioski wyciągane z tych doświadczeń były błędne [25]. Otóż - dowodzi Andrade - jeżeli lód jest pokryty cienką warstwą wody, to tarcie jest bardzo niewielkie i praca wykonana przy tarciu kawałków lodu - bardzo mała. Davy twierdził, że już po kilku minutach temperatura podniosła się tak, że niemal cały lód się stopił. Jeżeli długość ruchu przy pocieraniu wynosiła 5 cm, to przy 100 posunięciach na minutę i współczynniku tarcia równym nawet 0,5 trzeba by około 10 minut (a nie kilku), żeby stopić lód, i to gdyby ściskać kawałki tak, by dodatkowe ciśnienie było czterokrotnie większe od atmosferycznego. Cały eksperyment wygląda zupełnie fantastycznie - konkluduje Andrade. Niewątpliwie cały efekt topienia lodu nastąpił wskutek przewodnictwa ciepła. W drugim doświadczeniu chodziło o topienie wosku przymocowanego do płytki metalowej, o którą tarło koło poruszane mechanizmem zegarowym stojącym na kawałku lodu (w którym był rowek wypełniony wodą). Całość była w próżni. Davy dowodził, że jeśli ciepło potrzebne do stopienia wosku przeszło od lodu do mechanizmu zegarowego, to woda musiałaby zamarznąć. Ale Andrade oblicza, że ciepło potrzebne do wytworzenia odpowiedniego przyrostu temperatury mechanizmu zegarowego to tylko 12 kalorii, a więc zamarzłoby zaledwie 0,15 cm3 wody, czego nie można zauważyć gołym okiem w nierównym rowku wyciętym w lodzie. Cały więc eksperyment Davy'ego nie dowodzi absolutnie niczego. Pamiętajmy - pisze dalej Andrade - że Davy był wówczas młodym chłopakiem bez doświadczenia i krytycyzmu. Ale z podręczników należałoby czym prędzej usunąć wzmianki mówiące o doświadczeniach Davy'ego, obalających rzekomo teorię cieplika.
Współcześni nie przejęli się - jak widzieliśmy - buńczucznymi stwierdzeniami Davy'ego, ale powód tego był zupełnie inny. W tym czasie teoria cieplika stała się teorią ilościową, bardzo dobrze tłumaczącą wiele zjawisk. Nie mogła z nią wówczas konkurować naiwna teoria kinetyczna. Bardzo przekonywająco widać to z następującego wyjątku z polskiego podręcznika chemii Ignacego Fonberga z 1827 r. [26]:
Rysunek 3 Zależność przyciągania grawitacyjnego (linia ciągła) i odpychania cieplikowego (linie przerywane) od odległości między atomami w stanie równowagi. Wzrostowi temperatury (T3>T2>T1) odpowiada rozszerzalność cieplna ciała (wg S. G. Browna [23])
„Kończąc naukę o ciepliku, wspomnimy o mniemaniu niektórych fizyków, co przyczynę ciepła i zimna od szczególnego ruchu cząstek ciał wyprowadzają. Mniemanie to niegdyś od Bakona i Rumforda ogłaszane, znalazło dziś w H. Davy gorliwego stronnika. Według niego atomy wszystkich ciał zostają w nieprzerwanym ruchu, z tą różnicą, że ruch ten i iego chyżość nie wszędzie iednostayne. Cząstki albowiem ciał stałych, lubo się chwieią, czyli oscylluią bezprzestannie, ruch ten przecież dosyć iest powolny. Daleko prędsze kołysanie się cząstek panuie w ciałach stałych rozegrzanych do czerwoności. W rozciekach, oprócz ruchu oscyllacyynego przyymuie H. Davy kręcenie się cząstek około własnych osi; a w gazach wirowy ten ruch z kołysaniem połączony ma bydź ieszcze gwałtowniejszy. Nakoniec istoty, eterowemi od niego nazwane, czyli nasze ciała promieniste, maią powstawać z cząstek kręcących się około swey osi w największych odległościach, i poruszających się z niezmierną szybkością w kierunkach liniy prostych. Ruch ten cząstek, sposobem głosu ma się od iednych ciał przenosić do drugich, tak dalece, że prędsze poruszenia iednych, mogą się przelewać do innych;
a następnie ciała nieiednostaynie ogrzane, mogą się tym sposobem układać do równowagi, i do iednostaynego stopnia ogrzania przechodzić. Aże kołysania te nie inaczey, tylko za pośrednictwem innego ciała przelewać się mogą: za środek ten przeto uznaie Davy, powietrze. Doświadczenia atoli uczą, że ciała, równie dobrze daią się ogrzewać w czczości, iak i w naygestszem powietrzu; i dla tego Rumford uprzedzając zarzut, iaki z tego względu wynika, przypuścił w całey naturze rozlany szczególny płyn eterowy, barzo subtelny, który ku temu iedynie miał służyć, żeby ruch cząstek z iednych ciał przenosił do innych. Davy zaś zbywa ten zarzut odpowiedzią, że w naturze nie masz doskonałej czczości. Gdyby iednak odpowiedź ta była słuszna, tedy według mniemania pomienionego chemika, ciała powinnyby się przynaymniey z trudnością w rozrzedzonem ogrzewać powietrzu; czego doświadczenia nie potwierdzaią. Oprócz tego, autor pomienioney opinii nie tłumaczy wcale, co za istotę ciała ogrzanć z siebie wyziewaią; dla czego iey służy własność łamania się w ciałach przezroczystych, a odbiianja od gładkich wypolerowanych. Powtóre, ieżeli w ciałach nie masz cieplika, iako osobney istoty, wręcz przeciw ąttrakcyi działaiącey, i równoważącey się z nią: tedy czemu cząstki tych ciał nie kupią się razem, i w iedną nie zlewaią bryłę. Nakoniec, iak poiąć w tem rozumieniu odmianę stanu skupienia ciał? Prawda, że podług H. Davy, żeby ciało stałe na płyn zamienić, potrzebą tylko, żeby się cząstki iego zaczęły obracać na około swych osi ruchem wirowym; ale co te cząstki do ruchu wprawia? co pobudza je do chyższego obrotu, kiedy płyny do stanu pary przechodzą? Długo potrzebaby rozprawiać, żeby wszystkie zarżuty, o które się rozbiia opinia chemika angielskiego, przywodzić. Powiem tylko, że mimo ruchu cząstek, który w mniemaniu tem zastępuie cieplik, wypada koniecznie stworzyć iakąś istotę, którąby w nas obudzała czucie ciepła; sam albowiem ruch cząstek, nie łatwo ie obiaśnia”. Szczegółowe wyjaśnienie wielu zjawisk w teorii cieplika opierało się na założeniu, że każdy atom materii jest otoczony atmosferą cieplika, której gęstość maleje wykładniczo z odległością od środka atomu, a więc szybciej niż przyciąganie grawitacyjne, malejące jak kwadrat odległości od środka atomu. W pewnej zatem odległości od środka atomu występowała równość sił przyciągania grawitacyjnego i odpychania cieplikowego - punkt ten odpowiadał odległości między atomami w stanie równowagi (rys. 3). Przy wzroście temperatury zwiększała się atmosfera cieplika wokół każdego atomu i punkty równowagi przesuwały się dalej od środków atomów, co odpowiadało rozszerzaniu cieplnemu ciał. Dokładna analiza wykazała, że rozszerzalność cieplna nie może być równomierna ze wzrostem temperatury, co rzeczywiście wykazały doświadczenia Dulonga i Petita. Z tej teorii wynikały też różnice rozszerzalności cieplnej ciał stałych, cieczy i gazów oraz różnice w wartościach ciepła właściwego między nimi. Wiedziano już wówczas, że w dostatecznie niskiej temperaturze wszystkie znane substancje będą w stanie stałym i różnice stanu skupienia (zależnie od temperatury) tłumaczono przez wchłanianie przez ciała różnych ilości cieplika. Ze względu na znikomo mały wpływ przyciągania grawitacyjnego między atomami w gazach teoria cieplika przewidywała, że współczynnik rozszerzalności wszystkich gazów powinien być jednakowy i niezależny od temperatury, co zostało wykazane doświadczalnie. Inne zgodne z doświadczeniem przewidywania teorii cieplika to: wzrost ciepła właściwego ciał stałych z temperaturą, zależność temperatury wrzenia od ciśnienia zewnętrznego, możliwość przenoszenia ciepła przez próżnię (co było ciężkim orzechem do zgryzienia dla innych teorii ciepła, a w teorii wszystko przenikającego fluidu było trywialne), związek między zdolnością odbijania przez powierzchnię i promieniowania przez nią ciepła (ciała o powierzchni wypolerowanej i błyszczącej winny być złymi promiennikami). Jednym z dobrych testów doświadczalnych teorii cieplika było odkształcanie ciał stałych. Pokazywano np., że pręt żelazny, ogrzany do czerwoności przez uderzanie weń młotem, nie mógł być ponownie tak silnie
rozgrzany przez uderzanie, zanim nie poddano go rozgrzaniu w ogniu. Tłumaczenie tego zjawiska w teorii cieplika było proste: fluid ciepła utracony przez ciało podczas uderzeń młotem musiał być odzyskany w ogniu. Przypomnijmy wreszcie, że w ramach teorii cieplika Fourier opracował teorię przewodnictwa ciepła, L.aplace i Poisson wyjaśnili związek między stosunkiem Cp/Cv i prędkością dźwięku, wreszcie Carnot (fot. 9) opracował zasady maszyn cieplnych. Teraz mało kto wie i pamięta o tych sukcesach teorii cieplika i jej pozytywnym wpływie na rozwój nauki. Gdy bowiem w XIX wieku znaleziono dla wymienionych zjawisk wyjaśnienie w ramach teorii kinetycznej ciepła, zmieniła się jedynie terminologia, a fakty odkryte i opisane w języku starych idei pozostały prawdziwe. I tak np. Carnot oparł oryginalnie swą teorię maszyn cieplnych na zasadzie zachowania cieplika, który był niezniszczalny, ale przepływając między ciałami o różnej temperaturze dawał pracę; dziś teorię Carnota wykładamy korzystając z zasady zachowania energii. Mamy tu po prostu przekład znanej cechy nauki, że fakty naukowe pozostają niezależnie od tego co się dzieje z teoriami. Z powyższego opisu wynika niezbicie, że nieprawdziwy jest dość rozpowszechniony w podręcznikach mit, jakoby teoria kinetyczna ciepła została wprowadzona na początku XIX wieku przez Rumforda i Davy'ego, którzy obalili swymi doświadczeniami teorię cieplika. Jakie więc były dalsze losy teorii cieplika, która mniej więcej w 20 lat po doświadczeniach Rumforda i Davy'ego przeżywała okres największego rozkwitu? Dość rozpowszechniony mitem jest to, że większość uczonych akceptowała teorię cieplika aż do połowy XIX wieku, kiedy to została ona zastąpiona, przez teorię kinetyczną i termodynamikę. Okazuje się jednak, że w rzeczywistości między teorią cieplika i i teorią kinetyczną był jeszcze krótki okres panowania teorii falowej ciepła [27]. Otóż po odkryciu promieniowania podczerwonego (William Herschel, 1800 r.), nazywanego wówczas ciepłem promienistym, okazało się, że ma ono własności podobne do światła (odbicie, załamanie, skupianie itp.), wobec czego powstał pogląd, że ciepło i światło są różnymi przejawami tego samego zjawiska (przypomnijmy, że cieplik i świetlik otwierały wówczas listę pierwiastków chemicznych podaną przez Lavoisiera). Tymczasem w pierwszym ćwierćwieczu XIX wieku teoria falowa światła Fresnela-Younga wyparła teorię emisyjną Newtona. Wobec tego zaczęła być popularna teoria falowa ciepła, w której nie zrywano jednak całkowicie ze starą teorią cieplika, gdyż można było utrzymywać, że ciepło polega raczej na drganiach niż na ilości tego fluidu i w ten sposób zachować wiele wyjaśnień starej teorii. Począwszy od 1840 r. trwają badania, które doprowadziły do zasady zachowania energii i znalezienia mechanicznego równoważnika ciepła. Falowa teoria ciepła zostawała więc stopniowo zastępowana przez teorię kinetyczną. Wreszcie, po unifikacji Maxwella, okazało się, że tzw. ciepło promieniste jest częścią widma fal elektromagnetycznych, a więc jego natura fizyczna jest i odmienna od natury ciepła.
I tak oto w skrócie przedstawia się historia badań ciepła, w której, jak widzieliśmy, teoria fałszywa wyparła na pewien czas teorię bardziej zbliżoną do prawdy. Jednak mimo wszystko na tym zakręcie historii teoria cieplika odegrała bardzo pozytywną rolę w rozwoju fizyki. Chciałbym teraz zrelacjonować historię odkrycia dokonanego przez Olausa Roemera. Zajmuje ono tak ważne miejsce w historii fizyki, że wspominają o nim niemal wszystkie podręczniki fizyki, specjalistyczne książki z optyki, teksty z historii fizyki i historii nauki. Ale też niemal wszystkie te pozycje przedstawiają odkrycie Roemera bałamutnie lub fałszywie. Na tym przykładzie będę mógł pokazać wyraźnie niektóre cechy pseudohistorii fizyki. Weźmy jako przykład niedawno wydany świetny podręcznik fizyki, przełożony na wiele języków i bardzo popularny w wielu krajach. Czytamy tam [28]: „Przekonanie, że prędkość światła jest skończona, panowało przez wiele stuleci, zanim jeszcze przypuszczenie to udało Się sprawdzić doświadczalnie. Pierwszym, który stwierdził, że prędkość światły jest skończona, był Roemer w 1676 r. Stwierdził on, że obserwowany ruch Io, najbliższego księżyca Jowisza, nie przebiega ściśle regularnie w czasie. Odstępy czasu między momentami zaćmień Io przez Jowisza zmieniały się okresowo. Różnica ta dla okresu pół roku wynosiła około 20 minut. Jest to prawie dokładnie czas przebiegu światła przez średnicę orbity ziemskiej. Średnia średnica orbity Ziemi w ruchu dokoła Słońca wynosi D=3•1013 cm (2 j.a.); czas przebiegu światła z jednej strony orbity na drugą wynosi zatem
powyższa przybliżona ocena bardzo niewiele odbiega od dokładnej wartości czasu przebiegu, 16,6 min, którą wyznaczono za pomocą nowoczesnych pomiarów fotometrycznych wyżej opisanych zaćmień. W naszym rachunku przyjęliśmy, że prędkość światła wynosi 3•1010 cm/s. Na podstawie obserwacji zaćmień Roemer ocenił, że czas przebiegu światła przez średnicę orbity ziemskiej wynosi 22 min; przyjął on w rachunku niedokładną wartość średnicy orbity ziemskiej, wyznaczoną na podstawie ówczesnych pomiarów. Obliczył on, że C = 214 300 km/s.” Chociaż tekst ten dość poprawnie przedstawia podstawy obserwacyjne odkrycia Roemera, że prędkość światła jest skończona, to jednak zawiera w kilkunastu wierszach wiele błędów historycznych. Fałszywe jest już pierwsze zdanie, nieprawdziwa jest także konkluzja z wartością prędkości światła, którą rzekomo miał obliczyć Roemer. Jak wspomniałem na początku tego rozdziału, różne teksty podają bardzo różne wartości „pomiaru c” przez Roemera, a komentarze, jakimi wartości te opatrywano, świadczą o kompletnym niezrozumieniu przez autorów istoty odkrycia Roemera. Gdy Max von Laue w swej Historii fizyki pisze, że [29]: „... w r. 1676 Olaus Romer (1644-1710) wyciągnął z obserwacji słynny wniosek, że prędkość światła w próżni wynosi 3-1010 cm/sek...”, to pomijając fałszywą wartość - chce zapewne przekonać czytelnika, że Roemer był znakomitym uczonym, ponieważ już 300 lat temu zmierzył wartość c, tak jak my obecnie. Gdy natomiast Jaków Dorfman w swej Historii fizyki pisze, że [30]:
„...na podstawie istniejących wówczas danych o średnicy orbity Ziemi Roemer znalazł dla prędkości światła wartość c=2,12222 • 1010 cm/s...”, to - pomijając również fałszywą wartość - przypisuje Roemerowi dokładność rzędu kilometra na sekundę, którą osiągnięto dopiero w połowie naszego stulecia. Jako ostatni przykład zacytuję zdanie z jednego z obecnych podręczników astronomii [31]: „Na podstawie tych niedokładnych danych (zwłaszcza dotyczących skali Układu Słonecznego) wyznaczył on [Roemer] prędkość światła jako około 210000 km/s. Ta wartość okazała się za niska o około 30 procent, co jest wcale niezłym wynikiem jak na pomiar wykonany 300 lat temu”. Ten wyjątkowo bezrozumny komentarz jest przykładem protekcjonalnego traktowania dawnych uczonych: skoro oni działali w przeszłości, więc musieli być gorsi, ale czasem nie byli dużo gorsi. Trudno zrozumieć, na czym polegało przełomowe znaczenie odkrycia Roemera, jeśli nie uświadomimy sobie, jakie poglądy na temat rozchodzenia się światła panowały w połowie XVII wieku. Wbrew temu, co czytamy w pierwszym zdaniu przytoczonego wyżej wyjątku z podręcznika fizyki, od czasów Arystotelesa panowało niemal powszechne przekonanie, że rozchodzenie się światła jest natychmiastowe. Do nielicznych wyjątków należeli ludzie, którzy twierdzili, że prędkość światła jest skończona, tacy jak Empedokles w starożytności i Alhazen w średniowieczu; na poparcie swego poglądu nie mieli oni - rzecz jasna - żadnych dowodów doświadczalnych, lecz opierali swe przekonanie na tym, że skoro światło polega na ruchu, to do rozchodzenia się wymaga czasu. Przekonanie o nieskończenie wielkiej prędkości światła było zgodne z doświadczeniem życia codziennego. Spośród licznych „dowodów” wymieńmy jeden, podany przez znakomitego mechanika starożytności, Herona z Aleksandrii. Pisał on, że jeśli w pogodną noc zwrócimy ku niebu zamknięte oczy i następnie otworzymy je, to w tym samym momencie, bez żadnego opóźnienia, zobaczymy gwiazdy; zatem światło musi się rozchodzić natychmiastowo. Słynny uczony francuski René Descartes pisał w swym dziele Dioptryka, że [32]: „...światło istniejące w ciałach, które nazywamy świecącymi, to nic innego, jak tylko pewien ruch, czy działanie, bardzo szybkie i gwałtowne, które przechodzi do naszych oczu za pośrednictwem powietrza, lub innych ciał przezroczystych, w taki sam sposób, jak ruch lub opór ciał, które napotyka ślepiec, przechodzą do jego ręki za pośrednictwem jego laski. To uchroni was od początku od uważania za dziwne, że światło może natychmiastowo rozciągać swe promienie od Słońca do nas. Wiecie bowiem, że działanie, którym porusza się jeden koniec laski, musi podobnie przejść natychmiastowo do drugiego jej końca; a więc światło winno się tak rozprzestrzeniać, nawet gdyby odległość od Ziemi do niebios była większa niż jest w istocie...” Descartes mówił też, że jest tak pewien tego, że światło rozchodzi się natychmiastowo, „...że jeśli to okaże się fałszem, to będę gotów przyznać, iż nie wiem absolutnie nic o filozofii naturalnej”. Pierwszym uczonym, który zastanawiał się nad możliwością rozstrzygnięcia doświadczalnego problemu prędkości światła, był Galileusz. Początkowo on również był zdania, że światło rozchodzi się natychmiastowo, o czym pisze wyraźnie w rozdziale 48 swego słynnego dzieła Waga probiercza (Il Saggiatore), wydanego w Rzymie w 1623 r. Potem jednak zmienił zdanie i w swym ostatnim dziele
Discorsi, wydanym w Lejdzie w 1638 r., podał opis doświadczenia, które pozwoliłoby problem prędkości światła rozstrzygnąć. Ponieważ polski przekład tego wielkiego dzieła Galileusza, wydany w 1930 r., jest praktycznie niedostępny, zacytuję tu obszerny wyjątek. Galileusz napisał swe dzieło w postaci dyskusji między trzema uczestnikami, z których jeden, Simplicio - czyli Prostaczek - reprezentuje rozumowanie arystotelesowskie, natomiast pozostali, Sagredo i Salviati, reprezentują nową naukę i w wielu przypadkach przemawiają za Galileusza. W pierwszym dniu dyskusji czytamy. [33]: „Sagredo: Ale jaka jest prędkość światła i za jak wielką mamy ją poczytywać? Czy jest to zjawisko chwilowe, nagłe, czy jak inne ruchem w czasie? Czy nie można by tego zbadać doświadczalnie? Simplicio: Codzienne doświadczenie uczy, że rozchodzenie się światła jest momentalne. Gdy na znacznej odległości strzela artylerja, blask płomienia dochodzi do oka momentalnie, podczas gdy huk dopiero po pewnym czasie. Sagredo: Eh!, panie Simplicio, z tego codziennego doświadczenia wynika tylko, że dźwięk potrzebuje więcej czasu niż światło, aby do nas doszedł, ale nie dowodzi ono, ze światło dochodzi momentalnie, a nie bardzo szybko. I inna podobna obserwacja nie uczy więcej: gdy tylko słońce pojawia się nad poziomem, spostrzegamy jego promienie, ale kto nas zapewni, że te promienie nie były już nad poziomem, przedtem nim doszły do naszych oczu. Salviati: Niedostatecznie przekonywający wynik tej i innych podobnych obserwacji nasuwa na myśl, czy nie możnaby jakim sposobem, bez błędu, wykazać, czy iluminacja, tj. rozchodzenie się światła jest istotnie momentalne, bo już samo szybkie rozchodzenie się głosu pozwala przypuszczać, że prędkość światła może być jeszcze większa. Próba, którą sobie przypominam, była następująca: dwie osoby trzymały każda zapaloną latarkę lub inne światło, które każda mogła ręką zakrywać i odsłaniać, jedna dla oczu drugiej; umieszczone były naprzeciwko siebie w niewielkiej odległości i odsłaniały i zasłaniały światło, jedna dla oczu drugiej tak, że, gdy jedna zobaczyła odsłaniające się światło u drugiej, zaraz odsłaniała swoje; taka korespondencja wzajemna powtarzana była wielokrotnie tak, że wkrótce bez pomyłki, po odsłonięciu jednego światła następowało odsłonięcie drugiego. Wprawiwszy się na małej odległości, oddalają się od siebie eksperymentatorzy, ze swoimi światłami na duże, do trzech mil jeden od drugiego; a przeprowadzając doświadczenie w nocy zwracali baczną uwagę, czy powtarzanie się znaków odbywa się w tem samem tempie u obu, z czego można było wnioskować na pewno o momentalnem rozchodzeniu się światła; gdyby bowiem światło rozchodziło się w czasie, to na trzymilowej odległości, a więc na przestrzeni sześciu mil, tam i z powrotem, winnyby się były wyraźnie uwidocznić opóźnienia. Gdyby zaś chciano obserwować na jeszcze większej odległości, ośmiu lub dziesięciu mil, możnaby użyć teleskopów umieszczając eksperymentatorów, w nocy, ze światłami, w takich miejscach, w których światło, jedno drugiemu gołym okiem niewidzialne, teleskopem może być dostrzeżone. Sagredo: Doświadczenie wydaje mi się nie mniej pewnem, jak dowcipnem, ale powiedzcie mi, jaki z jego wykonania wyciągnęliście wniosek.
Salviati: Co prawda, doświadczenie robiłem tylko w małej odległości, mniejszej od mili, to też nie mogłem się przekonać czy istotnie pojawienie się przeciwległego światła było momentalne; lecz, jeżeli światło nie jest momentalne, to prędkość jego jest znaczna...” Jest dla nas dziś oczywiste, że Galileusz nie mógł z tego doświadczenia wywnioskować, czy prędkość światła jest skończona. Można na podstawie tekstu Galileusza obliczyć dolną granicę tej prędkości. Mila włoska, o której mowa w tekście, wynosiła około 1,5 km; w innym miejscu Galileusz podaje, że potrafi mierzyć czas z dokładnością 1/10 odstępu między uderzeniami pulsu, czyli około 1/10 sekundy. Akceptując tę zapewne przesadzoną dokładność możemy więc obliczyć, że Galileusz znalazł, iż prędkość światła jest większa niż około 30 km/s. Miał więc rację Descartes, kiedy krytykował pomysł Galileusza wskazując, że z obserwacji astronomicznych można otrzymać sporo większą wartość dolnej granicy prędkości światła. Gdyby mianowicie światło biegło z prędkością skończoną tak, że odległość Ziemia-Księżyc przebywałoby w godzinę, to wówczas łatwo by było zauważyć, że podczas zaćmienia Księżyca przez cień Ziemi trzy ciała: Słońce, Ziemia i Księżyc nie leżałyby na jednej prostej. Tymczasem - mówił Descartes - widzi się zaćmiony Księżyc dokładnie po drugiej stronie Ziemi w stosunku do Słońca. Prędkość rozważana przez Descartesa w tym przykładzie wynosiła zaledwie około 200 km/s (była więc sporo większa od granicy Galileusza), ale wydawała się widocznie trudna do wyobrażenia, w odróżnieniu od prędkości nieskończenie wielkiej, którą - jak wspomniałem akceptowano bez zastrzeżeń. Olaus Roemer (fot. 10) był Duńczykiem, uczniem znanego fizyka Erasmusa Bartholinusa z Kopenhagi, odkrywcy podwójnego załamania światła w kryształach. Do Paryża przyjechał w 1672 r. na zaproszenie dyrektora zbudowanego właśnie w Paryżu obserwatorium astronomicznego; dyrektorem był Włoch, Giovanni Domenico Cassini, uczeń Grimaldiego i Ricciolego, który niedługo przedtem przybył do Paryża z Bolonii i był już wsławiony wieloma odkryciami astronomicznymi. Roemer, Cassini oraz Jean Picard obserwowali systematycznie zaćmienia satelitów Jowisza. Nie wiadomo, kiedy dokładnie Roemer wpadł na pomysł, że obserwowane nieregularności w ich występowaniu można wyjaśnić skończoną prędkością światła. W każdym razie we wrześniu 1676 r. przedstawił w Paryskiej Akademii Nauk, której był członkiem, swe przewidywanie, że wyjście Io, pierwszego, satelity Jowisza, z cienia planety w dniu 9 listopada nastąpi 10 minut później, niż to przewidują tablice. Obserwacje w dniu 9 listopada potwierdziły przewidywanie Roemera, który 21 listopada przedstawił na posiedzeniu Akademii Nauk swą pracę, w której tłumaczył wyniki obserwacji zaćmień Io tymi że prędkość światła jest skończona. Praca Roemera ukazała się drukiem 7 grudnia 1676 r. w periodyku „Journal des scavans”. Przytoczmy tu charakterystyczny wstęp do tej pracy: „Filozofowie trudzili się od wielu lat, by rozstrzygnąć przez jakieś doświadczenie, czy działanie światła może przenosić się na odległość natychmiastowo, czy też potrzebuje na to czasu. Pan Roemer z Królewskiej Akademii Nauk wynalazł sposób, oparty na obserwacjach pierwszego satelity Jowisza, którym pokazuje, że dla przebycia odległości około 3000 mil, co jest bardzo bliskie wielkości średnicy Ziemi, światło potrzebuje mniej niż sekundę czasu...” Zwróćmy uwagę, że tekst jest pijany w trzeciej osobie, co było częstym zwyczajem w XVII wieku. Pamiętajmy też, że mila, o której mowa w tekście, to mila francuska (lieu) równa około 4450 m.
W dalszej części pracy Roemer wyjaśnia, jak to skończona prędkość światła powoduje nieregularności w momentach występowania zaćmień Io, obserwowanych z Ziemi, której odległość od Jowisza stale się zmienia. Podaje też, że dla przebycia odległości równej średnicy orbity Ziemi światło potrzebuje 22 minut. Hipoteza Roemera spotkała się z gwałtownym sprzeciwem wielu ówczesnych uczonych. Jej głównym przeciwnikiem był zwierzchnik Roemera Cassini, który (słusznie!) twierdził, że jeśli Roemer ma rację, to takie same nieregularności winno się obserwować w zaćmieniach pozostałych satelitów Jowisza, co nie zachodzi. Ten problem pozostawał nie rozwiązany aż do pracy Laplace'a w 1784 r., który wykazał, że ruch drugiego, trzeciego i czwartego satelity jest silnie perturbowany. Innym przeciwnikiem hipotezy Roemera był Robert Hooke. W swych Wykładach o świetle w 1680 r. pisał on [34]: „Przypuśćmy, że [obserwacje Roemera] udowadniają, że światło rozchodzi się stopniowo, a nie natychmiastowo, ale znajdujemy je tak niezwykle szybkie, że jest to poza wszelką wyobraźnią. Sądzi on bowiem, iż nie ma wątpliwości, że światło przebiega przestrzeń; równą średnicy Ziemi, czyli blisko 8000 mil6, w czasie krótszym od jednej sekundy, co jest czasem tak krótkim, że zaledwie można wyraźnie policzyć jeden, dwa, trzy, cztery. Jeśli tak, to nie znam przyczyn, dla której nie mogłoby się przemieszczać natychmiastowo... ...jest znacznie trudniej wyobrazić sobie ruch tak szybki, ale ze skończoną prędkością, niż ruch natychmiastowy. Albowiem ruch kuli armatniej jest o tyle wolniejszy od ruchu, światła, co ruch ślimaka wolniejszy od ruchu kuli armatniej...” Roemer zdawał sobie doskonałe sprawę z tego oporu intelektualnego, na jaki natrafi doktryna o skończonej prędkości światła. Chyba właśnie dlatego we wstępie swej pracy użył zdania, któredając pewną, powiedzmy średnio wysoką, dolną granicę prędkości światła miało oswoić przeciwników z trudną do wyobrażenia wielkością; przecież, we współczesnych jednostkach, prędkość, światła, o której mówi Roemer we wstępie, jest większa od zaledwie około 13000 km/s. Niektórzy autorzy zdają się wiedzieć, że Roemer nie podał w swej pracy żadnej wartości prędkości światła. Pseudohistoria wymaga podania zrozumiałego uzasadnienia, twierdzą więc oni, że Roemer nie mógł obliczyć prędkości światła, gdyż nie znał wartości średnicy orbity Ziemi; przecież gdyby ją znał, to dzieląc ją przez obliczony przez siebie z obserwacji czas (22 minuty) niechybnie obliczyłby prędkość światła. Otóż Roemer nie mógł nie znać długości średnicy orbity Ziemi, skoro została ona wyznaczona w latach 1672-73 przez jego kolegów z obserwatorium paryskiego, Cassiniego, Picardat i Richera, na podstawie jednoczesnych obserwacji Marsa z Paryża i Cayenne (ówczesna Gujana Francuska). Wartość średnicy orbity Ziemi wyznaczona I tych obserwacji była podawana jako 21 600 średnic Ziemi, a ówcześni uczeni często cytowali ten wynik w zaokrągleniu do 22 000 (Huygens) czy nawet 20 000 (Hooke). Wartość ta jest tylko o 8 procent mniejsza od wartości znanej obecnie (23 455), ale wiemy skądinąd, że tak dobra zgodność była dziełem przypadku; jeszcze kilkadziesiąt lat później otrzymywano z obserwacji i posługiwano się wartościami o 20 do 30 procent różnymi od wartości Cassiniego: jak zobaczymy niżej, Huygens uważał, że najlepszą wartością stosunku średnicy orbity 6
Tu mila angielska (1 mila = 1,609 km).
Ziemi do średnicy Ziemi jest 24 000, podczas gdy Newton w swej Optyce (1704 r.) przyjął na ten stosunek wartość 17 200. Roemer mógł więc podać wartość prędkości światła, a ściślej mówiąc7, porównać tę prędkość z prędkością dźwięku lub podać dokładniej czas przelotu światła przez średnicę Ziemi (byłby to drobny ułamek sekundy). Zdawał sobie jednak sprawę z tego, że jego odkrycie ma przede wszystkim charakter jakościowy, a sama wartość prędkości światła ma znaczenie drugorzędne. Holender Christiaan Huygens, „pierwszy akademik paryski”, był nieobecny w Paryżu, gdy Roemer doniósł o swym odkryciu. Gdy dowiedział się, zresztą z dużym opóźnieniem, o pracy Roemera, natychmiast mu pogratulował dodając, że on sam parę lat wcześniej doszedł do wniosku na podstawie rozważań teoretycznych, że światło ma prędkość skończoną. W 1678 r. Huygens powrócił do Paryża i przedstawił Akademii Nauk swój Traktat o świetle (wydany drukiem dopiero w 1690 r.). W tym dziele opisuje między innymi swe doświadczenia, na podstawie których doszedł do wniosku, że istnieją w przyrodzie prędkości niezmiernie wielkie, ale skończone. Oto wyjątek z opisem doświadczenia, także obecnie często pokazywanego podczas wykładów [35]: „Jeśli wziąć pewną liczbę kul jednakowej wielkości, wykonanych z jakiegoś bardzo twardego materiału i ułożyć te kule w szereg wzdłuż linii prostej, aby się wzajemnie dotykały, to stwierdzimy, że kiedy podobną kulą uderzymy kulę pierwszą z szeregu, to ruch przejdzie jakby momentalnie aż do ostatniej kuli, która się oddzieli od szeregu, chociaż nie widać, aby inne się poruszały; a kula, która uderzyła, pozostaje wraz z innymi w szeregu nieruchoma. Widzi się tu rozchodzenie się ruchu z niezmiernie wielką prędkością, która jest tym większa, im twardsza jest materia kul. Jest jednak pewne, że to postępowanie ruchu nie jest momentalne, lecz stopniowe, wymaga zatem czasu. Albowiem gdyby ruch, lub jeśli kto chce, skłonność do ruchu, nie przechodziły kolejno przez wszystkie kule, to wszystkie one nabywałyby jej jednocześnie i posuwałyby się zatem wszystkie jednocześnie, co nie zachodzi, gdyż właśnie ostatnia kula opuszcza cały szereg i nabiera prędkości takiej, jak kula, która była popchnięta na początku... Stwierdziłem bowiem, uderzając kulą szklaną, lub z agatu, o duży i bardzo gruby kawałek tej samej materii, która miała powierzchnię gładką i trochę przymgloną przez chuchnięcie, lub innym sposobem, że pozostawały na tej powierzchni znaki okrągłe, większe lub mniejsze, zależnie od tego, czy uderzenie było silne czy słabe. Widać z tego, że te materie poddają się przy swym zderzeniu, a potem powracają do swego kształtu, na co przecież muszą zużywać czas”. Na podstawie tego pomysłowego doświadczenia i precyzyjnego rozumowania Huygens zrozumiał, że mogą istnieć prędkości bardzo wielkie, ale skończone. Dlatego też w Traktacie o świetle krytykował argument Descartesa z zaćmieniami Księżyca (patrz wyżej) mówiąc, że jeśli np. prędkość światła jest skończona, ale sto tysięcy razy większa od prędkości dźwięku, to z obserwacji zaćmień Księżyca nie
7
Często nie pamiętamy, że w owym czasie nie znano jeszcze jednostek prędkości; prędkość określano porównując czasy potrzebne na przebycie jednakowej drogi lub drogi przebyte w jednakowym czasie. Dopiero Leonard Euler w połowie XVII wieku wprowadził jednostki prędkości. Właśnie u Eulera możemy znaleźć uroczy fragment, w którym stara się on przekonać czytelnika, że nie jest bezsensowne rozważanie ilorazu drogi przez czas, chociaż są to wielkości heterogeniczne, i nie można powiedzieć ile razy, na przykład, odstęp czasu 10 minut zawiera się w odcinku drogi równym 10 stóp. (Theoria motus corporum solidorum, 1765 r.).
można by wykryć odchyleń od kolinearności Słońca, Ziemi i Księżyca, nie można więc tej kolinearności traktować jako dowodu nieskończenie wielkiej prędkości światła. W Traktacie o świetle Huygens bardzo dokładnie opisuje sposób wnioskowania, który doprowadził Roemera do konkluzji o skończonej prędkości światła. Huygens pisze, że z tych obserwacji [35] „...wyciągnięto wniosek, że dla przebycia całej średnicy rocznej orbity KL, co jest podwojoną odległością od nas do Słońca, światło potrzebuje około 22 minut...
Rysunek 4
...Jeśli się weźmie pod uwagę ogromną rozciągłość średnicy KL, która według mnie wynosi jakieś 24 tysiące średnic Ziemi, to uświadomimy sobie niezmierną prędkość światła. Przypuśćmy bowiem, że KL wynosi tylko 22 tysiące tych średnic, które - zdaje się - są przebywane w 22 minuty, co czyni tysiąc średnic w minutę i 16 i 2/3 średnic w sekundę, albo na jedno uderzenie pulsu, ponieważ średnica Ziemi zawiera 2865 mil, których jest 25 na stopień, przy czym każda mila zawiera 2282 tuazów, według dokładnych pomiarów wykonanych w 1669 i z rozkazu Króla przez pana Picarda8. Natomiast głos, jak przedtem powiedziałem, przebiega tylko 180 tuazów w jednej sekundzie: zatem prędkość światła jest przeszło sześćset tysięcy razy większa od prędkości głosu. Jest to jednak zgoła 8
Mila francuska (lieu) – ok. 4450 m, tuaz (toise) – ok. 1,95 m.
różne od rozchodzenia się natychmiastowego, ponieważ między jednym i drugim jest taka sama różnica, jak między skończonym i nieskończonym. Zatem w ten sposób potwierdza się stopniowość ruchu światła i wynika stąd, jak już mówiłem, że ten ruch odbywa się za pomocą fal kulistych...” Powyższy urywek z Traktatu o świetle Huygensa jest najwcześniejszym znanym rozważaniem prędkości światła w sensie jej dokładniejszego określenia. Ale, jak widzimy, Huygens ogranicza się tylko do porównania prędkości światła z prędkością dźwięku. Podobnie postąpił Newton, który przekonany argumentami Roemera - uwierzył, że prędkość światła jest skończona i w swej Optyce zamieścił zdanie, że jest ona ponad 700 000 razy większa od prędkości dźwięku. Można by przeliczyć oceny Huygensa i Newtona prędkości światła na współczesne jednostki, kilometry na sekundę. I cóż by z tego przyszło? Jak wspomniałem wyżej, średnica orbity Ziemi nie była w tym czasie znana dość dokładnie (chociaż wynik Cassiniego był przypadkowo bardzo zbliżony do prawdy), a i oceny czasu przejścia światła przez tę średnicę znacznie się różniły (Newton na przykład przyjmował 15 minut, zamiast 22 - podanych przez Roemera). Otrzymalibyśmy więc jakieś wartości, znacznie różne od dziś wyznaczonej prędkości światła. Czy powiedziałoby to nam coś o znaczeniu odkrycia Roemera? Nie! Odkrycie Roemera przyniosło przełom intelektualny, ale nie polegał on na znalezieniu dokładnej wartości prędkości światła, lecz na udowodnieniu, że nie jest ona nieskończenie wielka. O tym wszystkim zapomina wielu autorów uprawiających pseudohistorię nauki, patrzących na dawne osiągnięcia z dzisiejszego punktu widzenia. My w dwudziestym wieku kierujemy się innymi kryteriami, gdyż chodzi nam przeważnie o coraz dokładniejsze pomiary ilościowe. Nie możemy jednak pod tym kątem oceniać osiągnięć dawnych badaczy, odkrywających nowe fakty i borykających się z nowymi pojęciami. Zebrałem już kilkadziesiąt cytatów z różnych tekstów o odkryciu Roemera [6]. Jak wspomniałem na początku tego rozdziału, można w tych tekstach znaleźć najróżniejsze wartości prędkości światła obliczone rzekomo przez Roemera. Jest mi o tyle łatwiej krytykować innych, że sam - przyznaję się wpadłem kiedyś w pułapkę pseudohistorii, zresztą nieświadomie. W 1970 r. pisaliśmy z profesorem Januszem Zakrzewskim tekst pierwszego tomu naszego podręcznika Wstęp do fizyki. Mnie właśnie przypadło napisanie rozdziału o prędkości światła. Sięgnąłem po dane liczbowe i historyczne do, zdawałoby się, najlepszego źródła, jakim była monografia o prędkości światła w słynnym wydawnictwie Handbuch der Physik. Nie wiedziałem jeszcze wtedy, że autor tej monografii uprawia pseudohistorię fizyki, i zacytowałem za nim, że Roemer zmierzył prędkość światła jako 214 000 km/s. Teraz jestem już przezorniejszy i staram się zawsze sprawdzać wszystko w oryginalnych tekstach (oczywiście w drugim wydaniu naszego podręcznika ustęp o Roemerze został poprawiony). Sądzę, że pseudohistoria nauki szerzy się właśnie dlatego, że istnieje mnóstwo tekstów zawierających błędy i przeinaczenia. Autorzy nowych opracowań korzystają z tych tekstów zamiast sięgać do źródeł. W ten sposób można zrozumieć pochodzenie przynajmniej części pseudohistorycznych tekstów. Ale trudno znaleźć wyjaśnienie dla mało sensownych komentarzy, jakimi opatrywane są przeszłe wydarzenia (patrz cytowane wyżej wyjątki na temat Roemera). I to jest właśnie ta prawdziwa pseudohistoria nauki, polegająca na dążeniu do takiego przepisywania historii prawdziwej, aby stała się ona logicznym ciągiem wydarzeń prowadzących najkrótszą drogą do postępu.
Nie można zrozumieć wielkości Arystotelesa, jeśli nie staramy się zrozumieć całego systemu pojęciowego owych czasów. Podobnie nie można zrozumieć Kopernika, Galileusza czy Newtona, jeśli na ich dzieła patrzy się z obecnego punktu widzenia. To pewne, że nasza obecna wiedza jest rozleglejsza, a pomiary dokładniejsze, ale nie wynika z tego przecież, że uczeni przeszłości byli gorszymi uczonymi, a ich wysiłki zrozumienia świata były mniej warte od naszych. Pamiętając o tej przestrodze będziemy mogli uniknąć popadnięcia w pułapkę pseudohistorii nauki.
2. Nauka na manowcach W poprzednim rozdziale była mowa o pseudohistorii nauki, o niewłaściwym traktowaniu teorii, które dzisiaj uznajemy za błędne, a które przez długi czas były uznawane za teorie prawdziwe i które wniosły bardzo wiele dobrego w rozwój naszej wiedzy o przyrodzie. W tym rozdziale również będzie mowa o ideach błędnych, ale raczej o błędach jednostek lub małych grup ludzi. Będzie też mowa o interesującym aspekcie badań naukowych, który można by nazwać psychofizjologią czy psychologią odkryć naukowych, a także o stymulującej roli błędów w rozwoju nauki. Errare humanum est - błądzić jest rzeczą ludzką. Chciałbym na wstępie zacytować kilka wypowiedzi na temat błądzenia w nauce, podobnie jak poprzednio opierając się głównie na oryginalnych zdaniach twórców nauki. Wszystkie teksty cytuję za znakomitą książką Beveridge'a [36]. Charles Darwin, twórca teorii ewolucji, pisał: „Usiłowałem ciągle utrzymać umysł w stałej niezależności, tak aby móc odrzucić każdą hipotezę - bez względu na to jak mi była droga - skoro tylko fakty jej zaprzeczą (a przecież nie potrafię oprzeć się chęci formułowania hipotez na każdy temat), Nie przypominam sobie, abym jakiejś po raz pierwszy sformułowanej hipotezy nie musiał odrzucić lub zmodyfikować”. Michael Faraday, odkrywca m.in. indukcji elektromagnetycznej, tak wyrażał się o błędach pracy naukowej: „Świat nie wie, jak wiele myśli i teorii, które przeszły przez głowę badacza, zostało stłumionych w cichości i tajemnicy przez jego własną surową ocenę krytyczną i przez negatywne wyniki badań. W przypadkach najszczęśliwszych ani dziesiąta część pomysłów, nadziei i pragnień nie doszła do ostatecznej realizacji”. Max Planck, twórca teorii kwantów, stwierdził przy okazji przyznania mu Nagrody Nobla: „Gdy patrzę wstecz (...) na zawiłą ścieżkę, która doprowadziła do odkrycia [teorii kwantów], przypomina mi się żywo powiedzenie Goethego, że człowiek zawsze będzie popełniał błędy, jak długo będzie dążył do czegoś”. Albert Einstein, twórca szczególnej i ogólnej teorii względności, mówił tak o opracowaniu tej ostatniej:
„Własne błędy w rozumowaniu były przyczyną dwu lat ciężkiej pracy, zanim w roku 1915 rozpoznałem je jako błędy (...) Ostateczne wyniki wyglądają dość prosto, każdy inteligentny student zrozumie je bez wielkiego trudu. Lecz lata poszukiwań w ciemności prawdy, którą się wyczuwa, a której nie sposób wyrazić, gorące pragnienie, ciągła to wiara, to obawa, aż do chwili osiągnięcia jasności i zrozumienia - wszystko to pojmuje tylko ten, kto sam coś podobnego przeżył”. Humphry Davy, słynny chemik i fizyk, o którym była już mowa wcześniej, tak się wyraził: „Moje błędy podsunęły mi najważniejsze z moich odkryć. Wytrawny badacz ma wielką przewagę nad nowicjuszem w reagowaniu na błędy dostrzegane w swoich koncepcjach. Wyciąga on korzyści ze swych błędów w równej mierze jak ze swych osiągnięć pozytywnych”. Jak pisze Beveridge - najbardziej może pouczające i najlepiej odzwierciedlające prawdę w tej materii jest opowiadanie Hermanna Helmholtza: „W roku 1891 udało mi się rozwiązać kilka zagadnień matematycznych i fizycznych, a wśród nich były i takie, nad którymi daremnie trudzili się najwięksi matematycy od czasów Eulera (...) Lecz wszelka duma, którą mógłbym odczuwać z powodu moich osiągnięć, słabnie wobec faktu, że rozwiązanie tych problemów osiągałem zawsze po wielu błędach, drogą stopniowego uogólniania pomyślnych przykładów i szeregu szczęśliwych skojarzeń. Mógłbym się porównać z wędrowcem w górach, który nie znając ścieżki, pnie się powoli i mozolnie pod górę, często wraca tą samą drogą, gdy nie może iść dalej, potem dzięki namysłowi lub szczęściu odkrywa nową drogę, która prowadzi go trochę dalej, aż w końcu, gdy osiąga szczyt, stwierdza ze wstydem, że istnieje świetny szlak i że mógłby go był użyć, gdyby potrafił znaleźć do niego właściwe dojście. W pracy mojej naturalnie nic nie mówię czytelnikowi o swoich błędach, lecz tylko opisuję drogę, po której każdy może wejść bez trudu na tę samą wysokość”. Tych kilka cytatów świadczy chyba wymownie o tym, jak częste są błędy w nauce i jak mało o tym wiemy, gdy mamy do czynienia z gotowym produktem, rozwiązaniem problemu lub nową teorią. Najpierw chciałbym omówić przykład słynnego błędu fizyków w sporze o ustalenie wieku Ziemi. Historia tego sporu zaczyna się dość dawno temu. Otóż arcybiskup James Ussher (1581-1656, fot. 11) z Armagh ustalił na podstawie swych dokładnych studiów chronologii podanej w Biblii, że świat został stworzony w roku 4004 przed Chrystusem. Od Adama do Potopu miało według tej oceny upłynąć 1656 lat, w tym 969 lat przypadało na życie Matuzalema. Trwały także badania mające na celu ustalenie dokładnego dnia Stworzenia. Mnich angielski Beda w VIII wieku wysunął pogląd, że ze względów rolnictwa stworzenie nastąpiło wiosną. Popierał to w XIII wieku Vincent z Beauvais. Inni, ze względu na wiele wzmianek o wodzie w Genesis, sądzili, że akt stworzenia nastąpił raczej we wrześniu. Dr John Lightfoot (1602-1675), wicekanclerz Uniwersytetu Cambridge, przyjął za pewnik rok 4004 przed Chrystusem ustalony przez Usshera, sam zaś określił dokładną datę i godzinę Stworzenia: otóż nastąpiło ono w niedzielę, 23 października o 9 rano czasu Greenwich. Wprawdzie nie wynikało to z Biblii, ale dokładnie odpowiadało dacie i godzinie rozpoczynania roku akademickiego w Cambridge.
Chronologia świata oparta na dokładnej interpretacji tekstów biblijnych była niemal powszechnie przyjmowana do końca XVIII wieku. Zgadzał się z nią m.in. także Izaak Newton, który prowadził własne studia chronologiczne oparte na Biblii. Pierwszą próbę ustalenia wieku Ziemi metodami naukowymi podjął w połowie XVIII wieku sławny przyrodnik francuski, Georges Leclerc de Buffon (1707-1788). W pierwszym tomie swej Historii naturalnej (1749 r.) podał on hipotezę kosmogoniczną, według której Ziemia i inne planety powstały wskutek zderzenia Słońca z wielką kometą. Strzępy materii słonecznej wyrwane podczas zderzenia miały następnie stygnąć i utworzyły się z nich planety. Buffon przeprowadził serię doświadczeń nad stygnięciem rozgrzanych kul z żelaza i innych substancji, chcąc na tej podstawie obliczyć czas, jaki upłynął od powstania Ziemi do jej stygnięcia do obecnej temperatury. Według Buffona po 34 270 latach od powstania Ziemi ostygła ona do tego stopnia, że „nie parzyła w dotknięciu”, po 74 832 latach ostygła do temperatury obecnej; po upływie 168 123 lat od powstania temperatura Ziemi spadnie do 1/25 temperatury obecnej, co ma oznaczać ostateczny koniec egzystencji na Ziemi istot żywych; życiu pozostało zatem jeszcze 93 291 lat - konkludował Buffon. Chociaż liczby podane przez Buffona wydają się śmiesznie małe z punktu widzenia naszej obecnej wiedzy, to nie należy zapominać, że i tak stanowiły one szokujący skok w stosunku do chronologii opartej na Biblii. Nic też dziwnego, że teoria Buffona została w 1751 r. potępiona przez Sorbonę jako sprzeczna z Pismem Świętym. Przenieśmy się teraz do wieku XIX, by dojść do przykładu, który chcę dyskutować. W pierwszej połowie XIX wieku walczyły w geologii dwa przeciwstawne poglądy: uniformitaryzm i katastrofizm9. Zwolennicy uniformitaryzmu zapoczątkowanego przez Jamesa Huttona (1726-1797) twierdzili, że zjawiska geologiczne dają się wytłumaczyć przy użyciu wyłącznie praw fizycznych oraz procesów, które obserwujemy dziś. W tym poglądzie nie trzeba było uciekać się do kataklizmów w rodzaju biblijnego potopu, których istnienie zakładali zwolennicy katastrofizmu, poglądu, jaki zapoczątkował francuski zoolog Georges Cuvier (1769-1832). Zwolennikiem uniformitaryzmu był m.in. sławny geolog brytyjski Charles Lyell (1797-1875); przyjął go także wielki Charles Darwin (18091882), który na tej podstawie oparł swoją teorię ewolucji gatunków. W drugiej połowie XIX wieku uniformitaryzm był poglądem przeważającym, gdy niespodziewanie atak przypuścili nań fizycy. William Thomson (1824-1907), późniejszy lord Kelvin (fot. 12), ogłosił w 1866 r. pracę pod wiele mówiącym tytułem: The Doctrine of Uniformity in Geology Briefly Refuted, co można przetłumaczyć jako „Krótkie rozprawienie się z uniformitaryzmem w geologii”. Kelvin twierdził, że czas geologiczny jest bardzo krótki, wielokrotnie krótszy od setek milionów lat, o których mówili zwolennicy uniformitaryzmu. Kelvin opierał pogląd na najlepszych ówczesnych przesłankach naukowych. Z jednej strony obliczał tempo przepływu ciepła przez skorupę ziemską i czas jej stygnięcia opierając się na teorii przewodnictwa cieplnego opracowanej niedługo przedtem przez Fouriera, z drugiej zaś opierał się na ocenach czasu trwania Słońca, które wynikały z ówczesnych ocen produkcji energii przez Słońce i jego zasobów energetycznych. Na tej podstawie doszedł do wniosku, że Ziemia może istnieć najwyżej 20 do 40 milionów lat. Tymczasem uniformitaryści mówili o setkach milionów lat twierdząc, że procesy
9
Szersze omówienie tych zagadnień można znaleźć w pracy [37].
geologiczne przebiegają nadzwyczaj powoli. Zgadzał się z tym Darwin, który również zakładał bardzo powolną ewolucję biologiczną. Atak ze strony Kelvina, już wówczas znanego fizyka, bardzo poważnie wpłynął na geologów. Fizyka w XIX wieku była uważana, podobnie zresztą jak dziś, za wspaniałą naukę, posługującą się najnowocześniejszymi metodami eksperymentalnymi i matematycznymi. Również Darwin wziął poważnie pod uwagę argumenty Kelvina i w następnym wydaniu swego dzieła o pochodzeniu gatunków zmienił ustępy odnoszące się do uniformitaryzmu i długiego czasu geologicznego, na czym zresztą jego dzieło straciło. Kelvin dyskutował z geologami „z pozycji siły” i np. na posiedzeniu Towarzystwa Geologicznego w Glasgow w 1866 r. oświadczył: „Wydaje się, że nadszedł czas na wielką reformę w rozważaniach geologicznych. Obecna geologia brytyjska stoi w jawnej sprzeczności z zasadami filozofii naturalnej”. Ówczesna teoria pochodzenia promieniowania słonecznego była jak dziś wiemy, dość prymitywna. Wyobrażano sobie na przykład, że na Słońce mogą spadać meteoryty i ich energia kinetyczna ulega zamianie na ciepło. Według innego poglądu, rozwijanego m.in. przez Kelvina i Helmholtza, źródłem energii Słońca miała być grawitacyjna energia potencjalna zamieniona na ciepło przy kurczeniu się Słońca. Helmholtz wyliczał nawet dokładnie, że Słońcu pozostało jeszcze tylko 17 milionów lat do wygaśnięcia. Wszystkie procesy we Wszechświecie miały być więc procesami krótkotrwałymi, na skalę kilkunastu czy kilkudziesięciu milionów lat. Jak powiedziałem, ten atak ze strony fizyków bardzo poważnie wstrząsnął podstawami uniformitaryzmu i geologowie zaczęli zastanawiać się, czy ich wyobrażenia o procesach geologicznych są słuszne. I chociaż niektórzy z nich, jak np. znany geolog Chamberlin, zwracali uwagę fizyków, że być może ich teorie nie są jeszcze skuteczne, gdyż mało wiedzą np. o właściwościach atomu, fizycy stali twardo na swym stanowisku. Jeszcze w 1899 r., w trzy lata po odkryciu promieniotwórczości, Kelvin podtrzymywał swą ocenę wieku Ziemi. Teraz wiemy, że Kelvin się mylił, gdyż opierał się ściśle na tym, co fizyka XIX wieku miała do zaoferowania. Nie wiedział jednak o istnieniu promieniotwórczości. Właśnie odkrycie promieniotwórczości wykazało, że oceny wieku Ziemi oparte na obliczeniach tempa jej stygnięcia są bezsensowne, gdyż ciepło jest nieustannie wytwarzane we wnętrzu Ziemi wskutek rozpadu pierwiastków promieniotwórczych, które mają bardzo długie okresy rozpadu, rzędu kilku miliardów lat, jak uran czy tor. Z drugiej strony, odkrycie promieniotwórczości rozpoczęło rozwój fizyki jądrowej i astrofizyki, co doprowadziło do ustalenia w latach trzydziestych naszego stulecia, że źródłem energii Słońca i innych gwiazd są przebiegające w ich wnętrzach reakcje termojądrowe, głównie zamiana wodoru na hel. Zresztą już w 1911 r. podano pierwsze oceny wieku Ziemi oparte na stosunku ilości uranu do ołowiu (będącego końcowym produktem łańcucha przemian promieniotwórczych) i już wtedy mowa była o miliardach lat. W tej chwili wiek Ziemi ocenia się na około 4,5 miliarda lat i w tę ocenę wierzymy bardzo mocno, mocniej niż Kelvin w swoją ocenę sprzed stu lat. Błąd Kelvina jest przykładem błędu, który się w fizyce powtarza i może powtarzać w przyszłości. Choć Kelvin był jednym z najwybitniejszych fizyków, jacy w ogóle istnieli, choć wniósł wielki wkład do wielu działów fizyki, głównie do termodynamiki i elektromagnetyzmu, to jednak popełnił potworną pomyłkę. Historia ta niesie z sobą poważne dla wszystkich ostrzeżenie.
Następne przykłady, które omówię, to też przykłady błędów, ale mających zupełnie inny charakter; notabene przyczyny i mechanizmy powstania tych błędów nie są do końca wyjaśnione. Spośród dużej liczby przykładów, jakie można znaleźć w historii różnych dziedzin nauki, wybrałem te, które dotyczą dziejów nowszych fizyki i astronomii, a ponadto są najbardziej spektakularne [38].
Promienie N Historia promieni N jest chyba najsłynniejszym przykładem błędu w fizyce. Opisywana była wielokrotnie przez różnych historyków nauki w artykułach i książkach, budziła i budzi do dziś ogromne zainteresowanie ze względu na skalę zagadnienia [40]. 23 marca 1903 r. René Prosper Blondlot (1849-1930, fot. 13), profesor fizyki w Uniwersytecie Nancy, przedstawił Francuskiej Akademii Nauk swą pracę pt.: O nowym typie światła [39], w której doniósł o odkryciu przez siebie nowego rodzaju niezwykle przenikliwego promieniowania nazwanego promieniowaniem N (od nazwy Nancy). Blondlot był już wówczas bardzo znanym fizykiem, członkiem korespondentem Francuskiej Akademii Nauk (do Akademii należało tylko 14 fizyków, z których 8 było członkami korespondentami, a 6 - członkami rzeczywistymi), toteż jego odkrycie nie tylko nie wzbudziło z początku żadnych wątpliwości, lecz wielki podziw. Właściwości promieni N były jeszcze bardziej niezwykłe niż właściwości odkrytego niedługo przedtem promieniowania Roentgena. Promienie N były wysyłane przez najrozmaitsze źródła: rury do wytwarzania promieni X, koszulki auerowskiej zwykłe palniki gazowe (z wyjątkiem bunsenowskich), przez metale, Słońce itd. Detektorami promieni mogły być płytki pokryte odpowiednio przygotowanym siarczkiem kadmu albo nawet mały płomyk gazowy, który zwiększał jasność pod wpływem promieni N. Promienie N można też było magazynować. Przechodziły one z łatwością przez kilkumilimetrową warstwę platyny i suchą bibułkę papierosową, ale zatrzymywane były przez mokry papier lub parocentymetrową warstwę soli. Niektóre ciała stałe, np. stalowy pilnik, miały właściwość wzmocnienia działania promieni N. Gdy taki pilnik trzymano przy oczach, to w zaciemnionym pokoju można było widzieć słabo oświetlone powierzchnie, np. tarczę zegara (fot. 14). Blondlot ogłosił nawet, że skonstruował specjalny spektrometr z aluminiowymi soczewkami i pryzmatem i otrzymał widmo złożone z linii, co dowodziło, że istnieją promienie N o różnej długości fali i współczynniku załamania. Potem ogłosił także o odkryciu promieni N” które osłabiały jasność świecących źródeł, oraz promieniowania „ciężkiego”, które miało składać się z cząstek wysyłanych przez metale i niektóre ciecze i podlegało grawitacji. Augustin Charpentier, profesor medycyny w Nancy, sławny ze swych doświadczeń nad hipnozą, utrzymywał, że promienie N są emitowane przez nerwy i mięśnie ludzkie, nawet przez zwłoki. Ponadto promienie N miały według Charpentiera wzmacniać nie tylko wzrok, lecz także słuch i powonienie. Jean Becquerel, syn odkrywcy promieniotwórczości, Henri Becquerela, głosił w Paryżu, że udało mu się zatrzymać emisję promieni N z metali przez „znieczulenie” ich chloroformem, eterem lub spirytusem. Wszystkie te nieprawdopodobne rewelacje były z całą powagą traktowane przez Akademię Nauk i w większości ogłaszane w „Comptes Rendus”. Ogłoszono ogółem niemal 300 prac, z tego 26 samego
Blondlota, jeszcze więcej Charpentiera. Kiedy pojawili się pretendenci twierdzący, że wcześniej odkryli emisję promieni N przez żywe organizmy, Akademia Nauk ogłosiła uroczysty werdykt przyznający Charpentierowi pierwszeństwo. Pewien kłopot sprawiało to, że obserwować promienie N i badać ich cudowne właściwości mogli niemal jedynie Francuzi, i to w większości z Nancy. Poza nimi jedynie Anglik i Irlandczyk ogłosili prace na temat badań promieni N, a inny Anglik zaczął produkować i sprzedawać przyrządy do badań tych promieni. Tymczasem zastępy znakomitych fizyków poza Francją bezowocnie usiłowały dostrzec to tajemnicze promieniowanie, toteż mnożyły się w innych krajach sceptyczne komentarze. Sprawa promieni N została rozstrzygnięta w dramatyczny sposób przez amerykańskiego fizyka Roberta Wooda (fot. 15), znakomitego eksperymentatora i specjalistę w dziedzinie optyki. Oto jak sam Wood relacjonował wydarzenia W. Seabrookowi, który napisał jego biografię [41]: „W tym czasie przebywaliśmy w Bretanii i straciłem kontakt ze sztuczkami naukowymi w Nancy, ale we wrześniu (1904 r.) pojechałem do Cambridge na zebranie Brytyjskiego Towarzystwa dla Rozwoju Nauki. Po posiedzeniach niektórzy z nas zaczęli dyskusję na temat tego, co zrobić z promieniami N. Profesor Rubens z Berlina, z którym byłem bardzo związany będąc jeszcze studentem, był najbardziej szczery w swej krytyce. Był szczególnie zmartwiony tym, że Cesarz nakazał mu przyjechać do Potsdamu i zademonstrować promienie. Straciwszy dwa tygodnie na bezowocne próby powtórzenia doświadczeń Francuzów był niezwykle strapiony koniecznością przyznania się Cesarzowi do niepowodzenia10. Zwróciwszy się do mnie, powiedział: Profesorze Wood, a może Pan pojechałby do Nancy i sprawdził ich doświadczenia? Tak, tak - poparli go wszyscy Anglicy - to jest pomysł. Niech Pan tam jedzie! Zaproponowałem, aby pojechał tam sam Rubens, jako najbardziej poszkodowany, ale odpowiedział na to, że Blondlot niezwykle grzecznie odpisał mu na wszystkie listy z prośbą o szczegółowe informacje i nie wyglądałoby to dobrze, gdyby to właśnie on, Rubens, miał go demaskować. Poza tym - dodał - Pan jest Amerykaninem, a wy Amerykanie potraficie zrobić wszystko (...) Tak więc, zamiast spotkać się z rodziną w Paryżu, pojechałem do Nancy i spotkałem się z Blondlotem, zgodnie z jego zaproszeniem, wczesnym wieczorem w jego laboratorium. Ponieważ nie mówił on po angielsku, wybrałem jako środek porozumienia niemiecki, chcąc żeby czuł się swobodnie, gdyby w razie potrzeby chciał się porozumieć poufnie ze swym asystentem. Początkowo pokazał mi arkusz kartonu, na którym świecącą farbą były namalowane jakieś koła. Przygasił oświetlenie gazowe i poprosił, żebym zwrócił uwagę na wzrost natężenia ich -świecenia po skierowaniu na nie promieni N. Odparłem, że niczego nie zauważam. Odpowiedział na to, że moje oczy są niedostatecznie czułe, a więc to nie dowodzi niczego. Zapytałem go, czy mogę wstawiać i usuwać z linii biegu promieni nieprzezroczysty ekran ołowiany, gdy on będzie obserwował fluktuacje na ekranie. Mylił się niemal w stu procentach i mówił, że natężenie się zmienia, kiedy niczego nie ruszałem, i to już czegoś dowodziło, ale trzymałem język za zębami. Potem pokazał mi słabo oświetlony zegar na ścianie i starał się mnie przekonać, że może zobaczyć wskazówki, jeśli trzyma nad oczyma duży płaski pilnik. Spytałem go, czy mogę potrzymać ten pilnik, 10
Ta anegdota o Rubensie i rozkazie cesarza Wilhelma II została prawdopodobnie zmyślona przez Bergeta, profesora Sorbony. Rubens ją dementował. Seabrook bezkrytycznie umieścił ją w biografii Wooda dla ubarwienia historii.
ponieważ zawczasu spostrzegłem na jego biurku dużą drewnianą linijkę, a pamiętałem, że drewno należy do niewielu substancji, które nigdy nie wysyłają promieni N. Zgodził się na to; wtedy namacałem w ciemności linijkę i trzymałem ją w pobliżu jego twarzy. O tak, mógł doskonale widzieć wskazówki zegara. To również czegoś dowodziło. Ale główny, decydujący test miał dopiero nastąpić. W towarzystwie jego asystenta, który już wówczas rzucał mi dość wrogie spojrzenia, przeszliśmy do pokoju, w którym był ustawiony spektrometr z aluminiowym pryzmatem i soczewkami. Zamiast okularu przyrząd ten miał pionową nić, pomalowaną jasną farbą, którą można było przesuwać w obserwowanym obszarze widma promieni N za pomocą obracanego koła z podziałką. Koło to obracało poziomą śrubkę z ruchomą nakrętką, do której była przymocowana nić. Blondlot usiadł przy przyrządzie i zaczął powoli obracać kołem. Nić miała przy przesuwaniu przecinać niewidoczne linie promieni N i wtedy jaśniej świecić. Blondlot odczytywał na podziałce położenia niektórych linii (przyświecał sobie słabą czerwoną lampą fotograficzną). To doświadczenie przekonywało niektórych sceptyków, ponieważ mógł on w ich obecności powtarzać pomiary, otrzymując za każdym razem takie same liczby. Utrzymywał on, że przesunięcie nici o 0,1 mm wystarczało, by zmieniła się jej jasność. Kiedy powiedziałem, że jest to niewiarygodne, gdyż szczelina spektrometru ma szerokość 2 mm, odparł, że jest to jedna z nie wyjaśnionych właściwości promieni N. Poprosiłem go, żeby jeszcze raz powtórzył pomiar i sięgnąwszy w ciemności zdjąłem ze spektrometru pryzmat aluminiowy. Zaczął obracać kołem odczytując znów te same liczby. Zanim znów zapalił światło, odstawiłem pryzmat na miejsce. Blondlot powiedział asystentowi, że ma już zmęczone oczy. Asystent był wyraźnie podejrzliwy i poprosił Błondlota, aby mógł za niego wykonać pomiary. Zanim zgasił światło, zauważyłem, że ustawił pryzmat bardzo dokładnie na jego małej okrągłej metalowej podstawie, tak aby dwa jego wierzchołki były dokładnie na brzegu podstawki. Kiedy zgaszono światło, zrobiłem nich w kierunku pryzmatu specjalnie głośno poruszając nogami, ale nie dotknąłem pryzmatu. Asystent zaczął obracać koło, ale nagle pospiesznie rzekł do Błondlota po francusku: Niczego nie widzę, widma nie ma, myślę, że Amerykanin coś poruszył; potem natychmiast zapalił światło i poszedł, żeby dokładnie obejrzeć pryzmat. Następnie wlepił we mnie oczy, ale nie zdradzałem swych myśli. Na tym pokaz się zakończył i wieczornym pociągiem odjechałem do Paryża. Następnego ranka wysłałem list do »Nature« opisując w nim dokładnie swoje obserwacje i opuszczając jedynie wzmiankę o wprowadzeniu ich w błąd na końcu: określiłem laboratorium po prostu jako takie, w którym została wykonana większość doświadczeń z promieniami N. Francuskie popularno-naukowe pismo »La Revue Scientifique” wydrukowało przekład mojego listu i ogłosiło wśród fizyków francuskich ankietę, prosząc o opinie w sprawie realności promieni N. Pojawiło się około 40 odpowiedzi, z których tylko pół tuzina popierało Błondlota. Najbardziej agresywny był list Le Bela, który mówił: Cóż to za spektakl dla nauki francuskiej, kiedy jeden z jej znakomitych uczonych mierzy położenie linii widmowych, podczas gdy pryzmat znajduje się w kieszeni jego amerykańskiego kolegi. Tylko jeszcze dwa artykuły o promieniach N ukazały się w »Comptes Rendus«, pewnie takie, których autorzy nie zdążyli wycofać z druku, aby uratować swą reputację”.
List Wooda do „Nature” ukazał się 29 września 1904 r. i został zaraz także wydany po niemiecku [42]. Oznaczało to koniec promieni N. W niemałym kłopocie znalazła się Francuska Akademia Nauk, która wcześniej oznajmiła o przyznaniu Blondlotowi za jego odkrycie prestiżowej nagrody Leconte'a w wysokości 50 000 franków. Nagroda została wręczona w końcu 1904 r., a majstersztykiem dyplomacji była mowa przewodniczącego, Henri Poincaré'go, który ogłosił, że Blondlot otrzymuje wyróżnienie za całokształt działalności naukowej. W całej tej nieprawdopodobnej historii niemałą rolę odegrał też szowinizm Francuzów. Zwłaszcza stosunki między nauką francuską i niemiecką były bardzo napięte po wojnie 1870 roku. Gdy uczeni francuscy prowadzili różnorakie badania promieni N, których nie mogli zaobserwować ich zagraniczni koledzy, niektórzy zwolennicy tych promieni podobno tłumaczyli, że tylko rasy łacińskie mają odpowiednią wrażliwość konieczną do spostrzegania tych płomieni; wrażliwość rasy teutońskiej miała być stępiona przez nieustanne nadużywanie piwa, a rasy anglosaskiej - przez częste przebywanie we mgle. Blondlot pracował jeszcze jakiś czas na uniwersytecie w Nancy iw 1910 r. odszedł na emeryturę. Do końca jednak wierzył w realność promieni N. Świadczy o tym jego list do Francuskiej Akademii Nauk z 3 II 1919 r., w którym pisał: „(...) Oświadczam, że nigdy nie miałem najmniejszej wątpliwości co do zjawisk, które nazwałem promieniami N (...) a teraz z całą mocą potwierdzam ich istnienie, poparte niezliczonymi obserwacjami, których nie przestałem czynić”.
Subelektrony Historia subelektronów jest historią wieloletniej walki Felixa Ehrenhafta, profesora fizyki uniwersytetu w Wiedniu z amerykańskim fizykiem Robertem Millikanem i zwolennikami jego odkryć [38]. Historia ta jest związana z jednym z fundamentalnych pytań fizyki, a mianowicie: Czy istnieje elementarna ilość ładunku elektrycznego? Chcę podkreślić, że pytanie to jest nadal aktualne. Chociaż istnieją obecnie dowody eksperymentalne, że wszystkie ładunki elektryczne w przyrodzie są wielokrotnością e, ładunku elektronu, to jednak nie można odrzucać a priori idei istnienia jeszcze mniejszych jednostek elektryczności. Jak wiadomo, jednym z aktualnych modeli w fizyce jest model kwarków, w którym cząstki elementarne silnie oddziałujące (tzw. hadrony, np. proton, neutron, mezony, hiperony) są zbudowane z tworów punktowych, kwarków, obdarzonych ułamkowym ładunkiem elektrycznym, ±l/3e oraz ±2/3e. Dotychczasowe próby znalezienia swobodnych kwarków o takich ładunkach nie przyniosły powodzenia. Być może kwarki mogą istnieć tylko uwięzione wewnątrz cząstek elementarnych, a nigdy na swobodzie. Jednak w historii subelektronów chodziło o coś zupełnie innego, podważona bowiem została sama idea istnienia jakichkolwiek elementarnych cząstek elektryczności. Pionierem badań ładunku elementarnego był Robert Millikan (fot. 16). W swej książce The Electron [43] pisze on: „Na wiosnę i w lecie 1909 r. wyizolowałem pojedyncze krople wody i wyznaczyłem niesione przez nie ładunki elektryczne. W kwietniu 1910 r. przedstawiłem na zjeździe Amerykańskiego Towarzystwa
Fizycznego pełne sprawozdanie z eksperymentu z kropelkami oliwy, w którym ustalone zostały stosunki wielokrotne między ich ładunkami oraz przedstawiona modyfikacja prawa Stokesa”. Wyniki pierwszych eksperymentów Millikana zostały opublikowane w paru czasopismach fizycznych. Metoda Millikana wyznaczania ładunku drobnych kropelek cieczy jest powszechnie znana i mówi się o niej w podręcznikach szkolnych, wobec czego nie omawiam jej szerzej. W maju 1910 r. Ehrenhaft ogłosił wyniki swoich badań ładunku elektrycznego. Metoda, jakiej używał, była w zasadzie identyczna z metodą Millikana, z tą jednak różnicą, że badane były także drobne kuleczki ciał stałych, np. srebra, złota, fosforu. W przeciwieństwie do Millikana Ehrenhaft nie znalazł żadnej prawidłowości w wynikach pomiarów, twierdził, że wartości mierzone ładunków nie są wielokrotnościami pewnej jednostki, znajdował też ładunki mniejsze od ładunku e, wyznaczonego przez Millikana. Wyniki Ehrenhafta przeczyły atomistycznej teorii elektryczności. W 1911 r. Millikan i Fletcher wyjaśnili, że źródłem obserwowanych fluktuacji w wartościach ładunku otrzymywanych przez Ehrenhafta mogą być nie uwzględnione w analizie ruchy Browna, odchylenia od kształtu sferycznego drobnych cząstek stałych (w eksperymentach Millikana badano kropelki cieczy, które przyjmują kształt kulisty wskutek napięcia powierzchniowego) oraz domieszki gazów okludowanych na powierzchni kulek metalowych. To ostanie odgrywało, zdaniem Millikana, dużą rolę. Ehrenhaft wytwarzał kuleczki w łuku elektrycznym między metalowymi elektrodami; podczas wyładowania elektrycznego roztopiony metal tworzył kuleczki szybko zastygające. Wiadomo, że w takim procesie powierzchnia metalu ulega zanieczyszczeniu przez pochłaniane gazy i może podlegać utlenieniu. W rezultacie gęstość kuleczek mogła być mniejsza od przyjmowanej w obliczeniach gęstości czystego metalu. Natomiast odchylenia od kształtu kulistego zastygłych kropelek metalu mogły też wpływać na ostateczny wynik, który otrzymywano korzystając ze znanego wzoru Stokesa dla kształtu kulistego. Jeszcze jednym źródłem zakłóceń mogły być obserwacje drobnych cząsteczek kurzu zamiast cząstek metalu. Trzeba dodać, że cząstki badane przez Ehrenhafta były tak drobne (promienie rzędu 10-4 ÷ 10-5 cm), że odróżnienie pod mikroskopem cząstek kurzu od cząstek metalu nie zawsze mogło być możliwe. Millikan przyznał, że w pierwszej fazie swych doświadczeń też obserwował fluktuacje spowodowane przypuszczalnie przez kurz; znikły one, gdy przedsięwzięto odpowiednie środki ostrożności przeciw przedostawaniu się kurzu do aparatury. Wyjaśnienia Millikana brzmiały przekonywająco i wkrótce badacze europejscy, jak Weiss z Pragi oraz Przibram -z samego laboratorium uniwersytetu w Wiedniu znaleźli po dokładnej analizie swych eksperymentów wyniki analogiczne do wyniku Millikana. Millikan ze współpracownikami opublikował też nowe dokładniejsze wyniki dotyczące wartości ładunku elementarnego uzyskane z następnych doświadczeń. Wówczas niemal cały świat naukowy przyjął ideę istnienia ładunku elementarnego i odrzucił ideę subelektronów. Jednakże Ehrenhaft pozostał nie przekonany i wkrótce pojawiła się seria prac jego samego oraz jego uczniów, Konstantinovsky'ego i Zernera, w których przytaczano nowe dowody na istnienie subelektronów, o ładunkach dziesiątki razy mniejszych od ładunku e. Millikan wyjaśnił znowu źródła błędów w doświadczeniach Ehrenhafta i we wspomnianej książce The Electron w 1917 r. napisał:
„(...) z całą pewnością można stwierdzić, że w doświadczeniu Ehrenhafta nie ma ani śladu dowodu na istnienie ładunków mniejszych od elektronu”. W 1923 r. Robertowi Millikanowi przyznano Nagrodę Nobla z fizyki za „prace nad elementarnym ładunkiem elektrycznym”. Było to więc oficjalne przypieczętowanie zwycięstwa jego idei, która do dziś jest uznawana w fizyce. Ale Ehrenhaft zaślepiony swą ideą nie reagował na żadne argumenty i słowa krytyki. W 1925 r. w jednym z najpoważniejszych czasopism fizycznych „The Physical Review” ukazał się artykuł T. Sexla popierający ideę subelektronów [44]. Artykuł ten został opatrzony bezprecedensowym komentarzem od redakcji, który warto przytoczyć w całości: „W odstępstwie od ogólnej polityki wydawniczej »The Physical Review« publikujemy tę pracę mimo tego, że uważamy ją za błędną; czynimy to ze względu na wagę zagadnienia, a także ponieważ została nam nadesłana przez profesora F. Ehrenhafta. Obok zamieszczamy odpowiedź J.B. Derieux i artykuł dyskusyjny R.A. Millikana”. W artykule Sex,la były powtórzone ponownie argumenty Ehrenhafta, które świat naukowy dawno już uznał za błędne. Jak widzimy jednak, redaktorzy czasopisma traktowali Ehrenhafta z szacunkiem, dopuszczając do głosu jego ucznia. W tym czasie Millikan był już wyraźnie znużony bezowocną dyskusją. Jego replika [45] zaczyna się od słów: „Przez ostatnie osiem lat nie brałem udziału w dyskusji na temat dowodów podzielności elektronu, ponieważ wydawało mi się, że publikowane dane mówią same za siebie każdemu, kto starałby się je krytycznie przeanalizować (...) Wierzę, że każdy eksperymentator spoza Wiednia, który powtórzył moje badania, nie tylko sprawdził moje wyniki doświadczalne, lecz także potwierdził moje wnioski na temat wszystkich istotnych punktów w dyskusji. Nawet jeden z fizyków w samym laboratorium profesora Ehrenhafta, Schmid, stwierdził, tak jak my wszyscy, że pomiary ruchów Browna drobnych cząstek zawieszonych w powietrzu nie dają za niskich wartości Ne; zaś inny fizyk Mattuck11, stosując moją metodę kropelek oliwy bez istotnych modyfikacji, stwierdził w granicach swych dość dużych błędów doświadczalnych, że poprawne są moje wyniki dotyczące prawa spadku cząstek sferycznych oraz jednakowego występowania na wszystkich cząstkach, dużych i małych, ładunku około 4,7-10-10 jednostek elektrostatycznych”. Następnie po szczegółowym powtórzeniu wszystkich błędów Ehrenhafta, Millikan zakończył artykuł ironicznymi słowami: „Sądzę, że nie jest chyba przesadą utrzymywać, że skoro elektrony występują w Pasadenie i Chicago, to muszą także występować w Wiedniu”. Chociaż był to faktyczny koniec idei subelektronów, Ehrenhaft przez wiele lat jeszcze z furią atakował każdego, kto ośmielił się wierzyć za Miliikanem w istnienie elektronów. W jednej z prac zwymyślał ostro nieszczęsnego Mattaucha. Jeszcze w 1947 r. ogłosił w „The Physical Review” krótką notatkę o subelektronach. Jego prac na ten temat nikt już jednak nie brał poważnie.
11
f Błąd ortograficzny. Nazwisko tego fizyka brzmiało Mattauch, on również był asystentem Ehrenhafta w Wiedniu
Przypadek Ehrenhafta był zupełnie wyjątkowy ze względu na jego nieustępliwość i długotrwałość zaślepienia.
Efekt Barnesa-Davisa W 1929 r. dwaj fizycy amerykańscy, profesor Bergen Davis i A.H. Barnes z Uniwersytetu Columbia opublikowali w „The Physical Review” wyniki swoich badań nad wychwytem elektronów przez szybko lecące cząstki alfa [46]. Schemat używanej aparatury przedstawiony jest na rysunku 5. Źródłem cząstek alfa była próbka promieniotwórczego polonu. Strumień cząstek alfa ze źródła S przechodził przez mały otwór w katodzie f i siatce g i dostawał się w obszar poła magnetycznego w m. Pole to odchylało bieg cząstek alfa, które trafiały w punkcie b w ekran pokryty siarczkiem cynku, dając błyski światła (scyntylacje) widoczne przy użyciu mikroskopu. Liczba zliczeń scyntylacji była miarą liczby cząstek alfa docierających do b. Katoda f była źródłem elektronów, które następnie mogły być przyspieszane polem elektrycznym przez przyłożenie napięcia Vn między f i siatkę g. Elektrony i cząstki alfa poruszały się zatem równolegle do siebie. Można się było spodziewać, że jeżeli prędkość elektronu (regulowana napięciem Vn) będzie zbliżona do prędkości cząstki alfa, to nastąpi wychwyt elektronu na orbitę Bohra, wobec czego zmniejszy się efektywny ładunek niesiony przez cząstkę i nie będzie ona odchylana przez pole m do punktu b, lecz na przykład (gdyby zostały wychwycone dwa elektrony i ładunek zmieniłby się z +2e do 0) uderzy w ekran w punkcie a.
Rysunek 5 Schemat aparatury używanej przez Barnesa i
W eksperymentach Barnesa i Davisa zliczano scyntylacje w punkcie b bez wiązki elektronów i z jej obecnością, przy różnych wartościach napięcia Vn. Zmniejszenie liczby obserwowanych scyntylacji w b było miarą prawdopodobieństwa wychwytu elektronu. Ogłoszone wyniki tych obserwacji były zdumiewające. Davis i Barnes obserwowali wiele bardzo ostrych maksimów prawdopodobieństwa wychwytu elektronów w funkcji przykładanego napięcia Vn. Serie tych maksimów odpowiadały dokładnie przewidywaniom opartym na prostym modelu Bohra dla zjonizowanego atomu helu. Jak wiadomo - mówi się o tym nawet na szkolnym kursie fizyki w tym modelu planetarnym atomu można łatwo obliczyć prędkości i energie elektronów na orbitach odpowiadających kolejnym wartościom głównej liczby kwantowej n.
Davis i Barnes utrzymywali, że obserwują wychwyty elektronów na dziesięć kolejnych orbit bohrowskich. Zdumiewającym wynikiem było jednak to, że ostre maksima obserwowano, dokładnie przy tych wartościach Vn, które, odpowiadały obliczonym wartościom energii elektronów na kolejnych orbitach. Natomiast nie było widać żadnego wpływu prędkości elektronów uzyskiwanej dodatkowo wskutek przyciągającego oddziaływania elektrycznego między nimi i cząstkami alfa. Inaczej mówiąc, obserwowano pogwałcenie zasady zachowania energii, gdyż energia, która musiała być uzyskiwana dodatkowo przez elektron wskutek przyciągania ich przez cząstki alfa, najwidoczniej gdzieś ginęła; nie było widać także żadnego śladu jej wypromieniowania w postaci fotonów. Wielu teoretyków (m.in. Sommerfeld) biedziło się nad wyjaśnieniem tego zjawiska. Zagadkę rozwiązał dopiero znany fizykochemik amerykański Irving Langmuir (laureat Nagrody Nobla z chemii w 1932 r., fot. 17). Opowiadał on [47], że gdy po raz pierwszy usłyszał o tych zdumiewających wynikach od Davisa na jego wykładzie, zwrócił uwagę na szereg dziwnych faktów. Pierwszy to ten, że Davis i Barnes podawali, iż ich maksima są niezmiernie ostre i wąskie, tak że efekt obserwuje się przy nastawieniu napięcia Vn z dokładnością do setnej części wolta lub nawet jeszcze większą. Inaczej mówiąc, zmiana napięcia o 0,01 wolta powodowała, że efekt znikał. Tymczasem można się było spodziewać większego rozrzutu prędkości elektronów, chociażby ze względu na niejednorodność przyspieszającego je pola elektrycznego. Ponadto Barnes i Davis twierdzili, że efekt nie zależy od wielkości prądu, tzn. od liczby elektronów, i może być obserwowany nawet, gdy katoda jest w temperaturze pokojowej i praktycznie w ogóle nie wysyła elektronów. Langmuir postanowił pojechać do laboratorium Barnesa i na własne oczy zobaczyć te zadziwiające efekty. Udał się tam w towarzystwie współpracowników i Barnes z Davisem z dumą zaczęli mu pokazywać aparaturę. Ponieważ scyntylacje wywoływane przez cząstki alfa na światłoczułym ekranie były słabe, wymagana była zawsze długotrwała (ok. pół godziny) adaptacją oczu obserwatorów w zupełnej ciemności. Kiedy już oczy obserwatorów były zaadaptowane, rozpoczęły się zliczenia scyntylacji. Okazało się, że Langmuir nie potrafi zobaczyć efektu, który widział Barnes. Zliczenia odbywały się w ten sposób, że jeden z asystentów (Hull) zmieniał napięcie Vn przy użyciu potencjometru, podczas gdy Barnes zliczał scyntylacje siedząc przy aparaturze przy innym stole. Oddajmy głos Langmuirowi: „A więc wysuwaliśmy szereg sugestii. Jedną z nich było wyłączenie w ogóle napięcia. Wtedy Barnes otrzymywał niskie wartości zliczeń, około 20 do 30, chociaż czasem dochodził do 50. Potem, aby dojść do maksimum, ustawił napięcie na 200 woltów i tak dalej. Niektóre z tych nastawień były bardzo interesujące, np. 325,01. To ja zaproponowałem takie nastawienie, a on podał tylko 52 zliczenia, chociaż poprzednio, gdy był na maksimum, otrzymał około 230. Nie bardzo mu się to spodobało, więc starał się zmienić napięcie o 0,01 wolta, ustawiając na 325,02. Wtedy otrzymał 48 zliczeń. Wówczas nastawił napięcie pośrodku (tj. na 325,015 V) i otrzymał 107 zliczeń; było to więc maksimum. Potem szepnąłem do Hulla, który nastawiał napięcie utrzymując je na stałej wartości, i zaproponowałem, żeby zmienił je o dziesiątą część wolta. Barnes nie wiedział o tym i dostał 96 zliczeń. Kiedy zasugerowałem to Hullowi, natychmiast wykazał wielkie zdziwienie. Odrzekł: To jest za duża zmiana, odejdziemy od maksimum (...) I wtedy spłatałem mu brzydki kawał. Napisałem na kartce papieru 10 różnych sekwencji V i zer, to znaczy chciałem, żeby przykładać określone napięcie, a potem je wyłączać. Zorientowałem się jednak,
że nie było to właściwe, gdyż kiedy Hull wyłączał napięcie, to siedział na swoim krześle nic nie robiąc, bo nic nie było do regulowania. Oczywiście Barnes widział to, chociaż światło w pokoju było bardzo przyciemnione, więc mógł wiedzieć, czy napięcie było przyłożone czy nie, no i otrzymywał odpowiedni wynik. Szepnąłem więc później do Hulla: nie pokazuj mu, że niczego nie odczytujesz. Poprosiłem o zmianę napięcia z 325 na 320, żeby miał co nastawiać i powiedziałem: nastawiaj je tak dokładnie, jak gdyby to było maksimum. Od tego czasu grał tak, jak chciałem i odtąd odczyty Barnesa nie miały nic wspólnego z przykładanym napięciem, to znaczy nie było żadnej różnicy, czy napięcie miało jedną czy drugą wartość. Podał dwanaście odczytów, z których mniej więcej połowa była dobra, a połowa zła, czego można było właśnie oczekiwać z listy proponowanych napięć. Powiedziałem wtedy: to już koniec. Ty niczego nie mierzysz i w ogóle nie mierzyłeś żadnego efektu (...)”. Barnes próbował tłumaczyć niepowodzenie tym, że aparatura próżniowa była nieszczelna. Davis zupełnie oniemiał i nie mógł uwierzyć w całą historię. Langmuir przekonywał go, że zliczali tylko halucynacje, które często zdarzają się, gdy obserwatorzy muszą długo wpatrywać się w słabe scyntylacje. Tymczasem Barnes pracował w ciemnościach po 6 godzin dziennie. Langmuir opisał całą tę historię w długim liście, który przekazał Davisowi, a także wielu fizykom zainteresowanym w zjawisku Barnesa-Davisa, w tym Bohrowi i Sommerfeldowi. Sami zaś „odkrywcy” efektu podjęli próbę sprawdzenia swych wyników metodami obiektywnymi, przy użyciu liczników. W 1931 r. ogłosili w „The Physical Review” krótki Ust, w którym odwołali wcześniej opublikowane wyniki [48]. Napisali tam między innymi: „Wyniki ogłoszone we wcześniejszej pracy opierały się na wizualnych zliczeniach scyntylacji. Scyntylacje wytwarzane przez cząstki alfa na ekranie z siarczku cynku są na progu widzialności. Jest możliwe, że na szereg odczytów miały wpływ sugestia z zewnątrz lub autosugestia obserwatora (...) Wobec tego zbadaliśmy to zagadnienie przy użyciu liczników Geigera (...) Wyniki uzyskane na podstawie obserwacji wizualnych nie zostały potwierdzone (...)”.
Efekt Allisona W 1927 r. Fred Allison (fot. 18), profesor na Politechnice w Alabamie (Alabama Institute of Technology) rozpoczął badania opóźnienia w tzw. zjawisku Faradaya. Zjawisko to polega na skręcaniu płaszczyzny polaryzacji światła przez podłużne pole magnetyczne (tzn. pole, którego linie są równoległe do kierunku rozchodzenia się światła). Zjawisko Faradaya badano najczęściej w cieczach, a wspomniane opóźnienie to odstęp czasu między, przyłożeniem pola magnetycznego i efektem, tj. skręceniem płaszczyzny polaryzacji. Wiadomo, że to opóźnienie jest bardzo niewielkie, rzędu nanosekund (10-9 sekundy). Allison postanowił zbadać, czy zależy ono od rodzaju substancji. Szkic aparatury pokazany jest na rysunku 6. Główne elementy aparatury to: kondensator C, służący do wytwarzania zmiennego pola magnetycznego w cewkach B1 i B2 nawiniętych na cylindryczne naczynia z badaną cieczą, nikole (tj. polaryzatory) N1 i N2, źródło światła A (była nim przerwa iskrowa, przez którą wyładowywał się kondensator C) oraz przewody doprowadzające prąd PT1R1R2T1P i PT2S1S2T2P, z suwakami T1 i T2, których przesuwanie pozwalało zmieniać długość doprowadzeń.
Przypomnijmy, że światło, ogólnie fala elektromagnetyczna, przebiega 1 metr w 3,3 nanosekundy (w próżni).
Rysunek 6 . Schemat aparatury Allisona
Przebieg pomiarów był następujący. Jednakowe cewki B1 i B2 wytwarzały przeciwnie skierowane pola magnetyczne, tak że w sytuacji zupełnie symetrycznej (jednakowe ciecze w obu naczyniach) efekt skręcenia płaszczyzny polaryzacji światła znosi się, jeśli pole w B2 będzie przyłożone później niż w B1 o tyle, ile czasu zużywa światło na przebycie drogi między obu cewkami. W tym wypadku obserwator E nie zobaczy nic, gdyż światło z A nie jest przepuszczane przez skrzyżowane polaryzatory N1 i N2 (gdyby była tylko jedna cewka, to wskutek skręcenia płaszczyzny polaryzacji światła przez pole magnetyczne światło z A mogłoby przejść przez skrzyżowane nikole i mógłby je widzieć obserwator). Aparaturę skalowano wypełniając oba naczynia cieczą wzorcową (dwusiarczkiem węgla) i następnie regulując długość doprowadzeń suwakami T1 i T2 lub zmianą położenia B2 względem B1, doprowadzano do całkowitego wygaszenia światła dla obserwatora E. W tym wzorcowym położeniu pola w B1 i B2 dawały efekty dokładnie kompensujące się. Następnie naczynie B2 wypełniano inną cieczą, przy czym okazywało się, że dla wygaszenia światła należało teraz przesunąć B2 względem B1 lub zmienić długość doprowadzenia PT2SS2T2P suwakiem T2. Z długości przesunięcia wnioskowano o względnej różnicy opóźnienia efektu Faradaya w obu cieczach. Allison ogłosił wkrótce zdumiewające wyniki. Okazało się, że każdy związek chemiczny daje minimum światła w charakterystycznym położeniu (tj. odpowiadające charakterystycznej wielkości opóźnienia), przy czym efekt praktycznie nie zależał od stężenia substancji aż do stężeń rzędu dziesięciomiliardowej części. Ponadto, kiedy mierzono dwie ciecze, to okazywało się, że każda z nich zachowuje charakterystyczne dla siebie opóźnienie, na które zupełnie nie miała wpływu druga ciecz. Kiedy mierzono opóźnienia np. dla alkoholu etylowego, kwasu octowego i octanu etylu, okazywało się, że są dwa opóźnienia dla octanu etylu odpowiadające alkoholowi i kwasowi. Tak więc opóźnienia dla kwasu i alkoholu były nie zmienione w związku chemicznym. Allison wnioskował stąd, że „(...) metoda ta może znaleźć zastosowanie w celu wykrywania obecności pewnych składników w niektórych cieczach”.
Najbardziej fascynujące było jednak stwierdzenie, że „(...)liczba minimów światła, tj. względnych opóźnień, charakterystyczna dla każdego związku chemicznego jest taka sama, jak liczba znanych izotopów metalu. Nie zależy to przy tym od tego, czy metal jest w postaci chlorku, siarczanu, azotanu czy wodorotlenku, jak to się okazało po zbadaniu sporej ich liczby (...) Metoda ta zatem zdaje się dawać nową możliwość wyznaczania liczby izotopów pierwiastków metalicznych (...)”. Wyniki Allisona były przyjęte przez wielu badaczy z niedowierzaniem. Już w 1929 r. Gaviola wypowiedział się, że metoda obserwacji Allisona nie jest obiektywna i nie może służyć do wyznaczania opóźnień efektu Faradaya. Wszystkie bowiem pomiary wykonywano przy obserwacji wizualnej bardzo słabego światła, kiedy to możliwość błędów jest bardzo duża. Ale Allison ze współpracownikami i jego zwolennicy rozpoczęli lawinę fascynujących odkryć. Doniesiono o odkryciu tą metodą wielu nowych pierwiastków i izotopów. Tak np.. znaleziono 16 izotopów ołowiu, 14 izotopów bizmutu i podobnie wiele dla innych metali. Doniesiono też o odkryciu oczekiwanych od dawna brakujących pierwiastków w układzie okresowym o liczbach porządkowych 85 i 87 i nadano im nazwy Alabamina i Virginium. Odkrycia te uznano za najważniejsze osiągnięcia roku. Pojawiło się też doniesienie o odkryciu metodą Allisona trytu, najcięższego izotopu wodoru o liczbie masowej 3. Niestety wszystkie te odkrycia okazały się nieprawdziwe [38]. Okazało się, że sceptycy mieli rację. Już pierwsze próby zastosowania w 1935 r. obiektywnej metody obserwacji, a mianowicie fotografii, nie potwierdziły wyników uzyskiwanych przy wizualnej obserwacji. Przez następne dwa lata trwały ożywione dyskusje, gdyż Allison i jego zwolennicy nie ustępowali, a z drugiej strony mnożyły się negatywne wyniki. Wreszcie, gdy w 1937 r. wykazano przy użyciu obiektywnej metody fotoelektrycznej, że efekt Allisona nie istnieje, poważne czasopisma fizyczne przestały przyjmować do druku prace donoszące o nowych odkryciach tą metodą. Allison podobno pozostawał jeszcze przez długie lata nie przekonany, gdyż nie mógł uwierzyć w to, że stał się ofiarą autosugestii czy halucynacji. Powód, jak się zdaje, nie został nigdy do końca wyjaśniony, gdyż rozczarowani badacze przestali się tym zajmować. Przejdźmy teraz do astronomii. Historia, którą się zajmiemy, rozpalała wyobraźnię i namiętności milionów ludzi przez niemal sto lat.
Kanały na Marsie W 1877 r. Giovanni Schiaparelli (fot. 19), dyrektor obserwatorium astronomicznego w Mediolanie, odkrył na powierzchni Marsa cienkie prostoliniowe formacje, które nazwał po włosku „canali”, co może oznaczać zarówno naturalne cieśniny, jak sztucznie wykonane kanały [49]. Rysunki powierzchni Marsa wykonywane przez Schiaparallego zawierały bogactwo szczegółów nie zauważonych przedtem przez innych obserwatorów. Ogółem dostrzegł on na Marsie 113 kanałów, które krzyżując się z sobą obejmowały niby pajęczą siatką wszystkie tzw. „lądy” Marsa, czyli jaśniejsze obszary na jego powierzchni (obszary ciemne nazywają się „morzami”). W miejscach przecinania się kanałów znajdowały się zwykłe większe ciemne plamy nazwane „jeziorami”. Kanały zaczynały się i kończyły
w morzach lub jeziorach, nigdy natomiast nie zaobserwowano, aby jakiś kanał urywał się pośrodku lądu. Do obserwacji kanałów trzeba było wyjątkowo dobrych warunków astronomicznych. Zwykle Schiaparelli widział na tarczy Marsa tylko morza, lądy i kilka największych kanałów i jezior. Jedynie w momentach chwilowego spokoju atmosfery trwających zwykle zaledwie ułamek sekundy ukazywała się na tarczy planety delikatna siatka kanałów. Wkrótce paru innych astronomów potwierdziło odkrycie Schiaparellego. Jednakże wielu znakomitych obserwatorów nie mogło zobaczyć kanałów i twierdziło, że są one wynikiem złudzenia optycznego. Zresztą wśród tych, którzy kanały widzieli, zdarzały się rozbieżności. Jedni widzieli wyraźne, ostre linie geometryczne, inni - dość rozmyte pasma, podobne do strużek dymu. Często zdarzało się, że astronomowie obserwujący Marsa z różnych miejsc widzieli kanały w różnych położeniach, trudno więc było powiązać z sobą poszczególne spostrzeżenia. Tłumaczono ten fakt tym, że kanały znajdują się na granicy dostrzegalności i obserwator, zależnie od warunków, zwraca uwagę na odmienne szczegóły. Na ogół jednak obserwatorzy byli zgodni między sobą co do największych kanałów. Wielkość kanałów była zdumiewająca: miały średnio długość 500 do 1000 km, ale były i takie, które ciągnęły się przez przeszło 6000 km. Szerokość natomiast wynosiła średnio około 40 km, ale u największych dochodziła do 300 km. Schiaparelli nadając odkrytym przez siebie utworom nazwę „canali” nie chciał sugerować, że są one formacjami nienaturalnymi, wykonanymi przez jakieś istoty inteligentne. Uważał je raczej za cieśniny lub rzeki, o czym świadczą zresztą nadane im nazwy, jak Nilus, Indus, Ganges czy Euphrates. Jednakże niezwykłe cechy kanałów sprawiły, że powszechnie zaczęto je uważać za dzieło istot rozumnych i nazwa kanały przyjęła się we wszystkich językach. Astronomowie byli na ogół przeciwni tej nazwie, wskazując, że pochodzi ona z niezrozumienia włoskiej nazwy i nie oddaje intencji odkrywcy. W Anglii np. przez długi czas nazywano kanały smugami (streaks) nie chcąc rozstrzygać między nazwami „channels” (cieśniny) i „canals” (kanały). Do ostatecznego triumfu nazwy „kanały” przyczynili się jednak dziennikarze i fantaści (rys. 7). W 1881 r. Schiaparelli dokonał niespodziewanie odkrycia, które jeszcze bardziej pogłębiło tajemniczość kanałów. Okazało się, że niektóre kanały obserwowane przedtem jako pojedyncze proste kreski nagle rozdwoiły się i były widoczne jako para linii równoległych. Zjawisko rozdwajania występowało nagle i tylko w niektórych kanałach (łącznie 17); kanał rozdwojony spostrzegano w miejscu, w którym poprzedniej nocy widziano kanał pojedynczy (rys. 8). Samego procesu rozdwajania nie udało się natomiast nigdy zauważyć. Odległość linii składowych wynosiła od 200 do 900 km. Niemało było też doniesień sprzecznych. Zdarzało się, że jakiś obserwator widział kanał rozdwojony wtedy, gdy inny widział go pojedynczym. Uważano, że takie rozbieżności mogą się zdarzać, ponieważ kanały znajdują się na granicy dostrzegalności. Tajemnicze zjawiska obserwowane na powierzchni Marsa wywołały olbrzymie zainteresowanie. Toczono dyskusje na temat natury i pochodzenia kanałów. Bardzo szybko przeważył pogląd, że jest to dzieło istot inteligentnych, sieć irygacyjna zbudowana przez Marsjan w celu nawodnienia pustyń planety. Mnożyły się projekty podróży międzyplanetarnych i nawiązania kontaktów z mieszkańcami Marsa, projektowano sygnalizację świetlną lub np. wykreślenie na Saharze figur geometrycznych wyobrażających dowód twierdzenia Pitagorasa, co miało przekonać Marsjan o istnieniu
inteligentnych Ziemian. Donoszono również o odbiorze sygnałów świetlnych, radiowych i telegraficznych przesyłanych na Ziemię z Marsa.
Rysunek 7 . „Kanały” na Marsie
Rysunek 8 Rozdwajanie się „kanałów” na Marsie
Nowy rozdział w historii kanałów został otwarty, gdy Amerykanin Percival Lowell (fot. 20), urzeczony odkryciem kanałów, postanowił poświęcić się ich badaniu. Na pustyni w Arizonie wybudował (1894 r.) dobrze wyposażone obserwatorium astronomiczne Flagstaff. Wkrótce odkrył nowe kanały, a także stwierdził, że ich widoczność jest związana ze zmianami pór roku na Marsie. Na podstawie swych obserwacji zbudował teorię na temat mieszkańców Marsa i ich walki z suchym pustynnym klimatem. W kanałach sieci nawadniającej planetę miała płynąć pompowana sztucznie woda z topniejących lodów i śniegów polarnych. Swe teorie wygłaszał Lowell w sugestywnie pisanych książkach Mars i jego kanały i Mars jako siedziba życia, które zdobyły dużą popularność. Wielu astronomów nie mogło jednak zobaczyć na Marsie kanałów. Byli wśród nich tacy, którzy używali lunet kilkakrotnie lepszych od lunety Schiaparellego. Ponieważ nawet ci astronomowie, którzy kanały dostrzegli, różnili się często, jeśli chodzi o ich położenie i wygląd, coraz śmielej wypowiadano przypuszczenie, że geometryczna siatka kanałów Schiaparellego i Lowella jest tylko złudzeniem optycznym. Zwracano uwagę na to, że w małych lunetach kanały widać lepiej niż w dużych. Dziwne było też to, że kanały miały zawsze tę samą pozorną szerokość (w mierze kątowej), niezależnie od odległości Marsa od Ziemi i wielkości jego tarczy. Przypuszczano więc, że obserwator widzący kanały ulega złudzeniu optycznemu podobnemu do tego, jakiego doznajemy patrząc z dużej odległości na gazetę: nie możemy wówczas dostrzec pojedynczych liter i wiersze wydają się liniami ciągłymi (rys. 9). Pogląd ten poparto ciekawymi doświadczeniami. Na przykład znany astronom
Newcomb zaprosił kilkunastu wybitnych obserwatorów Marsa i poprosił o dokładne przerysowanie wzoru umieszczonego w tak dużej odległości, że jego drobne szczegóły zacierały się. Na rysunku wzorcowym zamiast kanałów umieszczono skupisko drobnych plam. Okazało się, że wszyscy poddani temu testowi astronomowie narysowali kanały, nawet ci, którzy na Marsie nigdy ich nie widzieli.
Rysunek 9 Kiedy na rysunek ten patrzeć z dużej odległości, by nie były widoczne poszczególne drobne szczegóły w lewej części, zobaczy się z lewej rysunek podobny do tego z prawej
Spór o kanały na Marsie przybrał szczególnie ostry charakter podczas dogodnego dla obserwacji zbliżenia Marsa do Ziemi w 1909 r. Lowell ze swymi współpracownikami odkrył wówczas ponad 200 nowych kanałów. Nie zważając na zarzuty przeciwników, zwolennicy kanałów twierdzili, że widzą je na powierzchni Marsa zupełnie wyraźnie. Na mapach opracowanych w pracowniach Lowella notowano wówczas już ponad 700 nitkowatych kanałów, cała powierzchnia Marsa była dosłownie nimi usiana. W 1909 r. E. Antoniadi, z pochodzenia Grek przebywający we Francji, rozpoczął obserwacje Marsa przy użyciu wielkiego refraktora obserwatorium w Meudon (pod Paryżem). Oto co pisał o swych obserwacjach: „Gdy 20 września po raz pierwszy spojrzałem na Marsa przez wielki refraktor z Meudon, myślałem, że śnię i obserwuję Marsa z jego zewnętrznego księżyca. Na powierzchni planety widać było mnóstwo ostrych i rozmytych, nieregularnych, subtelnych szczegółów; w jednej chwili zrozumiałem, że odkryta przez Schiaparellego geometryczna siatka pojedynczych i podwójnych kanałów jest tylko złudzeniem optycznym. Obraz był bardzo spokojny i wszystkie szczegóły były widoczne bardzo wyraźnie. Dokładne oddanie wyglądu tych niezliczonych utworów było jednak niemożliwe; rysunki przedstawiają tylko grube zarysy tego, co można było dostrzec na Marsie (...) Według obserwacji wykonanych w Meudon powierzchnia Marsa ma wygląd zupełnie odmienny od tego, który opisywał Schiaparelli w latach 1877-1890 oraz wielu innych obserwatorów. Chociaż byłem przekonany o prawdziwości moich dostrzeżeń, to jednak przyjemnie było znaleźć ich potwierdzenie w niespełna trzy miesiące po ukazaniu się mojej pracy (...) Fotografie wykonane w obserwatorium na Mt. Wilson i w obserwatorium Flagstaff są całkowicie zgodne z rysunkami z Meudon, natomiast przeczą rysunkom Lowella (...) Tak więc geometryczna siatka kanałów Schiaparellego, która od czasu do czasu ukazuje się na krótkie momenty przy obserwacjach mniejszymi lunetami, jest złudzeniem optycznym. Na jej miejscu w dużej lunecie widać albo krzywe, nieregularne, splątane smugi, albo nieco szersze,
nieregularne pasma, albo grupy złożonych półcieni, albo zespoły izolowanych plam, albo też w końcu granice półcieni (...)”. Antoniadi był jednym z najlepszych badaczy Marsa, potrafił na rysunkach precyzyjnie przedstawić wygląd powierzchni planety, zaznaczyć najdrobniejsze szczegóły. Rysunki Antoniadiego przewyższały wielokrotnie liczbą szczegółów rysunki Lowella i innych zwolenników kanałów. Ale mimo że Antoniadi udowadniał przekonywająco, że geometryczna sieć kanałów jest często sprzeczna z prawami perspektywy i dyfrakcji światła (rys. 10), Lowell nie został przekonany. Ogarnięty swą ideą Marsjan i ich sieci nawadniającej był głuchy na rzeczowe słowa krytyki. Wysunął np. twierdzenie, że mniejsze lunety lepiej nadają się do obserwacji Marsa niż większe, w tych ostatnich bowiem wskutek zwiększonego falowania powietrza trudniej zauważyć subtelną siatkę kanałów. Zwracał też uwagę, że gdyby kanały na Marsie były złudzeniem optycznym, to zjawisko rozdwajania się widać byłoby we wszystkich, a nie tylko w niektórych kanałach. Twierdził ponadto, że na najlepszych fotografiach Marsa wykonanych w jego obserwatorium można dostrzec z trudem niektóre kanały. Niestety, aby „lepiej” pokazać kanały, Lowell podobno retuszował zdjęcia, pozbawiając je tym samym wartości naukowej.
Rysunek 10 . Oto przekonywający dowód Antoniadiego, że kanały są złudzeniem optycznym. Gdy nałożyć siatkę południków i równoleżników marsyjskich (B) na oryginalny rysunek kanałów (A), to widać, że kanały te powinny być także widoczne (w innym położeniu - C) jako linię krzywe, czego nigdy nie obserwowano.
Spór o kanały na Marsie toczył się jeszcze długo. Antoniadi zdenerwowany bezsensownym uporem zwolenników kanałów wypowiedział pod ich adresem gorzkie słowa: „Nigdy ścisłość myśli naukowej nie została mocniej znieważona, jak przez te zbrodnicze w stosunku do praw Natury historie prostoliniowych kanałów na Marsie”. Ale jeszcze w latach pięćdziesiątych XX wieku niektórzy badacze obserwując Marsa przez małe lunety twierdzili, że widzą cienkie i proste kanały i dziwili się, dlaczego są astronomowie, którzy uważają je za złudzenie optyczne. Tak jak w wielu innych przypadkach, kanały na Marsie stale opiewała prasa, goniąca za łatwą sensacją, a głucha na rzeczowe argumenty. Kamery sondy kosmicznej „Mariner 4” wyjawiły nam w 1965 r., że powierzchnia Marsa jest usiana kraterami i podobna do powierzchni Księżyca. I to był już definitywny koniec niesławnej historii kanałów na Marsie. Podobne przykłady „odkryć” nie istniejących rzeczy zdarzają się stale i przypuszczalnie będą się zdarzać w przyszłości.
Ogniskowanie neutronów Sławny fizykochemik amerykański Gilbert N. Lewis z Uniwersytetu Kalifornijskiego w Berkeley był w 1937 r. autorem „odkrycia”, które okazało się polegać na niewłaściwym rozumieniu faktów doświadczalnych. Było to niedługo po odkryciu neutronu przez Jamesa Chadwicka (w 1932 r.), toteż właściwości tych cząstek były jeszcze słabo znane i rozumiane. W 1934 r. Enrico Fermi ze współpracownikami odkrył niespodziewanie, że neutrony ulegają spowolnieniu przez parafinę. Lewis wpadł wówczas na pomysł, aby zbudować z parafiny soczewkę, która by mogła ogniskować neutrony, gdyż - jego zdaniem - miałaby dla neutronów duży współczynnik załamania. Lewis wykonał soczewkę parafinową o średnicy dwudziestu kilku centymetrów. Źródło neutronów, którym była wówczas tradycyjnie mieszanina radu i berylu, soczewka i detektor neutronów zostały umieszczone w pudle o długości kilku metrów, wyłożonym kadmem w celu wyeliminowania neutronów rozproszonych na meblach i ścianach laboratorium (wiadomo już było, że kadm chętnie neutrony pochłania). Pomiary przeprowadzano jakby na ławie optycznej, zmieniając odległości źródła i detektora od soczewki. Pomiary te zdawały się wskazywać na obecność maksimum sygnału przy ustalonej odległości detektora od soczewki, co zdaniem Lewisa świadczyło o ogniskowaniu neutronów. Wyniki zakomunikowane przez Lewisa wzbudziły ożywione dyskusje w Berkeley. Słuchacze przyjęli je z niedowierzaniem. Wysunięto zastrzeżenie, że efekt może być wywołany przez neutrony rozpraszane na ścianach pudła. Przekonano w końcu Lewisa, że należy powtórzyć eksperyment na otwartej przestrzeni. Gdy go wykonano, efekt znikł. Cała ta historia trwała krótko, bo zaledwie parę miesięcy, ale pozostawiła ślad w literaturze naukowej w postaci artykułów Lewisa i jego notatki odwołującej wyniki [50].
Zmienność prędkości światła w czasie W latach 1927-1934 na łamach wielu poważnych periodyków naukowych ukazywały się artykuły angielskiego fizyka M.E.J. Gheury de Braya, który zestawiając wyniki pomiarów prędkości światła wykonane przez różnych autorów i w różnym czasie doszedł do wniosku, że prędkość światła nie jest stała, lecz maleje w czasie, przy czym tempo zmniejszania się wynosi w przybliżeniu 4 km/s na rok. De Bray odrzucił możliwość, że różnice w wynikach różnych pomiarów są spowodowane zmianą jednostki czasu, gdyż to - jak słusznie zauważył - powinno dać zmianę długości doby gwiazdowej o około pół minuty na 25 lat [51]. W 1934 r. astronom amerykański z Obserwatorium Lowelorank K. Edmondson wysunął konkurencyjną hipotezę [52], że prędkość światła zmienia się w czasie sinusoidalnie według wzoru
gdzie czas t jest liczony w latach, a prędkość światła c - w kilometrach na sekundę (patrz rys. 11).
De Bray entuzjastycznie odniósł się do propozycji Edmondsona. W swym następnym artykule [53] pisał: „To, że prędkość światła rzeczywiście się zmniejsza, nie mogło budzić wątpliwości wśród tych, którzy dobrze znają obserwacje wykonane od 1900 r. Ale zapewne wzbudzi zdziwienie u każdego to, że zmienia się ona po prostu sinusoidalnie ze stosunkowo krótkim okresem 40 lal; jednakże obserwacje zgadzają się ze wzorem tak dobrze, że zgodność ta sama przez się jest dowodem o takiej wadze, iż wzbudza przekonanie”.
Rysunek 11 Sinusoidalne wahania prędkości światła według Edmondsona. Linia prosta przedstawia dopasowanie de Braya [51], który -jak widać - odrzucił trzy pomiary, gdyż nie zgadzały się z jego hipotezą. Rysunek ten pochodzi z pracy Edmondsona [52].
Rysunek 12 Widzimy tu te same wyniki pomiarów, które rozważali de Bray i Edmondson, ale naniesione są błędy pomiarowe. Pokazane są też wyniki późniejszych pomiarów prędkości światła, które w ostatnich latach są tak dokładne, że ich błędy są mniejsze od rozmiarów kropek.
Enuncjacje de Braya i Edmondsona nie wzbudziły jednak większego zainteresowania wśród fizyków, którzy byli przeświadczeni, że prędkość światła jest niezmienna w czasie. Zresztą nawet pobieżna analiza wyników pomiarów, które rozważali de Bray i Edmondson, prowadzi do wniosku, że autorzy ci popełnili poważny błąd w sztuce, pomijając zupełnie zagadnienie błędów pomiarów. Istotnie, jeżeli popatrzymy na rysunek 12, na którym wyniki pomiarów rozważanych przez de Braya i Edmondsona
zostały naniesione z błędami, to widać, że ze względu na duże błędy zarówno dopasowywanie sinusoidy, jak również linii prostej było słabo uzasadnione. Dziś wie to nawet student opracowujący wyniki pomiarów w ćwiczeniach laboratoryjnych, ale de Bray i Edmondson, opanowani ideą, że prędkość światła ulega zmianie, zupełnie zapomnieli o podstawowych regułach opracowania wyników pomiarów. W przypadku prac de Braya i Edmondsona, jak wspomnieliśmy, wysuwane przez nich hipotezy były sprzeczne z poglądem panującym powszechnie, że prędkość światła jest niezmienna. Zostały one odrzucone przez fizyków, gdyż po pierwsze były nieuzasadnione statystycznie, a po drugie wyniki następnych pomiarów, dużo dokładniejszych, potwierdziły, że prędkość światła nie zmienia się czasie. Gdy się wysuwa niezwykłą hipotezę trzeba mieć zawsze pewność, że zostały wyczerpane możliwości tłumaczeń bardziej zwyczajnych. Zilustruję to bardzo świeżym przykładem prac angielskiego badacza L.M. Stephensona, który rozważał sinusoidalne, sezonowe zmiany wartości stałej grawitacyjnej. Stephenson przeanalizował oryginalne zapisy laboratoryjne z bardzo precyzyjnych pomiarów stałej grawitacyjnej, ogłoszonych w 1930 i 1942 r. przez Heyla i Chrzanowskiego w Narodowym Biurze Standardów w Waszyngtonie. Pomiary te do niedawna były najdokładniejsze z istniejących. Stephenson zauważył, że rozrzut wartości otrzymywanych z różnych pomiarów znacznie przekracza rozrzut oczekiwany z praw statystyki (w przeciwieństwie do de Braya i Edmondsona Stephenson przeprowadził analizę statystyczną bez zarzutu). Spostrzegł on także, że na krańcach rozkładu grupowały się pomiary wykonywane w tych samych porach roku. Stephenson doszedł do wniosku, że rozrzut wyników pomiarów można sprowadzić do oczekiwanego z praw statystyki jeśli przyjąć, że „stała” grawitacyjna zmienia się w ciągu roku cyklicznie, osiągając maksimum około równonocy wiosennej i minimum około równonocy jesiennej [54]. Zmiany te można by, zdaniem Stephensona, wyjaśnić przyczynami astronomicznymi. Jednakże późniejsze pomiary stałej grawitacyjnej wykonane w Paryżu nie potwierdziły hipotezy Stephensona, a całkiem prozaiczne wyjaśnienie zaobserwowanego przez niego zjawiska znalazł niedawno Perry R. Stout, profesor gleboznawstwa na Uniwersytecie Kalifornijskim w Davis. On również sięgnął do oryginalnych zapisów Heyla i Chrzanowskiego, ale skorelował je dodatkowo z danymi z biura meteorologicznego o liczbie i intensywności opadów w Waszyngtonie w latach, gdy wykonano pomiary. Okazało się, że intensywne deszcze bardzo zmieniały zawartość wody w glebie, co wpływało na rozkład masy w bezpośrednim sąsiedztwie piwnicy, w której wykonywano pomiary! Tego zaś efektu zakłócającego Heyl i Chrzanowski nie brali pod uwagę przy opracowywaniu wyników swych pomiarów. Błędy w statystycznym opracowaniu wyników pomiarów były też przyczyną wyciągnięcia fałszywych wniosków w dwóch głośnych epizodach z powojennej historii fizyki cząstek elementarnych.
Waritrony W 1944 r. dwaj znani fizycy armeńscy, Abraham I. Alichanow (1904- 1970) i Artemij I. Alichanian (ur. 1908), rozpoczęli badania promieniowania kosmicznego w laboratorium na górze Ałagez (Kaukaz) na wysokości 3250 m n.p.m. Zbudowali tam wielką aparaturę, składającą się z wielu układów liczników
cząstek w polu magnetycznym. Aparatura ta pozwalała wyznaczać masy cząstek promieniowania kosmicznego. Całkowitą energię cząstek mierzono tzw. metodą kalorymetryczną, wyznaczając ich zasięg w układzie liczników i płyt z ołowiu. Natomiast pęd wyznaczano z krzywizny toru w polu magnetycznym, wyznaczanej licznikami (z niedokładnością związaną z wymiarami liczników). Sensacyjne wyniki uzyskane przez braci12 Alichanowów polegały na odkryciu, że w promieniach kosmicznych występują cząstki o bardzo różnych wartościach masy. Odkrywcy zaproponowali dla tych cząstek nazwę „waritrony” (od łacińskiego varia - różne rzeczy), aby podkreślić różnorakość mas. Niektórzy czytelnicy zapewne pamiętają, że o waritronach mówiło się wiele w wydawnictwach polskich i istnieje na ten temat obszerna literatura polska [55]. Oddajmy głos samym odkrywcom [56]: „(...) Wykazaliśmy, że masy co najmniej 10 procent cząstek promieniowania kosmicznego zawierają się między 250 a 2000 mas elektronowych. Wyniki te opublikowaliśmy w grudniu 1946 roku w języku rosyjskim i w styczniu 1947 roku w języku angielskim. Zaproponowaliśmy nazwanie tej nowej grupy cząstek elementarnych »waritronami«, podkreślając w ten sposób różnorodność ich mas. W miesiąc później, w lutym 1947 roku, podaliśmy w języku angielskim dowody istnienia w promieniowaniu kosmicznym dodatnich i ujemnych cząstek cięższych od protonu, o masach do 5000 mas elektronowych (...) Już latem 1947 roku, używając dużego magnesu stałego o natężeniu pola 7500 gaussów, mogliśmy znacznie zwiększyć dyspersję naszego spektrografu masowego, co umożliwiło nam lepsze rozdzielenie widma masowego waritronów i odróżnienie linii o dostatecznie wyraźnych wierzchołkach (...) Jak dotąd znaleźliśmy wari trony o następujących masach: 110, 140, 200, 250, 300, 350,450, 550, 680, 850, 1000,1300,2500, 3800, 8000 i w przybliżeniu 25 000 mas elektronowych (...)”. Kłopot polegał jednak na tym, że waritronów widzianych na Kaukazie nie udało się zaobserwować w innych laboratoriach, np. w Moskwie. Już w 1946 r. znany badacz promieniowania kosmicznego N.A. Dobrotin ogłosił krytykę koncepcji waritronów, ale nie miało to wpływu na prace na górze Ałagez. Spór o waritrony trwał przez kilka łat na łamach periodyków naukowych radzieckich i innych [38]. Wreszcie w 1952 r. trójka wybitnych badaczy radzieckich: S.N. Wiernow, N.A. Dobrotin i G.T. Zacepin opublikowała artykuł [57], w którym poddała druzgocącej krytyce wyniki Alichaniana, Alichanowa i współpracowników (rys. 13). Okazało się, że odkrywcy waritronów nie wzięli pod uwagę szeregu efektów zakłócających pomiar masy, przecenili dokładność wyznaczania mas oraz popełnili błędy w analizie statystycznej wyników. Wobec tego, jak piszą Wiernow i współautorzy: „(...) niemal wszystkie maksima na krzywych widm cząstek są fikcyjne (...) toteż wnioski o dużej różnorodności mas waritronów jak i o ich właściwościach (np. o rozpadzie), oparte na istnieniu tych maksimów, są zupełnie nieuzasadnione”. I to był koniec waritronów. Fizyka cząstek elementarnych w ostatnich 30 latach przyniosła wiele odkryć nowych cząstek o różnych masach, ale dotyczy to głównie tzw. rezonansów, tj. cząstek 12
Alichanian i Alichanow byli rodzonymi braćmi, wówczas już członkami Akademii Nauk ZSRR.
o średnim czasie życia około 10-23 s, rozpadających się praktycznie w punkcie powstania; nie mają te cząstki nic wspólnego z waritronami, które miały być cząstkami o czasie życia większym o co najmniej piętnaście rzędów wielkości.
Rysunek 13 Dane, na podstawie których wnioskowano o istnieniu waritronów o masach oznaczonych na rysunku (w jednostkach masy elektronu me). Linia przerywana (u góry) poprowadzona przez Wiernowa i współpracowników [57] pokazuje, że rzekome waritrony pochodzą od fluktuacji statystycznych.
Rozszczepienie mezonu A2 Ostatnia historia, o której chcę opowiedzieć, wydarzyła się niedawno, pod koniec lat sześćdziesiątych. Chodziło o badanie wspomnianych wyżej stanów rezonansowych i dokładne wyznaczanie ich masy. Specjalną aparaturę, tzw. spektrometr masy brakującej, zbudowano i zainstalowano w Europejskim Ośrodku Badań Jądrowych (CERN) w Genewie. Gdy uzyskano w 1967 r. pierwsze wyniki, były one zupełnie zaskakujące. Okazało się, że niektóre stany rezonansowe, głównie tzw. mezon A2, to para stanów o bliskich wartościach masy (rozszczepienie stanów jest zjawiskiem dobrze znanym w fizyce atomowej i jądrowej). Pojawiło się od razu parę prac teoretycznych wyjaśniających zjawisko (tzw. dipolowy model rezonansów) oraz kilka prac doświadczalnych potwierdzających rozszczepienie. Dobrze pamiętam, że przez czas jakiś panowała nawet swoista atmosfera presji psychicznej, w której badacze nie widzący w swych wynikach rozszczepienia A2 nie bardzo chcieli informować kolegów. Wreszcie dwa duże eksperymenty wykonane w Berkeley (USA) i Sierpuchowie (ZSRR) wykazały dowodnie, że obserwowane uprzednio rozszczepienie było wynikiem nie uzasadnionej analizy wyników doświadczalnych, a cała historia - jeszcze jednym przykładem tego, co się dzieje, gdy życzenia przeważają nad faktami i dowodami (rys. 14).
Rysunek 14 Rozszczepienie mezonu A2 (z lewej) oraz późniejsze dane (z prawej), które nie potwierdzają rozszczepienia.
Jakże trudno znaleźć wyjaśnienie dla wszystkich tych zadziwiających historii. Zwróćmy uwagę na to, że ich bohaterowie byli przeważnie znanymi uczonymi o pozycji ugruntowanej innymi osiągnięciami w fizyce. Zresztą po swych „odkryciach” nie przestali na ogół zajmować się nauką, lecz przeciwnie, uzyskiwali wartościowe i niepodważalne wyniki i pozostali uczonymi dużej klasy. Wyjaśnienia mogą być bardzo różne, można dopuszczać możliwość autosugestii, halucynacji, braku krytycyzmu, dążenie do osiągnięcia wielkiego prestiżu, nawet dumę narodową. Lekcja, jaką należy wyciągnąć z tych historii, jest oczywista: umysł uczonego jest bardzo wrażliwym instrumentem, czułym na wiele zewnętrznych zakłóceń.
Chciałbym tu przypomnieć słowa, które wypowiedział Ernest Lawrence (wynalazca cyklotronu, laureat Nagrody Nobla z fizyki) komentując tzw. psychologiczne błędy w fizyce [58]: „W każdym wysoce precyzyjnym układzie doświadczalnym występuje początkowo szereg trudności aparaturowych, które prowadzą do uzyskiwania wyników liczbowych znacznie odbiegających od przyjętej wartości wielkości fizycznej podlegającej pomiarom. W związku z tym badacz poszukuje źródła lub źródeł błędów i szuka ich tak długo, aż uzyska wynik bliski wartości przyjętej za obowiązującą. Wówczas zaprzestaje poszukiwań! W ten sposób można wyjaśnić dużą zgodność wielu różnych wyników oraz dopuścić możliwość, że wszystkie te wyniki są obarczone nieoczekiwanie dużym błędem systematycznym”. Sądzę, że coś podobnego zdarza się wówczas, gdy badacz ma jakąś zawczasu pomyślaną ideę, którą chce, może czasem podświadomie, za wszelką cenę potwierdzić eksperymentalnie. Przestaje być wówczas uczonym krytycznym, przestaje myśleć o wszystkich czynnikach zakłócających i mogących wpływać na wynik, który chce otrzymać. Za nim idzie często grupa entuzjastów, badaczy mniej starannych i krytycznych, starających się szybko uzyskać wyniki na nowym polu badań. Liczba prac rośnie zatem zrazu lawinowo, co można nazwać „zjawiskiem kuli śnieżnej”, która stacza się po zboczu pokrytym śniegiem i gwałtownie zwiększa rozmiary. Aż wreszcie ktoś bardziej krytyczny spojrzy na całą sprawę bez uprzedzeń albo z innego punktu widzenia i okazuje się, że „król jest nagi”. Sądzę, że warto, aby zapadło nam to głęboko w pamięć.
3. Nauka przeciw autorytetom W 1609 r. wyszło drukiem jedno z największych dzieł w historii astronomii, Johannesa Keplera Astronomia nova, w której sformułowane były m. in. dwa prawa ruchu planet, zwane obecnie prawami Keplera. Otóż Kepler wypowiada w części III, rozdziale 10 następujące słowa: „Pierwszy mój błąd polegał na tym, że uznałem drogi planet za doskonałe koła i błąd ten kosztował mnie tym więcej, że opierał się na autorytecie wszystkich filozofów oraz zgodny był z metafizyką”. Ten cytat chciałbym wybrać jako motto niniejszego rozdziału, w którym będzie mowa o walce nauki z autorytetami, zarówno poszczególnych ludzi, jak i samej nauki - w sensie systemu poglądów panujących w danym okresie. Autorytet wszystkich filozofów w czasach Keplera głosił, że ciała niebieskie mogą się poruszać jedynie po doskonałych orbitach, jakimi są okręgi. Historia tego poglądu jest bardzo dawna i sięga Pitagorasa i jego uczniów. Pitagoras z Samos (ok. 572 - ok. 497 p.n.e.), półlegendarny filozof grecki, działał głównie w południowej Italii, gdzie powstał związek pitagorejczyków. Arystoteles mówił13, iż pitagorejczycy:
13
Cytaty wg Tatarkiewicza [59].
„przejąwszy się matematyką, zaczęli uważać, że zasady jej są zasadami wszelkiego bytu, (...) uważali liczby za rzecz pierwszą w całej naturze (...) zbierali wszystkie odpowiedniości między liczbami i harmoniami z jednej i własnościami z drugiej i porównując zestawiali je (...) Widzieli w liczbach właściwości i stosunki harmonijne, a że (...) liczby wedle nich zajmowały pierwsze miejsce w całej przyrodzie, przeto przyjmowali (...) że cały świat jest harmonią i liczbą”. Właśnie pitagorejczycy, zwracając uwagę na decydującą rolę symetrii i doskonałości kształtów, doszli do wniosku, że ciała niebieskie muszą być bryłami kulistymi, a ich drogi - okręgami, gdyż kula jest najdoskonalszą bryłą, a okrąg - najdoskonalszą figurą. Z poglądem tym zgadzał się także wielki Platon (427-347 p.n.e.), według którego Wszechświat został stworzony dla spełnienia potrzeb i pragnień ludzkich jako najdoskonalszy z możliwych wszechświatów, a więc zawierający najdoskonalsze kształty. Rzeczywiście, gwiazdy zdają się obiegać Ziemię - centrum Wszechświata, raz na dobę po drogach kołowych. Rzuca się jednak w oczy kilka „gwiazd błądzących”, czyli planet, których ruch wydaje się bardziej zawiły. Jako ciała niebieskie, planety muszą też poruszać się po doskonałych okręgach, ale najwidoczniej nie po prostu po pojedynczych okręgach -jak gwiazdy, lecz po ich kombinacjach. I wobec tego Platon dał swym uczniom do rozwiązania następujące zadanie: znaleźć taką kombinację doskonałych ruchów kolistych, aby wyjaśnić obserwowane na niebie skomplikowane ruchy planet [60].
Rysunek 15 Skomplikowany tor „gwiazd błądzących” na niebie. U góry droga planetoidy nr 1000 w latach 1925-1931, u dołu droga planetoidy nr 1036 w latach 1922-1926 wg Putilina [61] (współrzędne ekliptyczne: β - szerokość. λ - długość)
Zadanie to rozwiązał jako pierwszy Eudoksos z Knidos (408-355 p.n.e.), podając system 27 koncentrycznych sfer, dokładniej powłok kulistych, obracających się jednostajnie wokół różnie ustawionych osi. A oto jak Eudoksos tłumaczył skomplikowany ruch planet: Niech dana planeta będzie przymocowana do punktu na równiku sfery S, obracającej się wokół osi O1; końce osi O1 są przymocowane do wewnętrznej powierzchni koncentrycznej zewnętrznej sfery S2, która obraca się
wokół innej osi O2, oś O2 umocowana jest do wewnętrznej powierzchni jeszcze większej koncentrycznej sfery S3 obracającej się wokół osi O3 itd. Kombinacje takich ruchów po okręgach dają rzeczywiście dość skomplikowane kształty dróg wypadkowych. Eudoksos z Knidos, którego uważa się wobec tego za autora pierwszego traktatu z mechaniki teoretycznej, był zmuszony przyjąć istnienie 4 sfer dla każdej z 5 planet: Merkurego, Wenus, Marsa, Jowisza i Saturna oraz 3 sfer dla Słońca i dla Księżyca. Ostatnią, dwudziestą siódmą sferą była sfera gwiazd stałych. Uczeń Eudoksosa Kallippos ulepszył ten system zwiększając liczbę sfer do 34, co miało dawać lepszą zgodność z obserwacjami. Arystoteles (fot. 21) zwiększył liczbę sfer do 55. W odróżnieniu od poprzedników, którzy rozważali model matematyczny, rozmyślał on nad modelem, który byłby możliwy fizycznie. Koncentryczne sfery miały dla Arystotelesa realność fizyczną - w tych czasach mówiono o sferach kryształowych, których obrót daje cudowną muzykę sfer niebieskich, niesłyszalną dla naszych uszu, przyzwyczajonych do niej od urodzenia - więc chcąc się pozbyć przenoszenia ruchu jednej planety na inną przez połączone sfery, wprowadził sfery „neutralizujące”, obracające się przeciwnie do sfer „działających”. System sfer koncentrycznych miał jedną zasadniczą wadę, z której zdawano sobie sprawę od bardzo dawna. W systemie tym mianowicie nie było żadnych możliwości zmiany odległości ciał niebieskich od Ziemi, co było sprzeczne z obserwacjami zmian jasności planet, a także zmian wielkości Księżyca. Wielki astronom aleksandryjski Klaudiusz Ptolemeusz (ok. 100 - ok. 168, fot. 22) poszedł drogą stworzenia przede wszystkim modelu matematycznego, który dawałby dobrą zgodność przewidywań z obserwowanymi położeniami planet. W dziele swym Megalê Syntaxis, znanym pod zarabizowanym tytułem Almagest, zawarł Ptolemeusz całokształt ówczesnej wiedzy astronomicznej, połączył pomysły poprzedników i podał system budowy świata, który przetrwał w mało tylko zmodyfikowanej postaci przez piętnaście stuleci. W systemie Ptolemeusza wokół Ziemi będącej centrum Wszechświata poruszały się po skomplikowanym systemie okręgów kolejno: Księżyc, Merkury. Wenus, Słońce, Mars, Jowisz i Saturn, poza którymi znajdowała się sfera gwiazd stałych. W systemie Ptolemeusza istotną rolę odgrywały epicykle i deferenty. Otóż planeta poruszała się jednostajnie po okręgu (epicyklu), którego środek biegł jednostajnie po okręgu (deferencie), w którego środku była Ziemia. W miarę potrzeby wprowadzać można było następne epicykle, drugiego, trzeciego i wyższych rzędów. Innym nowym pomysłem było dopuszczenie ruchu ekscentrycznego, tj. umieszczenie nieruchomej Ziemi nieco poza środkiem deferentu planety oraz pomysł tzw. ekwantu, w którym ruch planety odbywał się po okręgu (epicyklu), ale był jednostajny tylko dla obserwatora położonego w ustalonym punkcie poza środkiem epicyklu, środkiem deferentu i poza Ziemią. System Ptolemeusza dawał dość dobrą zgodność z obserwowanymi położeniami planet na niebie, zawierał jednak szereg elementów, dla których trudno było znaleźć rozsądne wyjaśnienie. I tak np. w tym modelu Ziemia, Słońce oraz środki epicykli planet dolnych, Merkurego i Wenus, leżą zawsze na jednej prostej. Natomiast dla planet górnych, Marsa, Jowisza i Saturna, które mogą się odsuwać od Słońca na dowolnie dużą odległość na niebie, odcinek łączący planetę ze środkiem jej epicyklu jest zawsze równoległy do linii Ziemia-Słońce.
Gdy po ciemnych wiekach średniowiecza odzyskano znów spuściznę astronomii greckiej, astronomowie zaczęli z jednej strony ulepszać system Ptolemeusza przez dodawanie następnych okręgów (w niektórych wariantach liczba kół dochodziła do 80), z drugiej zaś pracować nad połączeniem matematycznego modelu okręgu Ptolemeusza z systemem koncentrycznych sfer Arystotelesa. Tak więc koła ekscentryczne, wynalezione m.in. dla wyjaśnienia zmian odległości (zmian jasności) planet od Ziemi i będące początkowo kołami o środkach nie przypadających w Ziemi, zostały w wieku XV ułożone na wewnętrznej lub zewnętrznej powierzchni kryształowych sfer, które miały zatem zmienną grubość. Ponieważ sfery niebieskie były ułożone ciasno jedna w drugiej i nie mogło być między nimi pustej przestrzeni, odpowiednie powierzchnie sfer sąsiadujących też musiały być ekscentryczne. Tak oto epicykle i deferenty, będące początkowo czysto geometrycznymi pomocami rachunkowymi, włączano do „fizycznego” systemu kryształowych sfer niebieskich (rys. 16).
Rysunek 16 System świata według Georga Peurbacha (1423-1461). Środek świata leży w M. Sfery mają różną grubość. Ekscentryczne koło deferentu OPHR (o środku w E) leży między sferami kreskowanymi S, S. Epicykl oznaczony jest literą P.
Upraszczając sprawę można powiedzieć, że Kopernik (fot. 23) miał do zwalczania dwie podstawy starego poglądu na budowę świata: przekonanie, że środkiem świata jest nieruchoma Ziemia oraz przeświadczenie, że ciałom niebieskim przystoją jedynie doskonałe ruchy po okręgach. Z tym pierwszym Kopernik, jak wiemy, poradził sobie, z tym drugim jednak nie mógł czy nie chciał. Co byśmy powiedzieli o Koperniku dobrego, trzeba przecież pamiętać, że był uczonym w dużej mierze konserwatywnym, głęboko tkwiącym w tradycji minionych dwudziestu stuleci. Świadczą o tym wymownie przytoczone niżej fragmenty z pierwszej księgi De revolutionibus orbium coelestium. Pamiętajmy jednak, że nieruchomość Ziemi i jej położenie w środku świata były wielokrotnie kwestionowane przed Kopernikiem (np. w pirocentrycznym układzie pitagorejczyka Filolaosa czy
w heliocentrycznym układzie Arystarcha z Samos), podczas gdy doskonałość kształtów ciał i dróg niebieskich - nigdy. A oto wyjątki z dzieła Kopernika [62]: „Przede wszystkim musimy zwrócić uwagę na to, że świat jest kulisty, czy to dlatego, że ten kształt jest ze wszystkich najdoskonalszy i nie potrzebuje żadnego spojenia, tworząc zamkniętą w sobie całość, której niczego ani dodać nie można, ani też odjąć, czy też dlatego, że ta postać jest najpojemniejsza, a taka właśnie przystoi temu, co ma wszystko zachować, czy również dlatego, że wszystkie zamknięte w sobie części świata, takie jak Słońce, Księżyc i planety, w tym kształcie przedstawiają się naszym oczom, czy wreszcie dlatego, że wszystko dąży do zamknięcia się w takim właśnie kształcie, co można dostrzec na kroplach wody i na innych ciałach ciekłych, gdy same z siebie usiłują zamknąć się w odrębną całość. Tym bardziej więc nikt nie będzie wątpił, że taki właśnie kształt nadany został ciałom niebieskim (...) Ziemia bez wątpienia jest także kulista, ponieważ ze wszystkich stron zdąża ku swemu środkowi. Co prawda, przy takiej wyniosłości gór i zapadłości dolin nie od razu rzuca się w oczy jej pełna krągłość, ale to bynajmniej nie zmienia kulistości całej Ziemi (...) Z kolei wspomnimy o tym, że ruch ciał niebieskich jest kolisty. Ruch kuli polega bowiem na obracaniu się w koło, przy czym odtwarza ona przez tę czynność swoją własną postać w najprostszej bryle geometrycznej, gdzie nie można odnaleźć początku i końca, ani też jednego i drugiego odróżnić, kiedy poprzez te same punkty porusza się w kształt samej siebie. Ale w wielości kręgów niebieskich występuje więcej ruchów. Z nich wszystkich najbardziej wpada w oczy codzienny obrót, zwany przez Greków „nocodniem”, czyli przeciągiem czasu złożonym z dnia i nocy. Przez ten obrót - według panującego mniemania - cały świat, z wyjątkiem Ziemi, porusza się od wschodu ku zachodowi. Uważany jest on za wspólną miarę wszystkich ruchów, skoro nawet sam czas mierzymy przede wszystkim liczbą dni. Następnie dostrzegamy inne obroty, jak gdyby sprzeciwiające się tamtemu, to jest odbywające się od zachodu ku wschodowi, mianowicie Słońca, Księżyca i pięciu planet. W ten sposób Słońce odmierza nam rok, Księżyc miesiące, najpowszechniej także znane okresy czasu. W ten też sposób każda z pozostałych pięciu planet odbywa swój obieg. Zachodzą tu jednak wielorakie różnice. Przede wszystkim nie obracają się one dokoła tych samych biegunów, co pierwszy ów ruch, gdyż biegną po pochyłości zodiaku, a następnie nie wydaje się, żeby w tym swoim biegu posuwały się naprzód jednostajnie; bo u Słońca i Księżyca obserwujemy raz bieg powolny, to znów szybszy, a u pozostałych pięciu planet widzimy, że niekiedy cofają się nawet, robiąc to tu, to tam przystanki. I podczas gdy Słońce posuwa się stale po swej drodze, i to w prostym kierunku, one w wieloraki sposób błąkają się, zataczając już to na południe, już to na północ, i stąd otrzymały nazwę planet, to jest gwiazd błądzących. Poza tym raz zbliżają się bardziej ku Ziemi, i wtedy mówimy, że przechodzą przez perigeum, to znów oddalają się od niej, i mówimy, że przechodzą przez apogeum. Niemniej przeto musi się przyznać, że te ruchy odbywają się po kołach albo są złożone z większej ilości kół, mianowicie dlatego, że w tego rodzaju nieregularnościach zachowują określoną prawidłowość i stałe okresy powrotu, co nie miałoby miejsca, gdyby nie były koliste. Jedynie bowiem koło ma tę właściwość, że może na nowo przywracać przebyty stan rzeczy, jak na przykład Słońce złożonym ruchem kół przywraca nam nierówności dni i nocy oraz cztery pory roku, w czym
upatrujemy większą ilość ruchów, ponieważ jest niemożliwą rzeczą, żeby jednolite ciało niebieskie poruszało się po jednej orbicie ruchem niejednostajnym. Musiałoby to bowiem zachodzić albo na skutek niestałości przyczyny poruszającej (...) albo z powodu zmienności krążącego ciała. Ponieważ jednak przed jednym, jak i przed drugim wzdryga się rozum - i istotnie nie byłoby rzeczą godziwą przypuszczać coś takiego u tych tworów, których ustrój cechuje się najlepszym porządkiem - musimy się zgodzić na to, że jednostajne ich ruchy przedstawiają się nam jako niejednostajne bądź z powodu różnego położenia biegunów owych kół, bądź też dlatego, ze Ziemia nie leży w środku kół, po których tamte ciała krążą, a nam obserwującym z Ziemi przebiegi tych planet, wydają się przypadkowo, to jest z powodu niejednakowych odległości większe wówczas, gdy są bliższe niż wówczas, gdy są dalsze (...)”. Dla Kopernika więc obciążonego bagażem dwudziestu wieków tradycji nie było nawet rzeczą godziwą rozważenie innych ruchów ciał niebieskich; ruchy inne niż jednostajne po okręgach były dlań po prostu niemożliwe. Chociaż więc Kopernik dokonał ogromnego przełomu myślowego, zaliczając Ziemię do ciał niebieskich, jego uparte trzymanie się orbit kołowych spowodowało, że musiał nadal korzystać z pomysłu epicykli i deferentów. W De revolutionibus... korzysta Kopernik ogółem z 48 kół, co było liczbą nieco nawet większą od używanej w niektórych ówczesnych wariantach systemu Ptolemeusza.
Rysunek 17 Układ świata Kopernika. Na tym rysunku z De revolutionibus orbium coelestium nie są pokazane epicykle używane przez Kopernika.
Główną zasługą Kopernika było więc to, że jego nowa astronomia wymagała nowej fizyki. W logicznie zwartym systemie świata Arystotelesa wszystko, co istniało, miało swoje ustalone miejsce. Jasne było dla ówczesnych ułożenie elementów, z których składa się świat, od najcięższej Ziemi, poprzez wodę, powietrze i ogień, zajmujące swoje miejsca dalej od środka świata.
Ziemia z człowiekiem, zwierzętami i roślinami zajmowała centralne miejsce we Wszechświecie i zjawiskami w tym obszarze podksiężycowym rządziły swoiste prawa. Ciała niebieskie, Bóg, aniołowie, zajmowały swoje miejsca w sferach niebieskich, gdzie panowały zupełnie inne prawa (fot. 24). Propozycja Kopernika przesunięcia Ziemi ze środka świata do roli jednej z planet cały ten ustalony porządek burzyła, nie oferując w zamian innej koncepcji. Dzieło Kopernika otwierało pole do popisu dla reformatorów i twórców nowej fizyki i astronomii, ale musiało spotkać się z oporem intelektualnym konserwatystów. Tycho de Brahe (fot. 25), wielki astronom duński, którego wspaniale dokładne obserwacje umożliwiły później Keplerowi odkrycie praw ruchów planet, także nie mógł odejść od przekonania, że ciałom niebieskim przystoją tylko ruchy jednostajne po okręgach. Był jednak bardziej jeszcze konserwatystą niż Kopernik; twierdził, że „(...) Ziemia jest o wiele za duża i za ciężka, aby można zrobić z niej gwiazdę i oprowadzać po przestworzach” i opracował własny system świata, w którym wokół Ziemi tkwiącej w centrum Wszechświata obiegał Księżyc oraz Słońce będące środkiem ruchu kołowych orbit planet; na zewnątrz zaś była sfera gwiazd stałych obracająca się wokół Ziemi raz na dobę i unosząca w swym ruchu planety. Natomiast nie zgadzał się Tycho z tym punktem systemu Arystotelesa, który głosił, że Kosmos jest niezmienny. Gdy w 1572 roku pojawiła się na niebie nie widziana przedtem gwiazda14, Tycho udowodnił na podstawie obserwacji, że jest to ciało niebieskie znajdujące się poza sferą podksiężycową, w której jedynie dopuszczalne były zmiany. A przy obserwacjach jasnej komety w 1577 r. udowodnił, że znajdowała się ona od Ziemi w odległości co najmniej sześciokrotnie większej niż Księżyc, należała więc też do ciał niebieskich (Arystoteles uważał komety za zjawiska meteorologiczne w atmosferze Ziemi). Tycho był też tym, który po raz pierwszy zasugerował, że kometa ta poruszała się nie po okręgu, lecz po krzywej owalnej, na to bowiem wskazywały jego obserwacje. Co innego jednak zmienna i efemeryczna kometa, a co innego odwieczne planety. Gdy więc Kepler (fot. 26), znakomity matematyk, przystąpił do opracowywania obserwacji Tychona, przyjął oczywiście naturalne założenie, że planety muszą poruszać się po okręgach. I dopiero po długim okresie niepowodzeń zdecydował się od tego założenia odejść, co przyniosło mu sukces. Podczas pracy nad nową astronomią korespondował Kepler z innymi astronomami; z listów tych można wnosić o postępach jego pracy, jak również o recepcji nowych idei przez korespondentów. Znamienny jest list, jaki napisał do Keplera w 1607 r. David Fabricius, gdy dowiedział się od niego o pierwszym prawie ruchu planet [63]: „Wprowadzając tę elipsę usuwasz ruchy kołowe i jednostajne, co wydaje mi się tym bardziej absurdalne, im dłużej o tym rozmyślam. Byłoby znacznie lepiej, gdybyś mógł zachować doskonałą orbitę kołową i dodać jeden mały epicykl, by usprawiedliwić efekt elipsy”. Nawet Galileusz (fot. 27), który tyle nowego wniósł do astronomii i dokonał tylu wspaniałych odkryć, nie mógł porzucić idei orbit kołowych i nigdy nie uwierzył Keplerowi w jego prawa ruchu planet. Było to zresztą jednym z powodów, dla którego ci dwaj ludzie, początkowo przyjaźnie z sobą korespondujący, poróżnili się.
14
Słynna Supernowa Tychona w gwiazdozbiorze Kasjopei.
Dopiero gdy wielki Newton podał prawo powszechnego ciążenia i dowody matematyczne, że orbity planet są eliptyczne, dopiero wtedy przyjęto prawa Keplera i w astronomii przestało straszyć widmo doskonałych ruchów po okręgach. To jest pierwszy przykład ufania autorytetom i tradycji w nauce. Przykład drugi dotyczy recepcji odkryć Galileusza, o którego pewnym konserwatyzmie mowa była przed chwilą, ale który należy niewątpliwie do gigantów myśli naukowej i jest jednym z twórców nauki nowoczesnej. Otóż w lecie 1609 r. do Galileusza, wówczas profesora uniwersytetu w Padwie, doszła wiadomość o skonstruowaniu we Flandrii lunety, przez którą można widzieć przedmioty w zbliżeniu. Galileusz zbudował własnoręcznie kilka lunet i zwrócił je ku niebu, odkrywając wspaniały świat zjawisk nigdy przedtem przez człowieka nie widzianych. Odkrył na Księżycu góry i doliny, wyjaśnił, że Droga Mleczna to nie zgęszczone wyziewy ziemskie, lecz mnogość słabo świecących gwiazd, odkrył wreszcie, że Jowisz ma cztery księżyce, które obiegają go, tworząc miniaturę układu planetarnego. W marcu 1610 r. Galileusz ogłosił o tych odkryciach w niewielkiej książeczce Posłanie z gwiazd (Sidereus nuncius). W tym czasie był już on zwolennikiem kopernikańskiego systemu świata i swoje odkrycia uznawał za potwierdzenie idei wielkiego polskiego astronoma. Chcąc się przypodobać Medyceuszom i zdobyć posadę w rządzonej przez nich jego rodzinnej Toskanii poświęcił im swe największe odkrycie, za jakie uważał odkrycie satelitów Jowisza (które zresztą nazywał nowymi planetami), nadając nowym ciałom niebieskim nazwę „Gwiazdy Medycejskie” [64]. Ogłoszenie Posłania z gwiazd wywołało ogromną sensację i zatrzęsło podstawami ówczesnych wyobrażeń o ciałach niebieskich. Rozpoczął się natychmiast zacięty opór filozofów i astronomów, wyznawców Arystotelesa i Ptolemeusza. Argumenty wysuwane przeciw Galileuszowi były bardzo różne. Jedni filozofowie twierdzili, że przez lunetę Galileusza niczego nie widzą - co zresztą mogło być częściowo prawdą, zważywszy na to, że do obserwacji przez lunetę trzeba się przyzwyczaić - drudzy twierdzili, że Gwiazdy Medycejskie i inne cuda są w samym przyrządzie. Tym Galileusz odpowiedział wyznaczając nagrodę dla człowieka, który potrafi zbudować lunetę pokazującą satelity krążące tylko wokół Jowisza, a nie wokół każdej gwiazdy czy planety. Inni wreszcie, jak np. profesor Giulio Libri, czy „największy filozof” uniwersytetu w Padwie Cesare Cremonini odmawiali nawet spojrzenia przez lunetę. Cremonini stwierdził wręcz: „Nie wierzę, żeby ktokolwiek poza Galileuszem widział te gwiazdy, a poza tym od patrzenia przez szkła kręci mi się w głowie. Nie chcę nic o tym więcej słyszeć. Jaka szkoda, że pan Galileusz wdał się w te błazeńskie sztuczki i porzucił swe towarzystwo i bezpieczną przystań w Padwie. Może jeszcze tego żałować!” To właśnie o tych ludziach pisał Galileusz w liście do Keplera: „Śmiejmy się, mój Keplerze, z ogromu głupoty ludzkiej. Cóż można powiedzieć o najlepszych filozofach tutejszego uniwersytetu, którzy z potwornym uporem, mimo tysiąckrotnych zaproszeń, nie chcieli popatrzeć ani na planety, ani na Księżyc, ani nawet na lunetę. Zaiste, gdy jedni są głusi, inni mają oczy zamknięte na światło prawdy. Jest to niezwykłe, lecz mnie to nie dziwi. Ten typ ludzi uważa filozofię za jakąś książkę w rodzaju Eneidy czy Odysei i sądzi, że prawdy należy szukać nie we wszechświecie, nie w przyrodzie, lecz w zestawieniu tekstów. Dlaczego bym się nie miał pośmiać razem z Tobą? Niewątpliwie sam roześmiałbyś się głośno słysząc, jak w Pizie w obecności wielkiego księcia występował przeciwko mnie najlepszy tutejszy uczony, jak usiłował przy użyciu logicznych argumentów, niby zaklęciami magicznymi, odwołać i usunąć z nieba nowo odkryte planety”.
Kiedy w parę miesięcy potem Libri zmarł, Galileusz z właściwym sobie humorem wyraził nadzieję, że człowiek ten, chociaż będąc na Ziemi, nie zdobył się na obejrzenie nowych ciał niebieskich, zobaczy teraz Gwiazdy Medycejskie na swej drodze do nieba. Inny stary rywal Galileusza, profesor Giovanni Antonio Magini, namówił swego asystenta Martina Horky'ego do ostrego wystąpienia. Horky w przepełnionym furią pamflecie dowodził, że nowe planety ani gwiazdy nie mogą istnieć. Wszakże astrologowie wzięli już pod uwagę wszystko na niebie, co może mieć wpływ na Ziemię i na ludzi. Ponieważ natura niczego nie czyni na próżno, więc nowe planety, nie służące żadnemu celowi, nie mogą istnieć. Na to jeden z uczniów Galileusza miał odpowiedzieć, że nowe planety służą bardzo określonemu celowi, a mianowicie dręczą Horky'ego i wprawiają w ogłupienie przesądnych. Wspomnijmy wreszcie, że fanatyk religijny, Francesco Sizi, w swym traktacie Dianoia astronomica inspirowanym wyraźnie przez kabalistykę dowodził, że nie może być żadnych satelitów wokół Jowisza z następujących powodów: „Jest siedem otworów w głowie, dwa nozdrza, dwoje oczu, dwoje uszu i usta; podobnie w niebie są dwie gwiazdy pomyślne, dwie niepomyślne, dwie jaśniejące i jeszcze Merkury, niezdecydowany i obojętny. Z tego, jak również z wielu innych zjawisk natury, jak na przykład, że jest siedem metali, i tak dalej, czego wymienianie jest nużące, wnioskujemy, że liczba planet musi koniecznie być siedem (...) Ponadto Żydzi i inne narody starożytne, jak również współcześni Europejczycy, przyjęli podział tygodnia na siedem dni, które nazwali od siedmiu planet. Jeżeli teraz zwiększymy liczbę planet, to cały ten system rozpada się (...) ponadto satelity są niewidoczne dla gołego oka i wobec tego nie mogą mieć wpływu na Ziemię, więc byłyby bezużyteczne, a jako takie nie istnieją”. Jednakże jedna po drugiej próby oczyszczenia nieba z nowych planet nie przynosiły powodzenia. Filozofowie natknęli się na takie fakty, których ich teorie nie były zdolne wytłumaczyć. Coraz więcej filozofów i astronomów przechodziło na stronę Galileusza, a jego najbardziej zaciekli wrogowie musieli w końcu dać za wygraną i uciekali się do pogróżek i intryg. Jak wiemy dziś z zachowanych dokumentów, już w 1611 r. wpłynął pierwszy tajny raport na Galileusza do biur Świętej Inkwizycji. Zatrzymajmy się chwilę nad argumentacją Siziego, gdyż zasługuje ona na obszerniejszą dygresję. O ile ostatnie zdanie o niemożliwości istnienia obiektów niewidocznych dla gołego oka słusznie budzi nasze politowanie, o tyle powinniśmy sobie zdawać sprawę, że wiara w numerologię była w owym czasie rozpowszechniona nawet wśród wielkich umysłów. Przytoczę tu poglądy Keplera, Retyka i Huygensa. Kepler był od wczesnej młodości zwolennikiem układu heliocentrycznego Kopernika. Jednym z argumentów, które jego zdaniem świadczyły o słuszności tego systemu, była liczba planet. W układzie Ptolemeusza było ich 7: Księżyc, Słońce, Merkury, Wenus, Mars, Jowisz i Saturn, natomiast w układzie Kopernika tylko 6, gdyż Księżyc okrążał Słońce wraz z Ziemią jako jej satelita, a nie samodzielna planeta. Kepler wiedział też o odkryciu greckich matematyków starożytności, że istnieje tylko 5 regularnych brył (tzw. brył platońskich), których wszystkie ściany są foremnymi wielokątami (czworościan, sześcian, ośmiościan, dwunastościan i dwudziestościan). Połączywszy te dwie wiadomości doszedł do wniosku, że udało mu się zgłębić tajemnicę budowy świata. Swoje rozważania opublikował w 1596 r. w książce Tajemnica Kosmosu [65]. Czytamy tam na wstępie: „Mam zamiar, Czytelniku, udowodnić w tym dziełku, że Stwórca Najlepszy i Największy w stwarzaniu tego znajdującego się w ruchu świata i w układzie niebios zwrócił uwagę na owe pięć foremnych brył,
które od Pitagorasa i Platona aż do naszych czasów cieszą się największym poważaniem, i że do ich natury dostosował liczbę niebios, proporcje i przyczynę ruchów”. Kepler doszedł do przekonania, że jeśli każdej z 6 planet przyporządkujemy powłokę sferyczną, to między nimi pozostanie właśnie 5 pustych przestrzeni, odpowiadających pięciu bryłom platońskim. Zacytujmy następny wyjątek z Tajemnicy Kosmosu [66]: „Ziemia jest kołem, miarą wszystkiego. Opisz na niej dwunastościan, koło go obejmujące będzie Marsem. Opisz na Marsie czworościan, koło go obejmujące będzie Jowiszem. Opisz sześcian na Jowiszu, koło go obejmujące będzie Saturnem. A teraz w Ziemię wpisz dwudziestościan, koło w niego wpisane będzie Wenus. Wpisz w Wenus ośmiościan, koło w niego wpisane będzie Merkurym. Oto jaka jest przyczyna liczby planet”. Układ świata według Keplera przedstawia rys. 18.
Rysunek 18 Proporcje sfer planetarnych według skomplikowanej konstrukcji z Tajemnicy Kosmosu Keplera [65].
Uczeń i powiernik Kopernika Joachim von Lauchen, zwany Retykiem, także uzasadniał numerologicznie prawdziwość układu Kopernika. Przecież liczba planet w tym układzie była równa sześciu, a liczba 6 to pierwsza z tzw. liczb doskonałych, będących sumą swych dzielników (6=1+2 + 3). Kepler w Tajemnicy Kosmosu krytykował Retyka [67]: „I nie ma racji Retyk w swojej Relacji, kiedy ze świętości liczby 6 wyciąga argument dla liczby sześciu ruchomych sfer niebieskich. Albowiem kto rozprawia o powstaniu samego świata, nie powinien doszukiwać się przyczyn w liczbach, które uzyskały w świecie jakieś znaczenie dzięki wydarzeniom późniejszym”. Jednakże tenże Kepler, dowiedziawszy się o odkryciu czterech satelitów Jowisza, proponował poszukiwanie satelitów Marsa i Saturna i podawał ich oczekiwaną liczbę. Skoro Ziemia ma jednego
satelitę, a Jowisz - 4, Mars powinien mieć ich 2, a Saturn - 8, gdyż liczby te układały się w prostą sekwencję [68]. Huygens (fot. 28) natomiast był przekonany, także na podstawie rozważań numerologicznych, że Saturn ma tylko jednego satelitę. Skoro liczba planet wynosi 6, tyle samo winna wynosić liczba satelitów, wówczas bowiem Wszechświat będzie symetryczny. Gdy więc w 1655 r. odkrył satelitę Saturna, Tytana, ogłosił dumnie, że skompletował liczbę ciał niebieskich [69] i zaprzestał poszukiwań. Natomiast Cassini (fot. 29) nie przejął się tą konkluzją i wkrótce odkrył następne 4 satelity Saturna. Następny przykład walki z autorytetami w nauce dotyczy pewnego epizodu w historii badań magnetyzmu [70]. Własności przyciągające magnesu znał już Tales z Miletu w VI w. p.n.e. i w tym samym czasie znali je również Chińczycy. Obok istotnych i poprawnych spostrzeżeń dotyczących magnesu (np. zauważenie indukcji magnetycznej) mnożyły się w starożytności najbardziej fantastyczne opowieści Tales uważał, że magnes ma duszę i dzięki niej porusza i przyciąga żelazo. Niektórzy sądzili, że magnes żywi się opiłkami żelaznymi, które wzmacniają jego skuteczność, natomiast nie znosi soku czosnku lub cebuli, a także diamentu, które mogą odebrać mu jego moc. Uważano ponadto, że magnes przyciąga żelazo w dzień, w nocy zaś znacznie słabiej albo w ogóle traci moc. Magnesowi przypisywano też własności lecznicze, zalecano jego przykładanie jako środka kojącego ból i uspokajającego. Magnes miał też mieć właściwości magiczne, mianowicie schowany pod poduszkę żony wykazywał jej niewierność wyrzucając ją z łóżka w przypadku zdrady. Noszenie magnesu przy sobie miało ponadto przynosić właścicielowi wszelkie powodzenie. Te opowieści, wzbogacone potem w średniowieczu np. opowiadaniem żeglarzy o górach magnetycznych, które wyciągały gwoździe z okrętów, dotrwały do końca XVI wieku. Trudno sobie wyobrazić, że przez tyle stuleci nikomu nie przyszło do głowy, aby sprawdzić doświadczalnie prawdziwość twierdzeń, które cytowano za autorytetami starożytnych autorów. Uczynił to dopiero Giovanni Battista Porta (1538-1615, fot. 30), który w swym obszernym dziele Magia Naturalis, zawierającym przedziwną mieszankę faktów naukowych, legend i fantastycznych przesądów, jedną z ksiąg poświęca magnetyzmowi. Porta wykonywał wiele doświadczeń z dziedziny magnetyzmu, m.in. od niego pochodzi oryginalna metoda badania pola magnetycznego za pomocą opiłków rozsypanych na papierze, pod który podstawia się magnes. Nas interesuje tu najbardziej walka Porty z autorytetami. Tak więc Porta stwierdza, że bzdurne jest twierdzenie, jakoby magnes żywił się opiłkami, albowiem sprawdził on za pomocą dokładnej wagi, że magnes nie zmienia ciężaru po zanurzeniu go w opiłkach. Sprawdza też doświadczalnie, że diament, krew kozła, cebula i czosnek nie osłabiają własności przyciągania magnesu.- Zwłaszcza pogląd na temat szkodliwości cebuli i czosnku, pochodzący od Plutarcha, a potwierdzony przez Ptolemeusza, był niebezpieczny, gdyż żeglarze - którym odradzano spożywanie tych produktów z obawy o losy kompasu - byli narażeni na szkorbut. Porta stwierdza, że doświadczalnie przekonał się, że magnesowi nie szkodzi ani chuchanie, ani czkanie nań czosnkiem, a nawet natarty sokiem wyciśniętym z czosnku działa jak przedtem.
William Gilbert, lekarz nadworny królowej Elżbiety, autor słynnego dzieła De Magnete, ma już grunt przygotowany o tyle, że wyśmiewanie autorytetów ogranicza do wstępu do swej księgi. Gilbert jest już uczonym nowoczesnym, opierającym się na doświadczeniu. Ostatni przykład dotyczy chemii, rodzącej się z alchemii, której korzenie tkwią w starożytności i która przetrwała do końca XVII wieku. Alchemicy wykonywali wprawdzie doświadczenia i poza udoskonaleniem metod eksperymentalnych dokonali szeregu odkryć nowych związków chemicznych, ale naczelne miejsce zajmowały w nich dociekania spekulatywne na temat „kamienia filozoficznego”, który miał mieć moc zamiany każdej materii w złoto. Podstawą dociekań alchemicznych była doktryna o czterech żywiołach - ognia, wody, powietrza i ziemi - która wywodzi się od Empedoklesa z Agrigento, a którą przyjął i włączył do swego systemu filozoficznego wielki Arystoteles. Doktrynę żywiołów próbowano nawet udowodnić doświadczalnie. Jan van Helmont (1577-1644) wykonał słynne doświadczenie z wierzbą. Małą wierzbę posadził mianowicie w cynowym kotle, w wysuszonej, zważonej dokładnie ziemi i przez 5 lat podlewał drzewko wodą deszczową. Następnie wyjął drzewko, usunął dokładnie ziemię z korzeni i znów zważył roślinę. Podobnie zważył ziemię po dokładnym jej wysuszeniu. Okazało się, że ziemia praktycznie nie zmieniła ciężaru (ubytek wynosił zaledwie ok. 50 g na ok. 90 kg), natomiast wierzba zwiększyła ciężar o około 73,7 kg. Wynikało z tego, zdaniem van Helmonta, że cały przyrost ciężaru nastąpił z wody, to znaczy, że z czystej wody może powstać „ziemia”, tj. roślina. Wreszcie wykazał, że nowo powstała „ziemia” składa się w rzeczywistości ze wszystkich czterech elementów. Udowodnił to spalając wierzbę, przy czym woda i dym (=powietrze) ulotniły się, podobnie jak ogień, natomiast pozostał popiół (=ziemia). W znakomitym dziele Roberta Boyle'a Sceptical Chymist (Chemik sceptyczny, 1661 r.) znajduje się krytyka poglądów alchemików. Boyle przekonywająco wykazuje, że doświadczenie van Helmonta można objaśnić inaczej, przyjmując, że materia zbudowana jest z bardzo małych cząstek, korpuskuł, znajdujących się stale w ruchu. Nie wchodząc w szczegóły wielu innych doświadczeń dyskutowanych przez Boyle'a przytoczmy tylko jego konkluzję: Istnienie czterech elementów nie zostało w żaden sposób udowodnione i dopóki się to nie stanie, nie można alchemii uznać za naukę prawdziwą. Jedynie doświadczenie upoważnia do wyciągania wniosków, natomiast nigdy do tego nie upoważnia gołosłowne, nie udowodnione twierdzenie. Warto jeszcze z książki Boyle'a przytoczyć parę pięknych zdań15: „Gdy biorę do ręki monetę, nie uważam, co na niej napisane. Jeśli stwierdzę, że jest fałszywa, to ani podobizna i podpis monarchy, ani liczba rąk, przez które przeszła, nie wpływa na mnie, bym ją przyjął. Próba, którą przeprowadziłem osobiście, ma dla mnie większe znaczenie niż wszystkie napisy”. Boyle jest już przedstawicielem nauki nowożytnej, nauki opartej na eksperymencie i obserwacji, nauki, w której nie liczą się legendy, choćby poparte największymi autorytetami. Obok wymienionych tu Galileusza i Gilberta podstawy nauki nowożytnej tworzyli inni, z których wypada tu wymienić co najmniej Francisa Bacona i René Descartesa, czyli Kartezjusza. Wreszcie w końcu XVII wieku Newton stworzył system, który mógł zastąpić rozpadający się system Arystotelesa.
15
Cytowane wg artykułu K. Kapitańczyka z 1968 r. [17].
Trzeba jednak dodać, że mimo powstania nauki nowożytnej i nowoczesnej metody naukowej nie znikła z nauki tendencja do opierania się na autorytetach. Autorytet Arystotelesa zastąpiono autorytetem Newtona (fot. 31). Oto jeden z przykładów. W XVII wieku rywalizowały ze sobą różne teorie światła. Między innymi Christiaan Huygens rozwijał teorię falową (była wówczas jeszcze ta teoria dość naiwna, według której światło to fale podłużne), a Newton - teorię emisyjną, według której najistotniejszą rolę odgrywała emisja cząstek światła -- korpuskuł - przez świecące ciała. Wspominaliśmy już w rozdziale 1, że niesłusznie traktuje się teorię Newtona jako teorię czysto korpuskularną. Oto, co pisał sam Newton [9]: „(...) Moim zdaniem, światła nie można określać jako eter albo też jego ruch. Światło - to coś, co się rozprzestrzenia w różny sposób ze świecących ciał (...) Jeśli bowiem przypuścimy, że promienie świetlne składają się z maleńkich cząsteczek, które są wyrzucane we wszystkich kierunkach przez świecące ciało, to cząstki te, padając na załamującą lub odbijającą powierzchnię, powinny wywołać w eterze drgania równie nieuniknione, jak kamień rzucony w wodę. Jeśli przypuścimy, że drgania te mają różną szerokość lub grubość16 w zależności od tego, jaką wielkość lub prędkość posiadały cząstki świetlne, które je wywołały, to korzyść takich drgań nie ujdzie uwagi tych, którzy uważają za celowe zadać sobie wiele trudu, by zastosować hipotezy dla objaśnienia zjawisk (...)”. Komentując te zdania Wawiłow pisze w swej książce: „Do Newtona przyrosła, uważana za »złą«, przynajmniej w XIX wieku, sława twórcy i zawziętego obrońcy korpuskularnej, czyli emisyjnej teorii światła. Przytoczone słowa Newtona dowodzą wymownie, że pośród współczesnych Newtona, nie wyłączając Huygensa i Hooke'a, chyba nie znaleźli się fizycy, którzy równie jasno zrozumieli całą dogodność teorii falowej i jej podstawowe zarysy”. Otóż ogromny autorytet Newtona, twórcy nowej mechaniki i nowego systemu świata sprawił, że w wieku XVIII teorię falową zupełnie zarzucono. Na przełomie XVIII i XIX stulecia Thomas Young wystąpił ze swą zasadą interferencji, rozniecając znów dyskusję na temat natury światła. Podniosły się wówczas - zwłaszcza w Anglii -i głosy krytykujące ostro Younga, że ośmielił się podnieść rękę na autorytet Newtona atakując teorię emisyjną. Argumenty, którymi się posługiwano, nie były sympatyczne; zarzucano Youngowi „drgający i falujący sposób rozumowania” i przypominano obowiązek szanowania wielkiej pamięci Newtona. Wskutek tych ataków rozgoryczony Young zaprzestał nawet na pewien czas swych badań; dopiero prace Fresnela we Francji doprowadziły do kompletnego zarzucenia teorii emisyjnej i triumfu teorii falowej, którą wyparła dopiero kwantowa teoria dualistyczna. Sposób rozwoju nauki jest zagadnieniem, które od dawna pasjonuje historyków nauki i filozofów. Nie chcąc wchodzić w szczegóły wspomnę tylko, że rywalizują z sobą dwie główne teorie (z całą gamą pośrednich [71]). Jedna to teoria kumulatywizmu, druga, przeciwstawna, to teoria antykumulatywizmu lub rewolucjonizmu w nauce. Według zwolenników kumulatywizmu rozwój nauki jest procesem stopniowego dodawania, kumulowania, rośnięcia. Natomiast według
16
Szerokością lub grubością nazywa Newton to, co obecnie nazywamy długością fali.
zwolenników rewolucjonizmu rozwój nauki nie polega na ciągłym obrastaniu nauki w nowe fakty i idee, lecz na ciągłym występowaniu rewolucji naukowych. Jednym z najwybitniejszych przedstawicieli antykumulatywizmu w nauce jest Amerykanin Thomas Kuhn, którego książka o rewolucjach naukowych [72] wywołała w latach sześćdziesiątych wielkie wrażenie i dyskusje nie tylko wśród zawodowych historyków nauki, lecz także szerokiego ogółu. Pewne wyrażenia wprowadzone przez Kuhna do dziś są często używane, niestety czasem przez ludzi niezupełnie znających ich znaczenie. Jednym z tych pojęć, które zrobiło karierę, jest pojęcie paradygmatu, o którym Kuhn mówi [72]: „Nazywam w ten sposób mianowicie powszechnie uznawane osiągnięcia naukowe, które w pewnym czasie dostarczają społeczności uczonych modelowych problemów i rozwiązań (...)”. I dalej: „W uznanym sensie słowo paradygmat to tyle, co przyjęty model czy wzorzec (...)”. Według Kuhna: „Nauka instytucjonalna, tj. działalność, której większość uczonych w nieunikniony sposób poświęca prawie cały swój czas, opiera się na założeniu, że uczeni wiedzą, jaki jest świat. Wiele sukcesów tej działalności wynika z gotowości do obrony tego mniemania, w razie potrzeby nawet dużym kosztem. Nauka instytucjonalna często na przykład tłumi fundamentalne osiągnięcia nowatorskie, gdyż podważają one jej podstawowe zdobycze”. Kuhn wyobraża sobie zatem rozwój nauki z grubsza jako sukcesję okresów panowania nauki instytucjonalnej, polegającą na układaniu do końca łamigłówek określonych przez obowiązujące paradygmaty oraz rewolucji naukowych, gwałtownych zmian poglądów uczonych na świat, które następują wtedy, gdy paradygmat okazuje się wreszcie fałszywy. Jak wspomniałem, ukazanie się książki Kuhna rozpętało ożywioną dyskusję. Wytknięto np. autorowi, że używa słowa paradygmat w bardzo różnych - jeden z krytyków obliczył, że w 22 - znaczeniach, począwszy od zespołu poglądów w małej społeczności uczonych, np. w jednym małym zakładzie naukowym, aż do wielkich teorii przyjmowanych przez wszystkich. Trudno się też zgodzić, że każda zmiana poglądów uczonych musi być rewolucją naukową. Ostro krytykowali Kuhna fizycy, ci nieliczni, którzy jego książkę przeczytali [73]. Fizycy, jak wiadomo, pracują w celu poznania świata i na szczęście nie wiedzą o tym, że w ich działalności ktoś chce się doszukać jakichś praw rozwoju. Ja też skłaniam się do poglądu, że takie niezmienne prawa rozwoju nauki mogą w ogóle nie istnieć. Sądzę, że trudno nazwać rewolucją każdą zmianę poglądów w nauce. Weźmy chociaż historię rozwoju poglądów na naturę ciepła opisaną w rozdziale 1. Trudno by się w niej doszukać schematu proponowanego przez Kuhna. Sądzę, że jest rzeczą niewątpliwą istnienie w nauce pewnego tradycjonalizmu, przywiązania do poglądów już ustalonych - i to niezależnie, czy nazwiemy to paradygmatem, czy nie. Dobrą ilustracją przywiązania w nauce do poglądów już ustalonych stanowi historia odkrycia Neptuna.
Otóż odkrycie przez Williama Herschela w 1783 r. nowej, siódmej planety, Urana, wywołało ogromne wrażenie w ówczesnym świecie. Na podstawie pierwszych obserwacji obliczono przybliżoną orbitę Urana, co dało możliwość obliczania przewidywanego położenia planety w przyszłości, jak również w latach ubiegłych. Prześledzenie dokumentów astronomicznych wykazało, że przed Herschelem obserwowano Urana wielokrotnie, ale nikt z obserwatorów nie zwrócił nań uwagi. Najwcześniejszą zanotowaną obserwację z 1690 r. znaleziono w dzienniku obserwacyjnym astronoma królewskiego, Johna Flamsteeda. Posiadanie tak wielu obserwacji położenia Urana umożliwiało obliczenie dokładnej orbity tej planety. I wtedy zaczęły się kłopoty! Okazało się, że nawet po uwzględnieniu zakłócającego wpływu planet, głównie Jowisza i Saturna, nie można było uzyskać zadowalającej zgodności obliczeń z obserwacjami. Zaskakiwało zwłaszcza to, że gdy obliczano orbitę na podstawie starych obserwacji, to nie zgadzały się z tymi obliczeniami obserwacje nowe i na odwrót. W celu wyjaśnienia tej nieprzyjemnej sytuacji wysunięto wtedy szereg hipotez [74]: 1. Uran porusza się w środku gazowo-pyłowym, którego opór powoduje systematyczne odchylenia od toru obliczonego bez uwzględnienia dodatkowej siły hamującej ośrodka. 2. Uran ma nie odkrytego jeszcze dużego satelitę, którego przyciąganie powoduje obserwowane odchylenia. 3. Niedługo przed odkryciem Urana nastąpiło zderzenie tej planety z kometą, co spowodowało znaczną zmianę orbity. 4. Prawo grawitacji Newtona nie obowiązuje w tak dużej odległości od Słońca. 5. Na ruch Urana wywiera wpływ zakłócający jeszcze jedna nie odkryta planeta. Pierwsze trzy hipotezy odrzucono dość szybko, gdyż oporu ośrodka nie obserwowano nawet przy ruchu komet mających znacznie mniejsze masy, w ruchach dwóch znanych od 1787 r. satelitów Urana (Titanii i Oberona) nie widziano żadnych nie wytłumaczonych zakłóceń, a hipoteza zderzenia z kometą była zbyt sztuczna. Pozostawały więc hipotezy czwarta i piąta. Rezygnacja z prawa grawitacji Newtona byłaby bardzo bolesna, gdyż oznaczałaby konieczność przebudowy fundamentu, na którym opierała się cała mechanika nieba. Można więc rzec, że przywiązani do tradycjonalizmu astronomowie zaczęli szukać wyjścia w ostatniej z przytoczonych hipotez. Niezależnie od siebie Urbain Jean Joseph Leverrier we Francji i John Couch Adams w Anglii przeprowadzili rachunki, starając się obliczyć na podstawie obserwowanych zakłóceń w ruchu Urana (i zakładając słuszność prawa Newtona) położenie nieznanej planety. Leverrier posłał swe przewidywania do obserwatorium w Poczdamie, gdzie Johann Gottfried Galle w pierwszą noc po otrzymaniu listu, 23 IX 1846 r., odkrył nową planetę, Neptuna, niemal dokładnie w miejscu przewidzianym przez obliczenia Leverriera. To odkrycie nowej planety „na końcu pióra” uznano za największy triumf newtonowskiej mechaniki nieba. Leverrier pracował też nad dokładnym obliczeniem orbity Merkurego i stwierdził u tej planety pewien dodatkowy ruch punktu przysłonecznego (perihelium) orbity, którego nie był w stanie wyjaśnić przez perturbacje od znanych planet. Sądził więc, że i tym razem ma do czynienia z wpływem nieznanej planety, krążącej jeszcze bliżej Słońca niż Merkury. Wieloletnie poszukiwania tej planety nazywanej Wulkanem nie przyniosły, mimo kilku fałszywych alarmów, powodzenia. Tym razem więc historia się nie powtórzyła: utrzymanie starej teorii stało się niemożliwe. Wiemy, że wyjaśnienie ruchu
perihelium Merkurego przyniosła ogólna teoria względności Alberta Einsteina. Teoria newtonowska jest jej bardzo dobrym przybliżeniem dla słabych pól grawitacyjnych, jakie w naszym układzie planetarnym mamy z dala od Słońca; dlatego też przy obliczaniu trajektorii pojazdów kosmicznych nadal posługujemy się klasyczną mechaniką nieba opartą na prawie Newtona. Na marginesie tego przykładu zauważmy, że historia odkrycia Neptuna mogła była przebiegać zupełnie inaczej. Przed kilku laty wykryto [75] przy studiowaniu rękopisów Galileusza, że bez wątpienia widział on Neptuna w 1612 i 1613 r. przy okazji obserwacji satelitów Jowisza; zaobserwował nawet i zapisał, że widziana przezeń gwiazdka przesunęła się. Zafascynowany Gwiazdami Medycejskimi Galileusz nie przywiązywał jednak widocznie wagi do swej obserwacji. Można by snuć hipotezy na temat rozwoju astronomii i fizyki w XVII wieku, gdyby tak Galileusz kontynuował swe obserwacje i ogłosił o odkryciu nowej planety niewidocznej gołym okiem. Jaki miałoby to wpływ na cytowane wyżej rozważania numerologiczne?! Mogło też zdarzyć się inaczej. Początek XIX wieku był wyjątkowo dobrym okresem dla wykrycia Neptuna. Przed 1822 r. przyspieszał on ruch Urana, a potem go hamował; w 1822 r. Neptun był w tzw. opozycji względem Urana, dokładnie na linii Uran-Słońce, i najsilniej wpływał na jego ruch. Gdyby wówczas Neptuna nie odkryto, to następny dogodny okres nastąpiłby za 170 lat; przebywając po drugiej stronie Słońca niż Uran, Neptun znacznie słabiej wpływałby na jego ruch i jego odkrycie na podstawie perturbacji mogłoby nie być możliwe. A gdyby taka właśnie konfiguracja Urana i Neptuna zdarzyła się w połowie XIX w., to co wtedy? Czy nie mogąc znaleźć zakłócającej, planety zrezygnowano by z prawa Newtona? Wróćmy jednak do tradycjonalizmu w nauce. Pewnym jego przejawem jest często występujący u wielkich twórców brak wiary w wartość własnych osiągnięć, a także to, że zmiany systemów pojęciowych następują stopniowo i wiążą się ze zmianą generacji. Ważne wreszcie wydaje mi się odróżnianie poglądów na naukę przed końcem XIX wieku i obecnie. Jeśli miałbym użyć kuhnowskiego terminu rewolucja naukowa, to powiedziałbym, że w fizyce zdarzyły się tylko dwie rewolucje, jedna w wieku XVII, kiedy powstała nauka nowożytna, druga na przełomie XIX i XX stulecia, kiedy fizyka klasyczna ustąpiła miejsca nowej. Dalszą część tego rozdziału poświęcę na podanie przykładów uzasadniających te stwierdzenia. Najpierw przykład Maxwella (fot. 32), jednego z największych fizyków, twórcy elektromagnetycznej teorii światła. Pracując nad zagadnieniem elektromagnetyzmu i pisząc swe wielkie dzieło Treatise on Electricity and Magnetism, Maxwell był przesiąknięty mechanistycznym poglądem na świat, który właśnie w XIX wieku osiągnął szczyt rozwoju i popularności. W przedmowie do tego traktatu stwierdza Maxwell, co następuje [76]: „W tym traktacie zamierzam opisać najważniejsze z tych zjawisk elektrycznych i magnetycznych, pokazać, jak je można mierzyć i prześledzić związki między zmierzonymi wielkościami. Otrzymawszy w ten sposób dane wyjściowe dla matematycznej teorii elektromagnetyzmu i pokazawszy, jak tę teorię można stosować do obliczeń zjawisk, postaram się przedstawić - najjaśniej jak mogę - związek między postacią matematyczną tej teorii oraz fundamentalną nauką, jaką jest Dynamika; będzie się można w ten sposób przygotować do określenia tych prawidłowości dynamicznych, wśród których należy szukać ilustracji lub objaśnienia zjawisk elektromagnetycznych”.
Jak podkreśla Dyson [77], Maxwell nie zdawał sobie sprawy, że stworzył nową naukę, która na równi z dynamiką Newtona pretenduje do przymiotnika: fundamentalna.
Rysunek 19 Wiry eteru wg Maxwella (1861) są oddzielone od siebie kulistymi cząstkami wirującymi wokół osi (jak kulki w łożyskach)
W pierwszych swych próbach wyjaśnienia zjawisk elektromagnetyzmu Maxwell stosował różne modele mechaniczne. Jakże bardzo jego modele wirów w eterze (rys. 19) przypominały wiry eteru wypełniające Wszechświat według Kartezjusza w początkach XVII wieku (rys. 20). Czyż trzeba dodawać, że reakcja fizyków na ukazanie się traktatu Maxwella była przeważnie obojętna lub negatywna? Zaledwie niektórzy, i to młodzi (jak Lorentz), zrozumieli i docenili nową teorię. Kelvin nie wierzył w maxwellowskie zaburzenia, które miały się rozchodzić w próżni, nie wierzył nawet w ciśnienie światła. Bardzo powoli torowała sobie drogę nowa świadomość, że można zapomnieć o modelach mechanicznych i rozpatrywać pole jako obiekt fizyczny istniejący sam przez się, który nie musi być „wyjaśniony” przez coś innego. Następny przykład dotyczy Ernesta Rutherforda, uważanego powszechnie za ojca fizyki jądrowej. Rutherford w 1911 r. ogłosił słynną pracę, w której zinterpretował wyniki badań rozpraszania cząstek alfa na foliach metalowych i wysunął hipotezę istnienia jądra atomu [78]. W 1913 r. Rutherford napisał książkę Radioactive Substances and Their Radiations, w której po raz pierwszy jasno przedstawił jądrowy model budowy atomu z jądrem atomowym obieganym przez elektrony, ale zajmuje to w tej książce niewiele miejsca i nie jest wyeksponowane. Lord Rayleigh w recenzji książki Rutherforda zamieszczonej w „Nature” w ogóle nie wspomina o tym, że jest tam rozważany model budowy atomu. E. N. C. Andrade wspomina, że w tym czasie pracował w Laboratorium Lenarda w Heidelbergu, które było bardzo aktywnym centrum badań fizycznych i nie przypomina sobie, aby atom Rutherforda wywołał jakiekolwiek poruszenie czy zainteresowanie wśród fizyków. Być może sprawy atomów, które od wieków należały, raczej do spekulacji metafizycznych niż do fizyki, nie przyciągały jeszcze wtedy fizyków. Zresztą sam Rutherford też chyba nie w pełni zdawał sobie sprawę z wagi tego odkrycia. W liście do Otto Hahna z kwietnia 1911 r. wspomina, że zajmował się rozpraszaniem cząstek alfa i wymyślił nawet model atomu i nową teorię rozpraszania, by wyjaśnić te
wyniki; chyba jednak był bardziej zainteresowany sam możliwością przeprowadzenia rachunków niż tym, jaka jest natura jego centrum siły.
Rysunek 20 Wiry, których istnieniem Kartezjusz próbował objaśnić zjawiska fizyczne t astronomiczne. Wir wokół Słońca (5) powoduje obieg planet, w tym Ziemi.
Teraz słynny przykład dotyczący Maxa Plancka (fot. 33) i jego odkrycia kwantów energii, otwierającego nową drogę w fizyce. W końcu XIX wieku jednym z ważnych zagadnień w fizyce było znalezienie wzoru, który by opisywał rozkład natężenia w widmie promieniowania ciała doskonale czarnego. Próby wyprowadzenia poprawnego wzoru w ramach fizyki klasycznej kończyły się niepowodzeniem. Planck odrzucił w końcu klasyczne wyobrażenia o promieniowaniu i wprowadził ad hoc postulat kwantowania energii, jej emisji lub absorpcji w określonych porcjach: kwantach. Otrzymał wtedy wzór dający przewidywania zgodne z doświadczeniem. Planck ogłosił swe odkrycie w grudniu 1900 r., ale przez kilka następnych lat jego praca była zupełnie ignorowana przez fizyków. Tak np. w 1904 r. ukazało się wielkie dzieło Jeansa Dynamical Theory of Gases, w którym brak jakiejkolwiek wzmianki o prawie Plancka. W 1905 r. Rayleigh ogłosił kilka prac na temat promieniowania; wspomniał w nich wprawdzie o Plancku, ale lekceważąco stwierdził, że nie udało mu się zrozumieć argumentacji tego autora. Sama praca Rayleigha z podaniem wzoru, który nazywamy dziś wzorem Rayleigha-Jeansa, pochodziła z 1900 r. (w 1905 r. Jeans poprawił błąd rachunkowy w wyprowadzeniu wzoru i nadał mu ostateczną postać). Wiadomo już było wtedy, że wzór Plancka dobrze zgadza się z doświadczeniem, a wzór RayleighaJeansa - nie. Nie uznali za stosowne wspomnieć o Plancku tacy wielcy fizycy, jak Gibbs i Kelvin;
wartość liczby Avogadro otrzymana przez Plancka nie została też wspomniana w znanych tablicach Landolta-Börnsteina, wydanych w 1905 r. Albert Einstein poszedł jeszcze dalej niż Planck, wprowadzając w 1905 r. pojęcie kwantów światła; dopuszczał on, że energia jest skwantowana nie tylko w procesie absorpcji czy emisji, ale także rozchodzić się może tylko w określonych porcjach - kwantach. Najbardziej zdumiewające jest to, że sam Planck zdawał się nie wierzyć w realność fizyczną wprowadzonych przez siebie kwantów energii i traktował je jako wybieg rachunkowy. Mamy na to pewne dowody. Oto w 1911 r. na I Kongresie Solvayowskim Planck tak wypowiadał się na temat hipotezy Einsteina kwantów światła: „Kiedy myśli się o wszystkich eksperymentalnych potwierdzeniach elektrodynamiki Maxwella w badaniach nawet najbardziej złożonych zjawisk interferencji, kiedy myśli się o niezwykłych trudnościach w objaśnianiu zjawisk elektrycznych i magnetycznych przez teorie, które odrzucałyby tę elektrodynamikę, to instynktownie przyjmuje się stosunek wrogi do wszelkich prób poruszenia tego fundamentu. Dlatego też pozostawiamy nadal na uboczu hipotezę kwantów światła, tym bardziej że jest ona jeszcze w stadium zarodkowym. Będziemy przyjmowali, że wszystkie zjawiska zachodzące w próżni dokładnie odpowiadają równaniom Maxwella i nie mają żadnego związku ze stałą h. (...) Wydaje mi się, iż trzeba odżegnać się od przypuszczenia, że energia oscylatora powinna być równa wielokrotności porcji . Należy przyjąć, że przeciwnie, zjawisko pochłaniania promieniowania swobodnego jest procesem z natury ciągłym. Przyjmując ten punkt widzenia można utrzymać podstawową ideę teorii kwantów założywszy tylko, że emisja promieniowania cieplnego o częstości v przez oscylator zachodzi dyskretnie, a energia wysyłana może być tylko całkowitą wielokrotnością elementarnej porcji energii ”. Na tymże kongresie Arnold Sommerfeld powiedział: „Sądzę, że hipotezę kwantów energii należy rozpatrywać raczej jako formę objaśnienia, niż jako rzeczywistość fizyczną”. Kiedy w 1913 r. Einstein kandydował na członka Pruskiej Akademii Nauk, Planck napisał dlań list rekomendujący, w którym stwierdził m.in.: „Nie powinno się poczytywać przeciw niemu tego, że czasem w swych spekulacjach posuwał się być może zbyt daleko, jak np. w swej hipotezie kwantów światła, ponieważ nawet w najbardziej ścisłej nauce nie może być przełomu bez zgadzania się czasem na ryzykowny krok”. Przypomnijmy, że w 1913 r. Niels Bohr ogłosił swój planetarny model budowy atomu, a James Franck i Gustaw Hertz przeprowadzili słynne doświadczenia, w których udowodnili kwantowy charakter procesów emisji i absorpcji energii w atomach. Dyson [77] podaje przykład, który zna z własnego doświadczenia. W czerwcu 1956 r. dwaj fizycy amerykańscy chińskiego pochodzenia, Tsung Dao Lee i Chen Ning Yang, napisali słynną pracę na temat niezachowania parzystości w oddziaływaniach słabych. Dyson przypomina sobie, że kiedy otrzymał tę pracę, przeczytał ją dwukrotnie i nawet stwierdził, że jest interesująca, ale nie zdał sobie sprawy, że zwiastuje ona przewrót w fizyce. W październiku tegoż roku spotkał Yanga i powiedział
mu, że będzie to bardzo ciekawe, jeśli eksperyment potwierdzi ich przewidywania teoretyczne. Na to Yang odrzekł spokojnie: Tak, to będzie interesujące, i dalej poszedł zajmować się swymi rachunkami w teorii gazów niedoskonałych. Dyson odniósł wrażenie, że Yang też niezupełnie doceniał znaczenie swojej pracy. Następny przykład dotyczy kształtowania się poglądów na zjawisko promieniotwórczości naturalnej. Po odkryciu Becquerela i pracach małżonków Curie, gdy okazało się, że substancje promieniotwórcze zawierają ogromny zapas energii, wielu wybitnych uczonych starało się wyjaśnić to zjawisko w ramach starej fizyki, nie dopuszczając myśli o istnieniu zapasów energii we wnętrzu samych atomów [80]. I tak np. William Crookes w 1898 r. wygłosił pogląd, że uran oraz inne pierwiastki promieniotwórcze mają właściwość pochłaniania energii tych uderzających o nie cząsteczek gazu, których energia jest bardzo duża. Część tak pochłoniętej energii miała być następnie wysyłana w postaci bardzo krótkofalowego, przenikliwego promieniowania. Można łatwo obliczyć, że zapas energii cząsteczek gazu np. w pokoju o objętości 135 m3 wystarcza do napędzania maszyny o mocy 1 KM w ciągu 18 godzin. Ta hipoteza upadła, gdy udowodniono doświadczalnie, że promieniotwórczość występuje w nie zmienionej postaci także w próżni. Maria Skłodowska-Curie i jej mąż Piotr także rozważali możliwość, że ciała promieniotwórcze tylko przetwarzają energię pobieraną z zewnątrz. Piotr Curie w 1903 r. podczas wykładu w Royal Society powiedział, że mogą istnieć promienie zupełnie niedostępne naszym zmysłom; rad może mieć zdolność pochłaniania tych promieni i wysyłania na zewnątrz pochłoniętej i przetworzonej energii. Kelvin jeszcze w 1905 r. wyraził się, że jest zupełnie nieprawdopodobne, żeby ciepło wytwarzane przez promieniotwórczość brało się z zapasu energii radu; musi być ona podtrzymywana dopływem energii z zewnątrz. Dymitr Mendelejew w 1903 r. także rozważał podobną możliwość. W pracy o eterze świata pisał, że eter może się składać z bardzo lekkich atomów gazu X, pozbawionego, jak argon i hel, możliwości utworzenia związków chemicznych. Można przypuszczać, że gaz ten będzie się skupiał wokół dużych centrów przyciągania, jak uran i tor - co odpowiada Słońcu w świecie ciał niebieskich. Przy takim skupianiu się eteru można by oczekiwać osobliwych zjawisk wywołanych przez oddziaływanie tych cząstek eteru z centrami przyciągania, a zaburzenia eteru mogą się manifestować przez emisję promieniowania. Przykłady te podsumuję dwiema wypowiedziami wielkich uczonych. Pierwszy cytat pochodzi od Lavoisiera, który w 1783 r. tak pisał o swojej nowej teorii spalania [81]: „(,..) Nie spodziewam się, że mój pogląd zostanie przyjęty natychmiast. Umysł ludzki dostosowuje się do, istniejących wyobrażeń, a kto przez długi okres swego życia przyglądał się przyrodzie pod takim a nie innym kątem widzenia - ten niełatwo przyswoi sobie nowe zapatrywania. Pozostawmy to więc czasowi, który moje poglądy, jakie starałem się przedstawić, albo potwierdzi, albo odrzuci. Tymczasem spostrzegam z zadowoleniem, że młodzież zaczyna oddawać się nauce bez przesądów i bez uprzedzeń, że już nie wierzy w żaden flogiston (...)”. Drugi cytat pochodzi z odczytu wygłoszonego przez Maxa Plancka w 1933 r. [82]: „Nowa wielka idea naukowa zazwyczaj nie toruje sobie drogi w ten sposób, że jej przeciwnicy zostają stopniowo przekonani i nawróceni - bardzo rzadko się zdarza przemiana Szawła w Pawła - lecz raczej
w ten sposób, że jej przeciwnicy powoli wymierają i dorastające pokolenia od razu zapoznają się i zżywają z nową ideą”. Jeśli tradycjonalizm i konserwatyzm uczonych mają związek z dążeniem do posługiwania się zdrowym rozsądkiem, to wspaniale uzupełnia nasze rozważania znane powiedzenie Einsteina: „Zdrowy rozsądek to suma przesądów, jakich nabywamy przed ukończeniem szesnastu lat”. Wróćmy jednak do sprawy rewolucji w nauce. Powiedziałem, że zgadzam się na istnienie tylko dwóch takich rewolucji. Pogląd o dwóch rewolucjach wyznają też inni autorzy [84]. Pierwsza rewolucja naukowa nastąpiła w wieku XVII, kiedy to właśnie odrzucono opieranie się na autorytetach starożytnych i uwierzono, że źródłem postępu i kryterium prawdy w fizyce może być tylko doświadczenie. Nie zaliczyłbym natomiast do rewolucji naukowych takich wydarzeń, jak np. obalenie teorii flogistonu przez Lavoisiera, przejście od teorii cieplika do teorii falowej, a potem kinetycznej, stworzenie elektrodynamiki przez Ampére'a w 1820 r. itd. Nie jest też w moim przekonaniu rewolucją naukową przejście od klasycznej mechaniki Newtona do relatywistycznej mechaniki Einsteina. To są procesy w nauce nieuniknione i normalne. Każda teoria zdaje sprawę z ograniczonego zbioru faktów i ma ograniczony zakres stosowalności. Nowa teoria najczęściej zachowuje część poglądów czy twierdzeń, oczywiście też wszystkie fakty doświadczalne, może też utrzymać lub zmienić terminologię i znaczenie pojęć. Zdarza się też często, że stara teoria jest szczególnym przypadkiem nowej (jak mechanika newtonowska jest szczególnym przypadkiem mechaniki relatywistycznej przy małych prędkościach ruchu). Druga rewolucja nastąpiła, moim zdaniem, na przełomie wieku XIX i XX. Było to też pożegnanie się z oparciem na autorytetach, ale tym razem chodziło o autorytet samej fizyki. Otóż w drugiej połowie XIX wieku fizyka klasyczna stała u szczytu rozwoju i triumfu. Wspaniałe sukcesy mechaniki, które doprowadziły do dokładnego poznania ruchu ciał niebieskich i odkrycia „na końcu pióra” nowej planety, Neptuna, odkrycie zasady zachowania energii, powstanie termodynamiki, teorii kinetycznej ciepła i mechaniki statystycznej, powstanie elektrodynamiki Maxwella, jednoczącej zjawiska elektryczne, magnetyczne i świetlne, wszystko to sprawiło, że wśród fizyków (i nie tylko fizyków) rozpowszechnił się pogląd, że wszystko jest już wiadome, że fizyka jako nauka została doprowadzona do końca i więcej już nic w niej nie ma do zrobienia. Oto co np. powiedział Max Planck w odczycie wygłoszonym w 1924 r. [83]: „Kiedy rozpoczynałem studia fizyczne i u mego czcigodnego nauczyciela Philipa von Jolly'ego zasięgałem opinii na temat warunków i perspektyw moich studiów, przedstawił mi on fizykę jako naukę wysoko rozwiniętą, prawie całkiem dojrzałą, która po ukoronowaniu jej osiągnięć przez odkrycie zasady zachowania energii miała już wkrótce przyjąć ostateczną postać. Wprawdzie w tym czy innym zakątku pozostaje jeszcze do zbadania i usunięcia jakiś pyłek czy pęcherzyk, ale jeśli chodzi o system jako całość, to jest on dość zabezpieczony, a fizyka teoretyczna wyraźnie zbliża się do osiągnięcia takiej doskonałości, jaka od stuleci jest właściwa geometrii. Taki był przed pięćdziesięciu laty pogląd fizyka reprezentującego poziom ówczesnej epoki”.
Gdy w 1900 r. lord Kelvin wygłaszał swoje słynne wykłady w Baltimore [85], stwierdził, że piękno i prostota teorii dynamicznej, która światło i ciepło traktuje jako rodzaje ruchu, są obecnie zeszpecone przez dwie skazy: 1) Brak odpowiedzi na pytanie: jak może się poruszać Ziemia przez eter światłonośny, który jest sprężystym ciałem stałym? 2) Doktrynę Maxwella-Boltzmanna dotyczącą ekwipartycji energii. Kelvin traktował te zagadnienia jako skazy, ale miał niewątpliwie wyczucie wybierając te właśnie (niezrozumiałych do końca zagadnień w fizyce było wówczas więcej). Przecież do usunięcia tych skaz trzeba było powstania dwóch nowych wielkich teorii: szczególnej teorii względności i teorii kwantów. Powstanie tych nowych teorii, jak również nieoczekiwane odkrycia promieni X i promieniotwórczości naturalnej, zmieniły oblicze fizyki i stosunek do niej fizyków. Świetnie to ujął lord Rayleigh, który w przemówieniu na bankiecie w Londynie w 1906 r. powiedział [86]: „Wierzyliśmy, że w naszym cudownym gmachu nauki wszystko jest już jak najlepiej ustawione i pozostaje tylko wymieść kurz z niektórych zakątków. A obecnie dowiedzieliśmy się, że musimy wszystko zaczynać od początku”. Wydaje mi się, że po rewolucji z przełomu stulecia fizycy pozbyli się na dobre tego fałszywego przekonania, że fizyka jest już nauką zakończoną. Nawet postronny obserwator zgodzi się przecież, że w bieżącym stuleciu fizyka zmieniała się i zmienia tak szybko, jak nigdy przedtem. Najlepiej znam rozwój fizyki cząstek elementarnych, którą sam się zajmuję: Otóż jest to dziedzina, w której poglądy zmieniają się obecnie tak szybko, że często praca ukazująca się drukiem jest już nieaktualna, gdyż podczas paromiesięcznego cyklu wydawniczego nastąpiły nowe wydarzenia. Każdy fizyk pracuje w tej dziedzinie z przekonaniem, że obecna wiedza jest niepełna i niedoskonała i należy dążyć do jej ulepszeń lub zmian. Podobnie, choć może w innej skali, myślą fizycy z innych specjalności. I właśnie to powszechne obecnie przekonanie, że fizyka jest nauką bez przerwy się rozwijającą i że do poznania i sprawdzenia pozostało jeszcze znacznie więcej niż to, co zostało dotychczas osiągnięte, to przekonanie różni fizykę obecną od fizyki poprzednich stuleci. Wobec tego trzeba przykładać inną miarę do jej obecnego rozwoju. Sądzę, że historycy nauki, jak Kuhn, zajmują się przede wszystkim jej dziejami dawniejszymi i niezupełnie zdają sobie sprawę ze wspomnianych zmian w sposobie myślenia ludzi nauki. A tradycjonalizm? Oczywiście nadal istnieje, ale, jak sądzę, jest to tradycjonalizm też odmiennego gatunku. Można go traktować jako pewne rozszerzenie słynnej brzytwy Ockhama: Entia non multiplicanda praeter necessitatem - nie należy mnożyć bytów (tj. hipotez) bez potrzeby. Oznacza to po prostu tyle, że ze wszystkich możliwych wyjaśnień pewnego zbioru obserwacji czy faktów doświadczalnych należy przyjąć to, które wymaga minimum założeń. Tego wyjaśnienia należy się trzymać, dopóki nie okaże się ono błędne. Przecież teoria, która już istnieje, jest teorią wymagającą minimum założeń w tym sensie, że właśnie już jest. Dlatego też każdy stara się startować od rzeczy znanych. Pewien tradycjonalizm jest w nauce potrzebny. Zacytuję tu bardzo trafne zdanie znanego amerykańskiego popularyzatora nauki Martina Gardnera [87]:
„Pewna doza dogmatyzmu i ślepego uporu jest nawet dla rozwoju nauki konieczna. Dzięki temu uczeni - nowatorzy chcąc, aby ich teorie zostały przyjęte poważnie, starają się zgromadzić jak najwięcej dowodów. Gdyby nie to, nauka dreptałaby w miejscu badając każdą nowomodną koncepcję. Uczeni mają, rzecz jasna, ważniejsze zadania. Jeśli ktoś oznajmi, że Księżyc jest zbudowany z zielonego sera, nie spodziewajmy się od zawodowego astronoma, że porzuci teleskop po to, aby opracować szczegółowe sprostowanie tej wiadomości”. Rzecz jednak w tym, że obecnie fizycy są wewnętrznie przygotowani na zmiany pojęciowe nawet bardzo rewolucyjne, i to różni nas od fizyków z końca XIX wieku. W tym właśnie upatruję efekt rewolucji z przełomu stulecia. Ponadto, lepiej niż kiedykolwiek przedtem fizycy zdają sobie sprawę z tego, co w fizyce jest faktem, a co hipotezą. Faraday wypowiedział pewnego razu następujące słowa [88]: „Jest zawsze bezpieczne i zgodne z zasadami filozofii, aby rozróżniać fakty od teorii tak dalece, jak to jest w naszej mocy. Doświadczenie ubiegłych wieków wystarcza, aby nam uświadomić mądrość takiego postępowania. Biorąc pod uwagę stałą skłonność naszego umysłu do opierania się na założeniach oraz, jeżeli odpowiada to bieżącej potrzebie, do zapominania, że są to założenia, powinniśmy pamiętać, iż zamienia się to w uprzedzenia i przeszkadza mniej lub bardziej w formowaniu wnikliwych sądów. Nie mogę wątpić, że ten, kto będąc mądrym filozofem, dysponuje największą mocą przenikania sekretów natury, czyniąc z hipotez właściwy użytek będzie usiłował najstaranniej -- dla bezpiecznego postępu swojego i innych - rozróżniać wiedzę, która składa się z założeń - przez co rozumiem teorie i hipotezy - od tej, która jest wiedzą faktów i praw; nigdy nie będzie tej pierwszej podnosił do godności i autorytetu tej ostatniej, ani też mieszać, bardziej niż to nieuniknione, z tą ostatnią”. Jak sądzę, wszyscy fizycy zgadzają się obecnie z taką dewizą postępowania. Jak powstają nowe teorie w fizyce? Przytoczmy najpierw zabawną anegdotę. W latach pięćdziesiątych Werner Heisenberg i Wolfgang Pauli sądzili, że udało im się dokonać zasadniczego postępu w teorii cząstek elementarnych. Pauli przejeżdżał przez Nowy Jork i został zaproszony do wygłoszenia referatu seminaryjnego dla grona fizyków, wśród których był także Niels Bohr. Pauli mówił przez godzinę i był potem w dyskusji ostro krytykowany przez przedstawicieli młodszej generacji. W końcu poproszono Bohra, aby zechciał podsumować dyskusję. Bohr stwierdził: „Wiesz, Wolfgang, właściwie wszyscy zgadzamy się, że twoja teoria jest zwariowana; to, co nas dzieli, to odpowiedź na pytanie, czy jest ona dostatecznie zwariowana, by być prawdziwa. Osobiście sądzę, że nie jest ona dostatecznie zwariowana”. Freeman Dyson, z którego artykułu [77] zaczerpnąłem tę anegdotę, pisze następnie, że zdanie o niedostatecznym stopniu „zwariowania” jest bardzo istotne. Gdy bowiem pojawia się jakaś wielka innowacja, jest ona niemal z reguły w postaci mętnej, niekompletnej i niezupełnie zrozumiałej dla odkrywcy i tajemniczej dla innych. Większość zwariowanych prac, które są nadsyłane do redakcji „The Physical Review”, zostaje odrzucona nie dlatego, że jest niezrozumiała, ale właśnie dlatego, że da się zrozumieć. Prace, których nie da się zrozumieć, są z reguły publikowane. Podsumujmy w paru zdaniach myśl przewodnią tego rozdziału. Przed wiekiem XVII nauka opierała się na autorytetach - odrzucenie tego sposobu postępowania i powstanie nowoczesnej metody
naukowej było treścią pierwszej rewolucji w nauce. Potem, do końca XIX wieku, też wierzono w autorytet, tym razem samej fizyki, zdawałoby się najwspanialszej, zakończonej i wyjaśniającej wszystko nauki. Po rewolucji z przełomu stulecia zdajemy sobie obecnie sprawę tak dobrze, jak nigdy przedtem, że w fizyce nie ma miejsca na żadne autorytety, że integralną cechą nauki nowoczesnej jest jej giętkość i zmienność. Nie ma żadnego znaczenia to, co powiedział najmądrzejszy człowiek, jeżeli doświadczenie tego nie potwierdza. Doświadczenie (lub obserwacja) jest jedynym kryterium słuszności teorii naukowych.
4. Nauka wobec nieznanego Pomysł wykładu na temat stosunku nauki do rzeczy zupełnie nowych i nieznanych przyszedł mi na myśl przed laty, gdy przeglądałem książkę Newtona Frienda o pierwiastkach chemicznych i znalazłem w niej taki oto urywek [89]: „(...) wielu sądziło, że temperatura zamarzania wody nie jest stała, lecz zmienia się z szerokością geograficzną: Halley i inni zapewniali, że im bardziej na północ, tym więcej potrzeba zimna, aby wodę zamrozić - według ówczesnej frazeologii. Pisze o tym Martine17 i wydaje się pierwszy, który dowiódł, że tak nie jest. Słusznie przypisuje on spostrzeżone różnice temperatur zamarzania wody albo niedoskonałym obserwacjom, albo niedoskonałym termometrom. Podaje on, że zaznaczył poziom rtęci w termometrze zanurzonym w wodzie ze śniegiem w Edynburgu, podczas gdy jego przyjaciel uczynił to samo z innym termometrem w Londynie. Następnie wymienili termometry i sprawdzili pomiary w tych miastach ponownie, stwierdzając, że zgadzają się jak najdokładniej. Jak widać różnica szerokości geograficznej nie wpłynęła na pomiar temperatury zamarzania wody. Późniejsze badania w miastach tak daleko na południe wysuniętych jak Paryż i Dijon dały podobne wyniki”. Historia ta ogromnie mnie zafascynowała. Przecież dziś pomysł, że temperatura przejścia fazowego zależy od szerokości geograficznej laboratorium, wydaje się zupełnie zwariowany. Trzeba sobie jednak uświadomić, że relacjonowana historia odnosi się do przełomu XVII i XVIII wieku, kiedy nauka o cieple stawiała dopiero pierwsze kroki. Nie rozróżniano jeszcze przecież pojęć ciepła i temperatury, trwały dyskusje, jak temperaturę mierzyć i jakich używać skal termometrycznych; walczyły wreszcie z sobą przeciwstawne poglądy na temat natury ciepła (patrz rozdział 1). Czytając ówczesne traktaty dowiadujemy się też, że panowały różne poglądy na temat zestalania się cieczy. Na przykład Musschenbroek sądził, że zestalanie wody zależy od wprowadzenia z zewnątrz pewnej subtelnej materii; ciekłość wody miała wynikać nie z dostarczania ciepła, lecz być spowodowana sferycznym kształtem i gładką powierzchnią jej cząstek. Nie chodzi mi jednak o to, aby „usprawiedliwiać” fizyków z przełomu XVII i XVIII wieku. Przytoczona historia daje bowiem wiele do myślenia na temat tego, co się dzieje, kiedy nauka staje wobec nieznanego, wobec zupełnego braku przesłanek pozwalających wytyczyć kierunek badań, czy też 17
Dr George Martine Essay on the Heating and Cooling of Bodies, 1740 r.; o pracach Martine’a i ówczesnych pogladach patrz książka Rollera [13].
oddzielić czynniki istotne od nieistotnych. W takiej sytuacji nawet „najgłupsze” pytania są oczywiście na miejscu. Na początku chciałbym podać - wzorem poprzednich rozdziałów - kilka przykładów z historii fizyki ilustrujących doniosłe odkrycia. Na podstawie tych przykładów postaramy się wyciągnąć pewne wnioski zbliżające nas do odpowiedzi na pytanie: co ma czynić badacz wobec nieznanego? Pierwszy przykład dotyczy sławnego odkrycia promieniowania X przez Wilhelma Conrada Roentgena w 1895 r. Roentgen (fot. 34) opisał swoje odkrycie m.in. w rozmowie z amerykańskim dziennikarzem H. J. Damem. Wywiad ten ukazał się w miesięczniku „Mc Clure's Magazine” z kwietnia 1896 r. Oto najciekawszy wyjątek [90]: „- Czy może Pan, Profesorze - zapytałem - opowiedzieć mi historię tego odkrycia? - To odkrycie nie ma historii - powiedział. - Od dawna interesowałem się zagadnieniem promieni katodowych w rurze próżniowej, badanych przez Hertza i Lenarda. Śledziłem z wielkim zainteresowaniem badania ich oraz inne i zdecydowałem podjąć własne badania, gdy tylko czas mi pozwoli. Znalazłem na to czas w końcu października. Pracowałem już od kilku dni, gdy odkryłem coś nowego. - Kiedy dokładnie to było? - Ósmego listopada. - Na czym polegało odkrycie? - Pracowałem z rurą Crookesa pokrytą osłoną z czarnej tektury. Na tej oto ławce leżał kawałek papieru pokrytego platynocyjankiem baru. Przepuszczałem prąd przez rurę i spostrzegłem osobliwą czarną linię na papierze. - No i co? - Mówiąc zwykłym językiem, takie zjawisko mogło powstać tylko przy przechodzeniu światła. Ale z rury nie mogło wyjść żadne światło, gdyż była ona przykryta osłoną, nieprzepuszczalną dla żadnego znanego światła, ze światłem łuku elektrycznego włącznie. - Co Pan wtedy pomyślał? - Nie myślałem, badałem. Założyłem, że zjawisko musi pochodzić z rury, ponieważ jego charakter wskazywał na to, że nie mogło pochodzić znikąd indziej. Sprawdziłem to. Z rury wychodziły promienie, które wywoływały luminescencję na papierze. Sprawdzałem to zwiększając stopniowo odległość, aż do dwóch metrów. Od razu wydawało się, że jest to nowy rodzaj niewidzialnego światła. Było to coś oczywiście nowego, czego dotychczas nie znano”. Tak więc sumienny obserwator, jakim był Roentgen, nie przeoczył zjawiska, które przeoczyli, zlekceważyli lub fałszywie zinterpretowali inni badacze, którzy badając wyładowania w gazach rozrzedzonych znajdowali osłonięte klisze fotograficzne zaczernione w tajemniczy sposób. Wiadomo,
że np. William Crookes wysłał nawet list z reklamacją do dostawcy klisz, przedsiębiorstwa Ilford Photographic Company. Przytoczona historia ma jednak dalszy ciąg. Oto 20 stycznia 1896 r. Henri Poincaré opowiedział o zadziwiających wynikach badań Roentgena na posiedzeniu Francuskiej Akademii Nauk. Wysunął wówczas hipotezę, że zdolność emisji promieniowania X ma zapewnić jakiś związek ze zjawiskiem fosforescencji, tj. opóźnionego wysyłania światła po naświetleniu danej substancji. Henri Becquerel (fot. 35) postanowił sprawdzić doświadczalnie tę hipotezę. Wystawił na światło słoneczne minerały zawierające związki uranu, które znane były jako substancje o silnej fosforescencji, i badał następnie, czy działają one potem na kliszę fotograficzną owiniętą w czarny papier. Gdy okazało się, że na kliszy powstaje wyraźne zaczernienie, uznał, że hipoteza Poincarégo została potwierdzona i 24 lutego przedstawił swoje wyniki na posiedzeniu Akademii Nauk. Tak się jednak złożyło, że przez następne kilka dni w Paryżu panowała pochmurna pogoda i Becquerel nie mógł kontynuować swych doświadczeń z wystawianiem minerałów na światło słoneczne. Gdy jednak po paru dniach, chcąc zapewne sprawdzić, czy klisze są nadal dobre, wywołał te, które były przechowywane w szufladzie razem z minerałami, stwierdził ze zdumieniem, że zaczerniły się one, mimo iż minerały nie były uprzednio naświetlone. Zrozumiał wówczas swój błąd i na kolejnym posiedzeniu Akademii Nauk w dniu 2 marca odwołał poprzednią interpretację, donosząc o odkryciu nowego rodzaju niewidzialnego promieniowania, przenikającego przez substancje na podobieństwo promieni X. A oto jak Becquerel opisywał swoje odkrycie [91]: „Szczególnie podkreślam następujący fakt, który wydaje mi się niezwykle ważny i niezgodny ze zjawiskami, których można by oczekiwać: te same kryształy umieszczone tak samo w stosunku do kliszy fotograficznej, tak samo osłonięte, lecz trzymane w ciemności i chronione przed wzbudzeniem przez padające światło, nadal dają taki sam efekt fotograficzny. Opowiem teraz, jak zdarzyło mi się dokonać tego spostrzeżenia. Niektóre z poprzednich doświadczeń były gotowe w środę 26 lutego i czwartek 27 lutego, ale ponieważ w dniach tych słońce świeciło tylko przelotnie, schowałem całe przygotowane urządzenie do ciemnej szuflady z uchwytami i z solą uranową na miejscu. Słońce nie ukazało się jeszcze przez parę następnych dni - wobec czego 1 marca wywołałem klisze spodziewając się zobaczyć tylko bardzo słabe obrazy. Okazało się, że przeciwnie, obrazy te są bardzo intensywne. Pomyślałem od razu, że działanie to może odbywać się w zupełnej ciemności”. I tak to błędna hipoteza i przypadkowy zbieg okoliczności z brakiem dobrej pogody doprowadziły Becquerela do wielkiego odkrycia, ukoronowanego później Nagrodą Nobla z fizyki. Gdyby wypadki potoczyły się inaczej, to odkrywcą mógłby zostać kto inny. Następne trzy przykłady dotyczą też badań nad promieniotwórczością. W 1899 r. Ernest Rutherford (fot. 36) kierował katedrą fizyki na uniwersytecie McGill w Montrealu w Kanadzie i postanowił zająć się badaniem świeżo odkrytego i mało znanego zjawiska. Swemu asystentowi Owensowi polecił zbadanie promieniotwórczości toru. Do badań używany był elektroskop. Zaobserwowano wkrótce zagadkowe zjawisko: oto natężenie promieniowania próbki toru rejestrowanego przez elektroskop zależało od tego, czy drzwi do laboratorium były otwarte, czy zamknięte. Wielu uczonych może zlekceważyłoby ten fakt, ale Rutherford pojął wkrótce, że istotną rolę odgrywa tu ruch powietrza. Idąc za tą hipotezą Owens i Rutherford przeprowadzili dalsze badania, w których udowodnili, że przy rozpadzie toru tworzy się pochodna gazowa substancja
promieniotwórcza, której nadali nazwę: emanacja toru. I tak to przeciąg w laboratorium doprowadził spostrzegawczego Rutherforda do ważnego odkrycia [92]. Jesienią 1934 r. Enrico Fermi (fot. 37) wraz z grupą współpracowników zajmował się badaniem promieniotwórczości wzbudzanej przez naświetlanie różnych pierwiastków neutronami. Było to niedługo po odkryciu neutronu przez Chadwicka i sztucznej promieniotwórczości przez Irenę JoliotCurie i jej męża Frederica Joliot, toteż badania Fermiego miały charakter pionierski i odbywały się w warunkach bardzo małej znajomości samego zjawiska. Jak wspominał Fermi [93], przez pewien czas otrzymywano, zdawałoby się, bezsensowne wyniki. W laboratorium znajdował się między innymi stół drewniany oraz marmurowa konsola przy ścianach. Ów stół zdawał się mieć magiczne właściwości, gdyż srebro naświetlane neutronami na tym stole ulegało znacznie silniejszej aktywacji, niż gdy było naświetlane na marmurowej konsoli. Wyniki zależały więc od warunków naświetlania. Fermi i współpracownicy nie mogli pojąć, jaka jest przyczyna tego zjawiska. Przyszło im do głowy, żeby postawić na drodze wiązki neutronów płytkę ołowianą. Coś jednak - wspominał Fermi - nie dawało mi spokoju f nagle błysnęła mi w głowie myśl, żeby zamiast ołowiu użyć kawałka parafiny. Okazało się, że aktywność srebra naświetlanego neutronami, które przeszły przez parafinę, jest tak ogromna, że zdawało się, iż liczniki uległy uszkodzeniu. Ustawianie w charakterze filtrów innych substancji nie dawało takich wyników. Po paru godzinach Fermi zrozumiał wreszcie przyczynę tych czarodziejskich zjawisk. Oto neutrony przechodząc przez substancję zawierającą wiele lekkich jąder atomowych, wodoru i węgla, ulegają w zderzeniach spowolnieniu, a jako neutrony powolne są o wiele chętniej pochłaniane przez srebro i aktywują je bardziej. Ta idea była zupełnie sprzeczna z ówczesnymi przewidywaniami dotyczącymi oddziaływania neutronów z materią i tak to drewniany stół (drewno to substancja zawierająca właśnie lekkie atomy) dzięki spostrzegawczości Fermiego doprowadził do ważnego odkrycia w fizyce jądrowej. Jak już wspomniałem, sztuczną promieniotwórczość odkryli w 1934 r. Irena Joliot-Curie i Frederic Joliot. Okazuje się, że wiedzieli oni wiele miesięcy przedtem, że przy bombardowaniu aluminium cząstkami alfa wysyłane są pozytony (odkryte w 1932 r. przez Carla Andersona), ale obserwowali je tylko podczas bombardowania, gdyż nie przyszło im do głowy, że może to być proces odbywający się także z opóźnieniem, tzn., że w wyniku reakcji jądrowej powstaje jądro nietrwałe, promieniotwórcze. Gdy to zrozumieli, ogłosili o odkryciu sztucznej promieniotwórczości, co przyniosło im Nagrodę Nobla z fizyki. Najciekawszy jest jednak fakt, że odkrycie to dosłownie „przeszło koło nosa” amerykańskim badaczom pracującym w Kalifornii pod kierunkiem Ernesta Lawrence'a, konstruktora pierwszego cyklotronu. Oni także nie sądzili, że w wyniku reakcji jądrowej może powstać jądro promieniotwórcze i wobec tego, kiedy zauważyli, że ich liczniki nadal zliczają impulsy jakiegoś promieniowania po wyłączeniu cyklotronu i zaprzestaniu bombardowania próbek, uznali to za jakiś błąd w aparacie. Podobno, aby pozbyć się tych „zakłóceń”, zbudowali nawet specjalny system wyłączający automatycznie liczniki z chwilą wyłączenia akceleratora [94]. Gdyby nie to, oni właśnie byliby odkrywcami sztucznej promieniotwórczości.
Podobnych przykładów odkryć, w których istotną rolę odegrał przypadek, jest w historii fizyki wiele. Wymienimy tu jeszcze takie, jak odkrycie przechłodzenia wody przez Fahrenheita (1721)18; odkrycie „elektryczności zwierzęcej” (czyli napięcia kontaktowego) przez Galvaniego (1780); odkrycie polaryzacji światła przy odbiciu przez Malusa (1808); odkrycie dyfrakcji elektronów przez Davissona i Germera (1927); odkrycie promieniowania reliktowego przez Penziasa i Wilsona (1965) itd. Odkrycie Davissona i Germera warte jest bardziej szczegółowego przedyskutowania ze względu na splot towarzyszących mu okoliczności. Ich artykuł z doniesieniem o odkryciu dyfrakcji elektronów zaczyna się tak [95]: „Badania opisane w niniejszej pracy zostały rozpoczęte w wyniku wypadku, jaki zdarzył się w naszym laboratorium w kwietniu 1925 r. W tym czasie zajmowaliśmy się potwierdzaniem wyników (po raz pierwszy ogłoszonych w 1921 r.) dotyczących rozkładu kątowego elektronów rozproszonych przez tarczę ze zwykłego (polikrystalicznego) niklu. Podczas tej pracy eksplodowała butla z ciekłym powietrzem, gdy tarcza była rozgrzana do wysokiej temperatury; rura eksperymentalna się stłukła i tarcza silnie się utleniła pod wpływem powietrza...” Nie był to, jak się okazuje, pierwszy podobny wypadek w laboratorium Davissona. O ile jednak przedtem wyrzucano zniszczoną tarczę i zastępowano ją nową, tym razem postanowiono tę samą tarczę naprawić metodą wygrzewania. Cytujemy dalej autorów: „...Przez długotrwałe wygrzewanie w wysokich temperaturach w wodorze i w próżni udało się w końcu zredukować tlenek i usunąć zewnętrzną warstwę tarczy przez parowanie. Kontynuując eksperymenty stwierdziliśmy, że rozkład kątowy rozproszonych elektronów zupełnie się zmienił (...) Ta widoczna zmiana obrazu rozpraszania wynikła z rekrystalizacji tarczy podczas długotrwałego wygrzewania. W poprzednich eksperymentach, jak również przed wypadkiem, bombardowaliśmy wiele małych kryształów, natomiast po wypadku mieliśmy do czynienia tylko z kilkoma dużymi (było ich około dziesięciu). Wydawało się prawdopodobne na podstawie tych wyników, że natężenie rozpraszania przez pojedynczy kryształ będzie wykazywało wyraźną zależność od orientacji kryształu, toteż od razu przystąpiliśmy do przygotowania eksperymentów dla zbadania tej zależności. Musimy przyznać, że wyniki otrzymane w tych eksperymentach okazały się zupełnie sprzeczne z naszymi oczekiwaniami...” Davisson sądził początkowo, że rozkład kątowy elektronów rozpraszanych na powierzchni metalu zależy od szczegółów budowy pojedynczych atomów. Po wypadku gdy stwierdził zmianę wyników pomiarów, doszedł do wniosku, że charakterystyczne cechy rozpraszania elektronów muszą zależeć od ułożenia atomów w krysztale. Tymczasem już od 1923 r. Louis de Broglie propagował swą hipotezę o falowych właściwościach elektronów. Podczas publicznej obrony swojej rozprawy doktorskiej dotyczącej tego właśnie zagadnienia (w listopadzie 1924 r.) zaproponował - w odpowiedzi na zadane mu pytanie eksperyment z dyfrakcją elektronów na krysztale. Jednak fizycy paryscy nie zainteresowali się ideą swego kolegi teoretyka i nie zabrali się do eksperymentowania w tym kierunku. Chciał natomiast sprawdzić doświadczalnie ideę de Broglie'a fizyk brytyjski z Cambridge, Charles Ellis, ale na próżno przekonywał swego szefa, Rutherforda, że eksperyment jest wart spróbowania. 18
Jak się zdaje, zjawisko to odkrył wcześniej (1677 r.) gdański lekarz I. Conradt.
Inaczej sprawy się miały w Getyndze, jednym z ważnych ówczesnych centrów fizyki. Zanim jeszcze dotarły tam wieści o hipotezie de Broglie'a, w Getyndze zainteresowano się już wynikami Davissona, ogłoszonymi przez niego wraz z Kunsmanem w 1921 r. Dziś wiemy, że w tych wynikach widać już było wpływ falowych własności elektronów na ich rozpraszanie na kryształach, w owym czasie jednak nie zdawano sobie jeszcze z tego sprawy. Dwoje młodych tamtejszych fizyków, Rudolph Minkowski i Herta Sponer, wysunęło nawet hipotezę, że istnieje związek między wynikami Davissona i Kunsmana oraz tzw. zjawiskiem Ramsauera, czyli anomalnie małym rozpraszaniem powolnych elektronów przez niektóre gazy szlachetne. Zainteresowanie tymi zjawiskami wzmogło się jeszcze po ogłoszeniu hipotezy de Broglie'a, choć również minęło trochę czasu, zanim doceniono jej znaczenie i związek z wynikami eksperymentów. Max Born np. traktował początkowo hipotezę de Broglie'a jako ideę czysto abstrakcyjną, potem jednak otrzymał od Davissona list z jego dziwnymi wynikami otrzymanymi po słynnym wypadku w laboratorium. Born uchodził wówczas za eksperta od kryształów, toteż Davisson chciał znać jego opinię. Born nie od razu spostrzegł związek między przysłanymi mu wynikami i hipotezą de Broglie'a, później jednak, po dyskusjach, zdecydował, że sprawa warta jest zainteresowania i polecił jej zbadanie swemu młodemu magistrantowi, Walterowi Elsasserowi. Ten ogłosił wyniki swej analizy w znanym i docenianym wówczas piśmie „Die Naturwissenschaften”; twierdził tam, że niezwykłe wyniki uzyskane przez Davissona, jak również zjawisko Ramsauera, mogą być wyjaśnione przez falowe własności elektronu postulowane przez de Broglie'a; zaproponował także dalsze doświadczenia mające sprawdzić tę hipotezę. Daleko jeszcze do końca tej niezwykłej historii. Davisson dowiedział się o artykule Elsassera, ale zlekceważył jego wnioski i propozycje. Sam Elsasser próbował zrealizować w Getyndze proponowane przez siebie doświadczenie, ale przy braku poparcia ze strony kierownictwa musiał z tego zamiaru zrezygnować po paru miesiącach nieudanych prób. Fizyk angielski Patrick Blackett (późniejszy laureat Nobla) też poddał się po paru tygodniach prób. Natomiast Amerykanin, E. G. Dymond, przeprowadził w Princeton eksperyment z rozpraszaniem elektronów w helu i interpretował wyniki jako potwierdzenie hipotezy de Broglie'a; analiza teoretyczna przeprowadzona przez Dymonda pozostawiała jednak dużo do życzenia, toteż jego artykuł, ogłoszony w „Nature” w 1926 r., też nie wywarł żadnego wrażenia na społeczności fizyków. I nie wiadomo, jaki byłby dalszy ciąg tej historii, gdyby Davisson nie zdecydował się spędzić wakacji 1926 r. w Anglii. Podczas swego tam pobytu wziął on udział w zjeździe w Oxfordzie, na którym Max Born wygłosił wykłady na temat mechaniki falowej, dyskutując idee de Broglie'a i Erwina Schrödingera. Davisson znalazł się na sali i ku swemu ogromnemu zdumieniu usłyszał, że Born traktuje wyniki eksperymentów jego, Davissona, jako potwierdzenie falowych właściwości elektronu. Dał się o tym przekonać dopiero po długich dyskusjach, jakie prowadzili z nim Born, Franck i Hartree. Wówczas postanowił działać. Nie znał niemieckiego, więc żeby przestudiować prace Schrödingera pisane w tym języku zaopatrzył się w słownik niemiecko-angielski i podczas powrotnej podróży statkiem do Nowego Jorku (te powolne podróże miały jednak swe zalety) spędził z nim wiele czasu, zapoznając się z nowym materiałem. Przybywszy do Stanów Zjednoczonych miał już gotowy pomysł nowego eksperymentu, w którym hipoteza de BrogIie'a miała zostać sprawdzona nie tylko jakościowo, lecz także ilościowo. Eksperyment ten, przeprowadzony wraz z Germerem w 1927 r., przyniósł oczekiwane wyniki, a Davissonowi później - Nagrodę Nobla. Z tej niecodziennej historii można wyciągnąć naukę, że nie wystarcza czasem istnienie hipotezy, aby ukierunkować badania doświadczalne. Przecież hipoteza de Broglie'a mogła być sprawdzona już kilka
lat wcześniej, a powodem, że tak się nie stało, był splot niedowierzania i trudności doświadczalnych19. Zupełnie podobnie teoria Diraca nie miała żadnego wpływu na odkrycie pozytonu, na co mamy świadectwo odkrywcy, Carla Andersona [96]; tak więc odkrycie pozytonu, jak również miuonu, należy do odkryć przypadkowych. Mówimy: odkrycie przypadkowe, gdyż przecież autorzy odkryć prowadzili badania w zupełnie innym celu i byli zaskoczeni rzeczami, które odkryli, a których istnienia nie podejrzewali. Zdarza się zresztą dość często, że odkrycie przypadkowe musi nastąpić w odpowiednim momencie, trafić na właściwy grunt, inaczej - zostanie zignorowane i zapomniane. Za odkrywcę zjawisk galwanicznych uchodzi, jak podaliśmy wyżej, Luigi Galvani (1780 r.; opublikowane dopiero w 1791 r.). Ale przecież już w 1678 r. Jan Swammerdam pokazywał Wielkiemu Księciu Toskanii eksperyment, w którym wypreparowany mięsień żaby zawieszony na srebrnym drucie i dotknięty pierścieniem miedzianym ulegał skurczowi, jeśli miedź i srebro były w kontakcie. Opis tego eksperymentu został opublikowany, był więc dostępny wielu badaczom. Skurcze mięśni żaby pod wpływem - jak dziś wiemy - napięcia kontaktowego obserwował też w 1756 r. i opisał rodak Galvaniego, Leopoldo Caldani. A w 1752 r. Johann Georg Sulzer ogłosił wiadomość o dziwnym efekcie, który odkrył doświadczalnie: otóż kładąc na języku kawałek metalu, np. srebrną monetę, a pod językiem kawałek innego metalu, np. miedzi czy ołowiu, doznawał dziwnego smaku (podobnego do smaku siarczanu żelaza), gdy doprowadzał te dwa metale do zetknięcia. Obserwacja Sulzera była opublikowana dwukrotnie, po francusku (1752 r.) i po niemiecku (1762 r.), była więc dostępna dla wielu badaczy. I znów nie zwrócono na nią uwagi. Dopiero odkrycie Galvaniego rozpoczęło nową epokę w rozwoju nauki o elektryczności. Tym razem doniesienie o jego odkryciach nie zostało zignorowane chyba dlatego, że Galvani przez kilka lat prowadził staranne i systematyczne badania, zanim o nich doniósł; w chwili publikacji nie była to pojedyncza, oderwana obserwacja, ale cały ich ciąg, powiązany hipotezą elektryczności zwierzęcej. I Albo weźmy odkrycie linii widmowych. Pierwszym, który je dostrzegł i opisał w 1802 r., był chemik i fizyk angielski, William Hyde Wollaston. Obserwując widmo Słońca zauważył on siedem ciemnych linii, które oznaczył literami; pięć najbardziej wyraźnych uznał po prostu za granice między kolejnymi kolorami w widmie. Wiadomo, że Wollaston był ze swego odkrycia odstępów między kolorami bardzo dumny, swoje obserwacje opisał w artykule w słynnym piśmie „Philosophical Transactions” wydawanym przez Royal Society w Londynie. A jednak ani on sam nie kontynuował badań, ani przez szereg lat nie uczynił tego nikt inny. Dopiero Bawarczyk Joseph von Fraunhofer w 1814 r. ponownie opisał swoje odkrycie ciemnych linii w widmie słonecznym (nazywanych dziś liniami Fraunhofera), wykonał dokładne pomiary odpowiadających im długości fali i tym razem odkrycie zostało zauważone (aczkolwiek też nie od razu). Nawet gdy badacz wie dobrze, czego szuka, ale wie mało lub nic o samym zjawisku, może dokonywać często długotrwałych i bezowocnych prób. Tak było na przykład w przypadku dwóch słynnych odkryć: działania prądu elektrycznego na igłę magnetyczną oraz indukcji elektromagnetycznej. 19
Dodajmy jednak, że równocześnie z Davissonem i niezależnie od niego odkrył dyfrakcję elektronów w kryształach fizyk angielski George Thompson w Aberdeen; szedł on prostą droga od hipotezy de Broglie’a do swego doświadczenia.
Poszukiwania pierwszego z tych zjawisk trwały bardzo długo i zaczęły się jeszcze w XVIII wieku. Spostrzeżono bowiem parokrotnie, że silne wyładowania atmosferyczne wywołują efekty magnetyczne, np. magnesowanie prętów żelaznych lub przemagnesowanie magnesów. Potem stwierdzono także, że podobne efekty powodują wyładowania elektryczne z butelek lejdejskich. Próby znalezienia wpływu elektryczności galwanicznej na magnetyzm stały się częstsze po skonstruowaniu stosu Volty. Wreszcie w kwietniu 1820 r. udało się efekt znaleźć. Odkrywcą był fizyk duński Hans Christian Oersted (fot. 38), który 21 VII 1820 r. ogłosił na temat swych doświadczeń krótką pracę pt. Doświadczenia nad działaniem konfliktu elektrycznego na igłę magnetyczną. Praca ta rozpoczyna się od zdań [97]: „Pierwsze doświadczenia nad przedmiotem, który pragnę wyjaśnić, były wykonane podczas wykładów o elektryczności i magnetyzmie, które miałem w ciągu ubiegłej zimy. Z doświadczeń tych zdawało się wynikać, że igłę magnetyczną można wyprowadzać z jej położenia za pomocą przyrządu galwanicznego, i to przy zamkniętym obwodzie galwanicznym, nie zaś przy otwartym, jak tego na próżno próbowali przed kilku laty niektórzy sławni fizycy (...)”. Widzimy więc, że przyczyną długotrwałych bezowocnych prób było przeświadczenie, że poszukiwany efekt może być wywołany przez elektryczność statyczną. Ponadto znane wówczas siły (grawitacyjna, elektryczna) były siłami centralnymi, sądzono więc, że poszukiwany efekt jest wywołany też przez siłę centralną (skądinąd wiemy, że sam Oersted zajmował się doświadczeniami nad związkiem elektryczności i magnetyzmu od wczesnych lat XIX wieku). Innym przykładem kroczenia błędną drogą było poszukiwanie związku odwrotnego, tj. wytwarzania elektryczności przez magnetyzm. Faraday zajmował się tym bezowocnie przez około 10 lat, podobnie jak inni fizycy. Nikt jednak nie podejrzewał wówczas, że efekt jest zjawiskiem dynamicznym, zachodzącym przy zmianach pola magnetycznego. Wiadomo np., że w 1825 r. fizyk francuski Jean Daniel Colladon przeprowadzał eksperymenty, w których powinien był odkryć indukcję elektromagnetyczną [98]. Ale chcąc wykluczyć wpływ silnego magnesu na galwanometr wyniósł ten przyrząd do drugiego pomieszczenia, toteż kiedy nie spiesząc się po przysunięciu magnesu do obwodu z prądem zachodził do tego pokoju, krótkotrwały ruch wskazówki galwanometru zdążył był już ustać. W końcu Faradayowi udało się ten efekt spostrzec w dniu 29 VIII 1831 r. [99]. Z omawianych przykładów wynika oczywisty wniosek: ogromną rolę w odkryciach nowych zjawisk fizycznych odgrywa spostrzegawczość i sumienność badacza, który nie powinien nigdy lekceważyć faktów zdawałoby się nieistotnych. Natomiast z góry przyjęte hipotezy mogą okazać się hamulcem badań, jak w dwóch ostatnich przypadkach [100]. Mówi się, że w fizyce istnieje metoda naukowa. To prawda, ale nie oznacza to, że istnieje gotowy, dobry przepis na dokonywanie nowych odkryć. Takiego przepisu nie ma! Metoda naukowa istnieje tylko jako zbiór prawideł wykonywania badań, analizy wyników, wyciągania wniosków. Zresztą z wielu przykładów przytoczonych w tym i poprzednich rozdziałach wynika jasno, że rozwój fizyki nie przebiega równomiernie, prostolinijnie w wytyczonym kierunku, lecz pełen jest zygzaków i splątań. Tak zapewne będzie także w przyszłości! Można jednak podać bardzo ogólną charakterystykę przebiegu badań jakiegoś tematu, by uwypuklić istotne cechy metody naukowej. Gdy badamy nowe zjawisko, to zwykle na początku obserwacje
i doświadczenia mają charakter jakościowy. Następnym etapem, w fizyce nieodzownym, jest przejście do badań ilościowych, wybór wielkości fizycznych, tj. takich wielkości, które można mierzyć, wreszcie próba ustalenia korelacji wybranych wielkości z innymi, a także znalezienie czynników, od których badane zjawisko zależy. To ostatnie jest bardzo trudne lub wręcz niemożliwe, gdy badacz ma do czynienia z zupełnie nową, nieznaną dziedziną. Powtórzmy, że chodzi o wyselekcjonowanie takich czynników, które można wyeliminować przeprowadzając doświadczenie w określony sposób, aby otrzymać jasny obraz zjawiska. Zwykle przecież, gdy opisuje się potem przebieg zjawiska już dobrze poznanego, przedstawia się go w sposób wyidealizowany z pominięciem czynników zakłócających (choćby słynne powiedzenie: rozważmy układ izolowany). I to też jest ujemną cechą podręczników i wykładów, w których pomija się wszystkie „zygzaki” badań, nie dając studentom szans uczestnictwa w przygodzie, jaką jest choćby śledzenie perypetii badaczy, którzy coś kiedyś zrobili po raz pierwszy. Powtórzę jeszcze raz, że powyższe stwierdzenia odnoszą się niemal wyłącznie do badań doświadczalnych, otwierających nową, nieznaną dziedzinę. Nieodzownym etapem badań fizycznych jest jednak próba wyjaśnienia wyników, czy to w ramach istniejących struktur teoretycznych - i tu miejsce na wspomnianą wyżej „brzytwę Ockhama” - czy też w postaci nowego schematu hipotezy roboczej. Na tym etapie próba idealizacji zjawiska jest z reguły koniecznym warunkiem postępu. W praktyce sprawa przedstawia się nie tak prosto, czasem hipoteza robocza pojawia się zaraz na wstępie, co pomaga ukierunkować dalsze badania. Hipoteza robocza musi bowiem pozwalać na określone przewidywania, których sprawdzenie albo hipotezę podtrzymuje, albo zmusza do jej modyfikacji lub odrzucenia. Przytoczę tu dwa ładne przykłady. W pierwszym z nich paradoksalny na pierwszy rzut oka wniosek z teorii okazał się po sprawdzeniu silnym argumentem ją potwierdzającym. Otóż w 1818 r. Augustin Fresnel (fot. 39) stanął do konkursu ogłoszonego przez Akademię Nauk w Paryżu na pracę o uginaniu się światła. W rozprawie nadesłanej na konkurs Fresnel podał nową teorię tego zjawiska. Sąd konkursowy, w skład którego wchodzili wybitni fizycy: Arago, Biot, Gay-Lussac, Poisson i Laplace, przyznał Fresnelowi pierwszą nagrodę, ale odbyło się to w dość dramatycznych okolicznościach. Otóż Poisson, który był zwolennikiem korpuskularnej teorii światła Newtona, zauważył, że z teorii Fresnela wynika paradoksalny wniosek, a mianowicie, że gdy na drodze światła ustawi się przeszkodę, np. mały, nieprzezroczysty krążek, a następnie będzie się badać rozkład jasności światła na ekranie ustawionym w pewnej odległości za tą przeszkodą, to w obrębie cienia geometrycznego, w samym środku powinna być widoczna jasna plamka. Inaczej mówiąc, środek cienia ekranu okrągłego powinien być tak oświetlony, jakby ekranu w ogóle nie było. Przewidywanie to było sprzeczne z tzw. zdrowym rozsądkiem. Fresnel sprawdził doświadczalnie, że taka jasna plamka (nazywana dziś plamką Poissona) rzeczywiście istnieje, i to ostatecznie przesądziło sprawę na korzyść jego teorii20. A oto drugi przykład. Kiedy uczeń Galileusza, Evangelista Torricelli, wykonał słynne swe doświadczenie z rurką napełnioną rtęcią, podał poprawne, jak dziś wiemy, wyjaśnienie tego zjawiska jako wynik istnienia ciśnienia atmosferycznego. Sławny Blaise Pascal (fot. 40), przebywający wówczas w Paryżu, zrozumiał, że jeżeli słupek rtęci w rurce Torricellego jest rzeczywiście utrzymywany przez ciśnienie powietrza, to wysokość tego słupka musi być mniejsza tam, gdzie ciśnienie to jest mniejsze, a więc mniejsza na szczycie góry niż u jej podnóża. 20
Ten, jak również następny przykład, są przykładami tzw. eksperymentów rozstrzygających (experimentum crucis). Dodajmy jednak, że jasną plamkę w środku cienia widzieli i opisali Delisle (1715 r.) i Maraldi (1723 r.), ale ich odkrycia pozostały zapomniane.
15 listopada 1647 r. Pascal wysłał więc do swego szwagra Pèriera list, w którym proponował mu wykonanie doświadczenia [101]: „Zajmuję się obecnie poszukiwaniem danych, które pozwoliłyby rozstrzygnąć, czy działanie, przypisywane obawie próżni, może być sprowadzone do czegoś podobnego, czy też powodowane jest przez ciężkość i ciśnienie powietrza. Obmyśliłem doświadczenie, które powinno kwestię tę wyjaśnić, o ile będzie wykonane z odpowiednią ścisłością. Chodzi o wykonanie znanego doświadczenia z próżnią kilkakrotnie tego samego dnia, w tej samej rurce, z tą samą rtęcią raz po raz to u podnóża, to na szczycie góry wzniesionym najmniej na pięćset do sześciuset tuazów, aby sprawdzić, czy wysokość słupka rtęci w rurce w obu wypadkach będzie jednakowa, czy też różna. Poznaje Pan już zapewne, że doświadczenie to rozstrzygnie kwestię, i że jeśli wypadnie wysokość rtęci mniejsza na szczycie niż u podnóża góry (co skłonny jestem przypuszczać pomimo przeciwnego przekonania tych wszystkich, którzy się nad tą sprawą zastanawiali), wyniknie stąd niezawodnie, iż ciężkość i ciśnienie powietrza stanowią jedyną przyczynę tego zatrzymywania się rtęci, nie zaś obawa próżni; jest bowiem rzeczą pewną, iż o wiele więcej powietrza ciąży u podnóża góry niż na jej wierzchołku; trudno jest natomiast przypuszczać, iż natura bardziej obawia, się próżni u podnóża niż na wierzchołku góry. Wykonanie tego doświadczenia związane jest z pewnymi trudnościami. Trzeba by do tego celu znaleźć dostatecznie wysoką górę w pobliżu miasta. Musiałby się przy tym znajdować tam ktoś, kto doświadczenie to potrafiłby wykonać z należną starannością. Ponieważ trudno by było znaleźć poza Paryżem kogoś odpowiedzialnego, również jak i miejsce, odpowiadające warunkom doświadczenia, przeto uszczęśliwiony jestem, iż znalazłem zarówno osobę, jak i miejsce, ponieważ miasto Clermont leży u podnóża góry Puy-de-Dôme 500 tuazów wysokiej i dalej, ponieważ żywię nadzieję, iż Pan zechce sam to doświadczenie wykonać”. 22 września 1648 r. Pèrier wysłał do Pascala list z odpowiedzią [101]: „Nareszcie wykonałem doświadczenie, którego od tak dawna Pan sobie życzył. Przesyłam Panu poniżej dokładne sprawozdanie: W sobotę 19-go bieżącego miesiąca pogoda była zmienna; pomimo to koło godziny piątej z rana zdawało się być dość ładnie i ponieważ wierzchołek Puy-de-Dôme był odsłonięty, zdecydowałem się wejść nań, aby wykonać doświadczenie. Powiadomiłem przeto o tym kilku szanownych obywateli miasta Clermont, którzy prosili mnie, abym ich uprzedził o dniu, kiedy się tam udam; pomiędzy nimi było kilku duchownych, poza tym - świeccy. Wszyscy - ludzie wielce uzdolnieni, nie tylko w kierunku swego zawodu, lecz również w naukach, to też byłem zachwycony, iż mogę w ich towarzystwie urzeczywistnić ten piękny zamiar. Zebraliśmy się więc wszyscy dnia tego koło godziny ósmej z rana w ogrodach Ojców Minimów, które znajdują się w najniższej niemal okolicy miasta i rozpoczęliśmy tam doświadczenie w sposób następujący. Naprzód nalałem do naczynia szesnaście funtów rtęci, którą czyściłem przez trzy dni poprzednie i wziąwszy dwie rurki szklane równej grubości, długości czterech stóp, hermetycznie zatopione z jednego końca i otwarte z drugiego, wykonałem z każdą z nich wiadome doświadczenie z próżnią w tym samym naczyniu, po czym, gdy zbliżyłem i zetknąłem ze sobą obie rurki nie wyjmując ich z naczynia, okazało się, iż rtęć, pozostała w każdej z nich, znajdowała się na tym samym poziomie -
dwadzieścia sześć cali i trzy i pół linii21 ponad poziomem rtęci w naczyniu. Przerobiłem to doświadczenie w tym samym miejscu, w tych samych dwóch rurkach, z tą samą rtęcią i w tym samym naczyniu jeszcze dwa razy i ciągle wypadało, że rtęć w obu rurkach jest na tym samym poziomie i na tej samej wysokości, co za pierwszym razem. Po czym pozostawiłem jedną z tych rurek w naczyniu dla porównania, zaznaczyłem na szkle wysokość rtęci i pozostawiając tę rurkę na tym samym miejscu, uprosiłem R.P. Chastina, jednego z miejscowych mnichów, człowieka równie pobożnego, jak uzdolnionego i znającego się bardzo dobrze na tych kwestiach, aby obserwował od czasu do czasu w ciągu dnia, czy nie zajdzie w niej jakaś zmiana. Z drugą zaś rurką i z częścią tej samej rtęci udałem się w towarzystwie reszty panów na szczyt Puy-deDôme, wzniesiony ponad ogrodem klasztornym na jakieś pięćset tuazów, gdzie po wykonaniu tego samego doświadczenia w ten sam sposób, co w ogrodzie klasztornym, okazało się, że w tej rurce pozostawały tylko dwadzieścia trzy cale i dwie linie rtęci, gdy w ogrodzie klasztornym w tej samej rurce było dwadzieścia sześć cali i trzy i pół linii - że więc pomiędzy poziomem rtęci w rurce w obu tych wypadkach zachodzi różnica trzech cali i półtorej linii. Napełniło to nas zachwytem i podziwem i tak nas zdumiało, że dla własnej przyjemności zapragnęliśmy powtórzyć doświadczenie. Toteż wykonałem je jeszcze pięć razy bardzo dokładnie w różnych punktach wierzchołka góry, zarówno pod dachem znajdującej się tam małej kaplicy, jak na otwartym powietrzu, zarówno w zaciszu, jak na wietrze, zarówno przy pięknej pogodzie, jak w czasie deszczu i mgły, która nas tam od czasu do czasu nawiedzała - oczyszczając za każdym razem bardzo starannie rurkę z powietrza; za każdym razem znajdowałem tę samą wysokość poziomu rtęci w rurce, równą dwudziestu trzem calom i dwóm liniom, a więc różną o trzy cale i półtorej linii od wysokości w ogrodzie klasztornym, równej dwudziestu sześciu calom i trzem i pół liniom, co też nas w zupełności zadowoliło. Później schodząc z góry, przerobiłem w drodze to samo doświadczenie zawsze z tą samą rurką, tym samym żywym srebrem i tym samym naczyniem w miejscu zwanym „Lafon de l'Arbre” i położonym znacznie ponad ogrodem klasztornym i znacznie niżej niż wierzchołek góry; i znalazłem, że wysokość żywego srebra wynosiła tam dwadzieścia pięć cali. Przerobiłem doświadczenie po raz drugi w tym samym miejscu i p. Mosnier, jeden z moich towarzyszy, przerobił je przez ciekawość sam: przerobił je również w tym samym miejscu, i ciągle wypadała ta sama wysokość, równa dwudziestu pięciu calom, mniejsza od tej, która została znaleziona w ogrodzie klasztornym o cal i trzy i pół linii oraz większa od tej, którą znaleźliśmy przed chwilą na szczycie Puy-de-Dôme o cal i dziesięć linii; wzmogło to w znacznym stopniu nasze zadowolenie, gdyż widzieliśmy, iż wysokość żywego srebra zmniejsza się stosownie do poziomu danych miejsc. Wreszcie powróciwszy do ogrodu klasztornego, znalazłem tam naczynie, które zostawiłem dla porównania, w tej samej wysokości, w której je pozostawiłem, równej dwudziestu sześciu calom i trzem i pół liniom, w której to wysokości, według sprawozdania R.P. Chastina, który pozostawał przy rurce tej celem obserwowania jej, nie zaszła w ciągu całego dnia żadna zmiana, chociaż czas był bardzo niestały, chwilami pogodny, chwilami dżdżysty, to znów wietrzny.
21
Linia = 1/12 cala.
Przerobiłem tam doświadczenie raz jeszcze z rurką, którą nosiłem na Puy-de-Dôme i w naczyniu, w którym znajdowała się rurka, pozostawiona dla porównania; znalazłem, że w obu rurkach żywe srebro znajdowało się na tym samym poziomie (...)”. Przytoczyłem tu niemal w całości przydługi opis doświadczenia z rurką Torricellego, ponieważ w uroczy sposób przekazana jest w nim ta pełna napięcia atmosfera - w tym wypadku także siedemnastowieczny klimat - jaka towarzyszy badaniu nieznanego22. Możemy podziwiać, jak Pèrier z niezwykłą sumiennością zaplanował doświadczenie, włącznie z powtarzaniem prób, rurką kontrolną i dodatkowym obserwatorem, jak starannie przekazał wszystkie fakty i okoliczności towarzyszące, włączając nawet szereg szczegółów - jak dziś wiemy - nieistotnych. Ale nawet on (jak również Pascal) nie ustrzegł się przy tym pewnych milczących założeń, np., że prawa ciśnienia cieczy i gazów nie zależą od wysokości (tak rzeczywiście jest - ale to wiemy teraz, a posteriori!). Uczciwość i sumienność uczonego w badaniach nieznanego jest rzeczą nieodzowną. Ktoś może powiedzieć: przecież to rzecz zrozumiała! Tak, aleja mam tu na myśli tę uczciwość, która nie pozwala badaczowi odrzucić takich faktów czy spostrzeżeń, które uważa za nieistotne lub niezrozumiałe, albo relacji, które uważa za niewiarygodne, gdyż nie zgadzają się z jego wiedzą i poglądami. To, co chcę powiedzieć, najlepiej zilustruje przykład zaczerpnięty z Dziejów greckiego historyka Herodota. W księdze czwartej czytamy tam o wydarzeniu sprzed 2500 lat [102]: „(...) Nekos, król Egiptu (...) wysłał Fenicjan na okrętach z tym poleceniem, ażeby w drodze powrotnej wpłynęli przez słupy Heraklesa na morze północne i tą drogą wrócili do Egiptu. Fenicjanie więc wyruszyli z Morza Czerwonego i płynęli przez morze południowe. Ilekroć nastawała jesień, lądowali i osiewali pola, do jakiejkolwiek w danym razie okolicy Libii23 dotarli, i oczekiwali tam żniw: a skoro zboże zżęli, płynęli dalej, tak że po upływie dwóch lat skręcili w trzecim roku przy słupach Heraklesa i przybyli do Egiptu. A opowiadali oni - co mnie nie wydaje się wiarygodne, może jednak komuś innemu - że podczas swej jazdy dokoła Libii mieli słońce po prawej stronie. Tak poznano po raz pierwszy tę część ziemi”. Uczciwy dziejopisarz Herodot umieścił w swej relacji wzmiankę o tym, że Fenicjanie opowiadali o słońcu po ich prawej stronie - co było sprzeczne z całą ówczesną wiedzą. Dziś wiemy, że ta niewiarygodną dla Herodota relacja jest właśnie dowodem, iż Fenicjanie znaleźli się daleko na południe od równika i opłynęli Afrykę, bo tam właśnie płynąc na zachód widzi się słońce z prawej. Jeśli więc obecnie (czy w przyszłości) zetkniemy się z wydarzeniami czy relacjami zdawałoby się niewiarygodnymi, to nie należy ich odrzucać tylko z tego powodu. Może za lat 50, 100 czy 2000 ktoś inny będzie mógł sprawdzić naszą prawdomówność. Poświęcam temu zagadnieniu tyle miejsca, gdyż w dalszej części chcę przejść do omawiania tematów z dziedziny parapsychologii, tematów kontrowersyjnych i „drażliwych”, które wielu sceptycznie nastawionych badaczy odrzuca a priori. Jeżeli są jakieś powody, dla których ten sceptycyzm jest uzasadniony, to na pewno nie ten, że relacje mogą się wydawać nam niewiarygodne.
22
Pascal otrzymawszy list od Pèriera był, jak pisze, zachwycony. Przekonawszy się o wielkości efektu, której nie mógł przedtem ocenić, wykonał pomyślnie doświadczenie z rurką Torricellego w Paryżu, wchodząc na wieżę Saint-Jacques de-la-Boucherie o wysokości 25 tuazów i potwierdził ilościowo zależność wysokości słupka rtęci od wzniesienia znalezioną, przez Pèriera. 23 Libia – wówczas taką nazwę nosiła Afryka.
Zanim jednak przejdę do omawiania tych zagadnień, chcę przytoczyć ciekawą opinię znanego fizyka radzieckiego Piotra Kapicy o niespodziewanych odkryciach w fizyce [103]. W wykładzie podczas międzynarodowego sympozjum na temat planowania nauki (Praha, 1959 r.) Kapica zdefiniował odkrycia zasadniczo nowych rzeczy jako takie, których w żaden sposób nie można przewidzieć w całości ani też wyjaśnić w ramach istniejących koncepcji. Zdaniem Kapicy w ostatnich dwustu latach takich odkryć było zaledwie osiem: 1) Odkrycie prądu elektrycznego przez Galvaniego (1780); nie mogło być ono przewidziane w ramach ówczesnych poglądów o naturze elektryczności. 2) Odkrycie działania prądu elektrycznego na igłę magnetyczną przez Oersteda (1820); odkrycie indukcji elektromagnetycznej przez Faradaya można było, zdaniem Kapicy, przewidzieć po 1820 r., więc nie zalicza się ono do odkryć rzeczy niespodziewanych. 3) Odkrycie zjawiska fotoelektrycznego przez Heinricha Hertza (1887). 4) Negatywny wynik doświadczenia Michelsona-Morleya (1887), w którym próbowano stwierdzić ruch Ziemi względem eteru. 5) Odkrycie promieniotwórczości przez Becquerela (1896). 6) Odkrycie elektronu przez Josepha Johna Thomsona (1897). 7) Odkrycie promieniowania kosmicznego przez Hessa (1912). 8) Odkrycie rozszczepienia jądra uranu przez Hahna i Strassmanna (1938). Kapica zauważa, że częstość takich odkryć nie maleje z czasem, wobec czego w przyszłości należy się spodziewać następnych. Nie wiem - mówi Kapica - czego będą te odkrycia dotyczyły, gdyż przecież mają to być odkrycia rzeczy nowych i niespodziewanych. Ale tak jak te wymienione z pewnością otworzą zupełnie nowe dziedziny badań w fizyce. Jak wspomniałem, w dalszej części tych rozważań chcę zająć się zagadnieniami kontrowersyjnymi, które leżą na granicy współczesnej nauki, na granicy nieznanego. Zagadnień takich jest szereg [104], ale chyba największe zainteresowanie i emocje budzą: parapsychologia i problem UFO. Powstaje od razu pytanie, czy problemy te mają jakikolwiek związek z fizyką i czy fizycy powinni mieć do nich jakiś stosunek. Sądzę, że tak. Po pierwsze, fizycy dysponują najlepszą metodą naukową, o czym świadczy nie tylko szybki postęp w samej fizyce, ale także w tych pozostałych dziedzinach nauki, które tę metodę wprowadziły (np. biologia); jeśli więc ma dojść w przyszłości do poznania i rozwiązywania wymienionych zagadnień, to stanie się to chyba właśnie z pomocą narzędzi i metod badawczych fizyki. Po drugie, fizyka - jako nauka o przyrodzie - ma nie tylko prawo, lecz wręcz obowiązek wypowiadania się o tych zagadnieniach. Po trzecie wreszcie, jako uczeni mamy obowiązek dialogu ze społeczeństwem, popularyzacji, wskazywania na błędy metodologiczne, oddzielania osiągnięć naukowych od pseudonauki. Zacznijmy od parapsychologii. Na wstępie trzeba powiedzieć, iż nie ulega w tej chwili żadnej wątpliwości istnienie związku między stanem psychicznym człowieka i pewnymi właściwościami fizycznymi jego organizmu. Zostało to wykazane w wielu doświadczeniach, z których przytoczę wyniki uzyskane przez Wallace'a i Bensona z Uniwersytetu Harwardzkiego [105]. Przeprowadzili oni badania nad ludźmi mającymi zdolność wpadania w trans, tzw. stan głębokiej medytacji. Oto parę wyników: 1) Opór elektryczny skóry zwiększa się podczas transu około dziesięciokrotnie od prawie 30 000 omów do ponad 300 000 omów; zachodzi to w ciągu mniej więcej 20 minut, a następnie w podobnym czasie następuje spadek do poziomu normalnego (rys. 21).
2) Kilkakrotnie wzrasta natężenie mózgowych fal „alfa” (o częstości 8-9 cykli na sekundę) rejestrowanych za pomocą encefalografu (rys. 22). 3) Częstość oddechów spada od około 14 do 10-11 na minutę, w związku z czym zmniejsza się zużycie tlenu od 250 do 210 cm3/min, natomiast stosunek ilości wdychanego tlenu do wydychanego dwutlenku węgla pozostaje stały. 4) Ciśnienie krwi jest stosunkowo niskie, ale nie wykazuje zmian. 5) Zawartość mleczanu w krwi spada o blisko 40%, trzykrotnie więcej niż podczas zwykłego spoczynku.
Rysunek 21 Gwałtowny wzrost oporu elektrycznego skóry w czasie medytacji (20-40 min) wg Wallace'a i Bensona [105]
Rysunek 22 Wzrost natężenia fal „alfa” w czasie medytacji (20-40 min) wg Wallace'a i Bensona [105]
Wyniki te wyraźnie wskazują, że człowiek potrafi swą psychiką zmieniać niektóre parametry fizyczne i chemiczne swojego organizmu. Inny wynik dotyczy badań zmęczenia pacjenta w stanie hipnotycznym. Doświadczenie polegało na tym, że badany miał ściskać z pewną częstością w dłoni dynamometr. Wskutek zmęczenia mięśni siła,
jaką badany wywiera na dynamometr, zmniejsza się stopniowo. Okazuje się jednak, że człowiek w stanie hipnozy wykazuje znacznie mniejsze zmęczenie: siła nacisku na dynamometr ustala się na poziomie około 80% wartości przy pierwszym ściśnięciu, podczas gdy dla osoby na jawie siła ta spada równomiernie (rys. 23). Innym udowodnionym efektem jest, że niektórzy ludzie potrafią siłą woli nie tylko usuwać wrażenie bólu, lecz także wstrzymywać krwawienie przy przekłuwaniu ręki igłą (fot. 41).
Rysunek 23 Wyciskanie dynamometru przez osobę w stanie normalnym (N) i w stanie hipnozy (H) wg Eysencka
Od omawianych zagadnień jest jednak dość daleko do parapsychologii24. Zjawiska parapsychologiczne lub paranormalne obejmują takie zagadnienia, jak: 1) telepatia, czyli bezpośrednie przekazywanie lub odczytywanie myśli lub uczuć, 2) telestezja, potocznie zwana jasnowidzeniem, 3) telekineza lub psychokineza, czyli przekazywanie na odległość siły fizycznej i jej mechaniczne oddziaływanie na ciała żywe i martwe, 4) postrzeganie pozazmysłowe, czyli postrzeganie przedmiotów i zjawisk bez pośrednictwa znanych nam zmysłów wzroku, dotyku, słuchu, smaku i powonienia (np. odgadywanie na odległość wyniku rzutu kostką do gry). Jak powiedziałem, nie można z góry negować wszystkiego, co dotyczy możliwości istnienia tych zjawisk. Parapsychologia stawia sobie za zadanie eksperymentalne potwierdzenie lub zaprzeczenie ich istnienia. Jak pisze Wasiliew [106]:
24
Grecki przedrostek para oznacza obok; parapsychologia zajmuje się wiec zagadnieniami, które znajdują się obok (poza) tradycyjnie pojmowanej psychologii.
„Wyrzeczenie się żmudnego, eksperymentalnego sprawdzenia tych zjawisk mogłoby być poczytane za przyznanie się do bezsilności metody naukowej i tym samym przyczyniłoby się do rozpowszechniania przesądów”. Badania parapsychologiczne są niezwykle trudne, pod względem metodologicznym przypuszczalnie znacznie przewyższają trudnością wszystko, co do tej pory badano w fizyce. Pierwszy powód, dla którego tak jest, wynika stąd, że w parapsychologii człowiek jest zarówno przedmiotem badań, jak i obserwatorem; chociaż bowiem posługuje się bezosobowymi przyrządami, do niego należy ocena ich wskazań. Ten efekt nastręcza wiele nieprzewidzianych trudności. Jeden z przykładów podaje w swej książce Gardner [107]. Otóż w 1952 r. Richard Kaufman z Uniwersytetu Yale przeprowadził eksperyment nad psychokinezą, w którym chodziło o sprawdzenie, czy osoba eksperymentatora może wpływać swą psychiką na wynik rzutu kostką. W eksperymencie brało udział 8 osób, które zapisywały wyniki z 40 kolejnych rzutów kostką każda, nie wiedząc, że ukryty aparat fotografuje cały tok doświadczenia. Okazało się, że 4 osoby, które wierzyły w istnienie psychokinezy, robiły błędy na jej korzyść, natomiast cztery pozostałe, nastawione sceptycznie, myliły się w przeciwną stronę. Natomiast świadectwo aparatu fotograficznego było zgodne z rachunkiem prawdopodobieństwa. Podobne efekty znaleziono też w innych próbach. Gardner komentuje to następująco: „Błędy tego rodzaju niekoniecznie muszą być świadomym fałszem. W podnieceniu i napięciu takiej pracy umysł może płatać dziwne figle i łatwo jest zrozumieć, jak błędy mogą być kierowane czyjąś skłonnością. Nawiasem mówiąc, te błędne zapisy na korzyść będą bardziej prawdopodobne na początku seansu, kiedy zainteresowanie i nadzieja sukcesu są u szczytu; potem opadają, gdy zmęczeni i znudzeni rejestratorzy zaczynają robić błędy przypadkowe”. Drugim powodem trudności badań parapsychologicznych jest sprawa powtarzalności wyników. Fizycy zwykle mówią, że zajmują się badaniem zjawisk powtarzalnych. To zdanie należy właściwie rozumieć, gdyż inaczej łatwo o nieporozumienie i wyciąganie błędnych wniosków. Powtarzalność zjawiska oznacza dosłownie, że przy kolejnym jego wystąpieniu wszystkie czynniki zewnętrzne, mogące mieć wpływ na jego przebieg, są identyczne jak poprzednio. Otóż powtarzalność w tym dosłownym sensie w fizyce nie występuje. Chodzi zaś naprawdę tylko o to, by czynniki zewnętrzne były na tyle zbliżone przy kolejnym przebiegu zjawiska, by ewentualne różnice ich wpływu na zjawisko były zaniedbywalnie małe w porównaniu z dokładnością odczytów przyrządów pomiarowych. Zwróćmy jednak uwagę na to, że w stwierdzeniu tym kryje się milczące założenie, iż wszystkie czynniki zewnętrzne są nam znane. A to oznacza, że na tyle rozumiemy zjawisko, tzn. mamy jakąś teorię, iż te istotne czynniki potrafimy wymienić, a nieistotnymi się nie zajmować. Oczywiście nie ma mowy o powtarzalności zjawisk, kiedy stoimy na progu nieznanego. Wystarczy przypomnieć sobie parę przykładów wymienionych na początku tego rozdziału. Fermi przecież nie podejrzewał na początku, iż wyniki eksperymentu zależą od tego, czy przyrządy stoją na stole drewnianym, czy na marmurowej konsoli; Rutherford nie wiedział, że istotnym czynnikiem jest sprawa otwarcia czy zamknięcia drzwi do pracowni! Jak widać zatem, powtarzalność zjawisk możemy osiągnąć właściwie dopiero wówczas, gdy prowadzimy badania w dziedzinie już dość dobrze znanej.
Sprawa nie wygląda jednak tak beznadziejnie, jak można by sądzić. Kiedy mówimy o badaniu zjawisk powtarzalnych, mamy na myśli zjawiska, w których przebiegu można się doszukać pewnych regularności. Weźmy na przykład ruchy planet. Otóż położenia planet na niebie nie są zjawiskiem ściśle powtarzalnym (patrz rys. 15), a mimo to Kepler potrafił na podstawie ich analizy sformułować swe prawa. Położenia Słońca, Księżyca i Ziemi nigdy się dokładnie nie powtarzają, a mimo to np. zaćmienia Słońca uważamy za zjawiska powtarzalne, choć zachodzą w bardzo różnych częściach naszego globu - znamy bowiem dostatecznie dobrze ich parametry z teorii i potrafimy je przewidywać. Podobnie nie ma na świecie dwóch identycznych piorunów, a mimo to pioruny uważamy za zjawiska powtarzalne, gdyż potrafimy doszukać się w nich pewnych prawidłowości. Jeśli ktoś prowadzi badania fizyczne np. przewodnictwa kryształów, to dba o zachowanie tych samych (w znaczeniu: bardzo podobnych) warunków doświadczenia, a więc temperatury, oświetlenia, wilgotności, pól elektrycznych i magnetycznych itp., natomiast nie interesuje się tym, co jego współpracownicy jedli na śniadanie. Tymczasem w badaniach np. telekinezy czy telepatii jadłospis badacza nawet z poprzedniego dnia może mieć przecież istotne znaczenie! Po prostu nie wiadomo o tych zjawiskach tyle, by móc odróżnić czynniki istotne od nieistotnych. Czy to oznacza, że badań parapsychologicznych nie można w ogóle prowadzić? Nie! Przypomnijmy sobie, że tak proste zjawiska fizyczne jak oddziaływanie elektrostatyczne potartych ciał przez dwa tysiące lat uchodziły za kapryśne, ale w końcu udało się je poznać i zaliczyć do powtarzalnych25. Następnym powodem trudności badań parapsychologicznych jest to, że wymagają one uczciwego i bardzo precyzyjnego opracowania statystycznego w celu wydzielenia sygnału z potężnego tła szumu. Pojedyncze wydarzenia nie przedstawiają dla badaczy wartości naukowej, choć w niektórych przypadkach mogą one nasuwać przypuszczenie, że zaszło zjawisko telepatii lub telestezji. Nie mogą być to, rzecz jasna, przypadki takie, w których chodzi o odgadnięcie lub przewidzenie rzeczy bardzo typowych. Dla ilustracji tego, co mam na myśli, weźmy wyimaginowany przykład, w którym dwaj ludzie - „nadawca” i „odbiorca”, umawiają się, że „odbiorca” będzie się starał odgadywać na odległość, co robi „nadawca” rano o ósmej. Jeśli „odbiorca” powie: „Mój towarzysz je na śniadanie jajka i popija mlekiem” i okaże się to zgodne z prawdą, to z dużym prawdopodobieństwem mógł to być przypadek, gdyż zwykle około ósmej wielu ludzi je śniadanie, a jajka i mleko należą często do menu. O niebezpieczeństwie podobnej łatwowierności wiedziano już dość dawno temu. Oto w Dziejach niezastąpionego Herodota (str. 40) znajdujemy opis takiego wydarzenia. Król Lidii Krezus chciał sprawdzić prawdomówność wyroczni helleńskich, wysłał więc do kilku z nich swych posłów przykazując im, aby dokładnie liczyli dni podróży, a w setnym dniu zwrócili się do wyroczni z pytaniem: Co lidyjski król Krezus teraz właśnie robi? Wysłańcy potem mieli odpowiedź poszczególnych wyroczni spisać i przynieść Krezus owi. Krezus zaś w rozstrzygającym dniu umyślił wykonać coś bardzo mało prawdopodobnego: wziął mianowicie żółwia i jagnię, pokrajał na kawałki i ugotował razem w spiżowym kotle ze spiżową pokrywką. Okazało się, że tylko wyrocznia delficka dokładnie odgadła czynności Krezusa. Dalszy ciąg tej historii przekazanej przez Herodota ma aspekt nieco humorystyczny. Oto Krezus, uznając że dysponuje wszechwiedzącą wyrocznią, zadał jej po jakimś czasie pytanie, co się stanie, jeśli wyprawi się na Persów. Odpowiedź wyroczni brzmiała: 25
Nawet jednak obecnie uzyskanie powtarzalności doświadczeń elektrostatycznych jest problemem bardzo trudnym, o czym doskonale wiedzą wykładowcy fizyki i studenci.
zniweczy wtedy wielkie państwo. Krezus uznał to za zapowiedź zniszczenia państwa perskiego i z ochotą rozpoczął wojnę, którą przegrał sromotnie - wyrocznia bowiem i tym razem się nie myliła, ale na myśli miała jego własne państwo. Dodatkowym niebezpieczeństwem w rozważaniu podobnych przypadków, których wiele powtarza prasa, a często nawet poważniejsze źródła, jest że przez powtarzanie relacji narasta wokół nich fama cudowności, utrudniająca odtworzenie prawdziwego przebiegu wydarzeń. Brytyjski psycholog Eysenck, zresztą bardzo przychylnie nastawiony do parapsychologii, cytuje w swej książce [108] taki oto, wiele dający do myślenia przykład: „(...) Sir Edmund Hornby był naczelnym sędzią Najwyższego Sądu konsularnego w Chinach i Japonii. Zgodnie z jego relacją, opublikowaną przez Towarzystwo Badań Parapsychologicznych w 1884 r., pewien reporter odwiedzał go zwykle w godzinach wieczornych, zabierając wyroki sądowe z danego dnia, tak aby można je było opublikować nazajutrz w gazecie. Pewnej nocy Sir Hornby obudził się na skutek pukania do drzwi. Do pokoju wszedł wspomniany reporter, śmiertelnie blady. Zbliżył się do jego łóżka i w sposób uprzejmy, ale zarazem jakby z rozpaczliwym naleganiem żądał od sędziego ustnego resume z przebiegu procesów tego dnia. Sir Edmund uczynił zadość naleganiom dziennikarza, który wkrótce potem opuścił jego dom. Spojrzawszy na zegarek, Sir Edmund stwierdził, że jest wpół do drugiej w nocy. Pani Hornby obudziła się również i mąż opowiedział jej o całym tym wydarzeniu. Następnego dnia Sir Hornby dowiedział się, że dziennikarz ten umarł tej właśnie nocy. Jeszcze o godzinie 12.45 widziano go, jak pisał, a o wpół do drugiej żona jego stwierdziła, że nie żyje. Obok ciała znaleziono notatnik, w którym zapiski urywały się na tytule do artykułu na temat wyroków. Najprawdopodobniej dziennikarz umarł na atak serca i -jak stwierdzono -- nie mógł on wychodzić z domu tej nocy. Mamy więc mrożącą krew w żyłach historię, opowiedzianą przez wysoce wiarygodnego świadka. Tymczasem, jak się w jakiś czas potem okazało, dziennikarz, o którym mowa, umarł między ósmą a dziewiątą rano, przy czym dzień poprzedzający jego śmierć był dniem, w którym sędzia nie rozpatrywał żadnych spraw. Ponadto śmierć jego nastąpiła na trzy miesiące przed ślubem Sir Edmunda Hornby. Słysząc o tych faktach, których prawdziwość była nie do obalenia, Sir Edmund przyznał, że pamięć musiała mu spłatać figla. Nie wydaje się prawdopodobne, by Sir Edmund specjalnie wymyślił taką historię i pozwolił na jej opublikowanie wiedząc, że jest nieprawdziwa i że będzie wokół niej dużo hałasu. Wydaje się raczej, że istotnie miał wizję zmarłego dziennikarza, zaś różne interesujące szczegóły były do niej stopniowo dodawane, tak że w końcu wydarzenie uległo w jego pamięci całkowitej j przemianie. U każdego człowieka może wystąpić tego rodzaju zniekształcenie wspomnień, szczególnie gdy chodzi o jakieś silne przeżycie emocjonalne (...)”. W książkach poświęconych parapsychologii można znaleźć wiele innych przykładów podobnych przeinaczeń. Trudno więc nie zgodzić się ze zdaniem Eysencka, który konkluduje, że: „Świadectwo jednego człowieka, nawet najbardziej autorytatywnego, nie może być więc przyjmowane za dowód wystąpienia zjawisk spirytystycznych”. Pozostaje więc droga żmudnej analizy statystycznej bardzo wielkiej liczby prób przeprowadzonych w warunkach kontrolowanych. Jednym z pionierów ilościowych badań parapsychologicznych był dr
Joseph Banks Rhine (fot. 42) z Uniwersytetu Duke w Północnej Karolinie (USA), który przed ponad 50 laty rozpoczął tam znane dziś powszechnie doświadczenia z odgadywaniem kart opracowanych przez dr. Zenera z tegoż uniwersytetu. Karty Zenera, zawierające pięć łatwych do rozróżnienia symboli (rys. 24), dawano nadawcy w postaci potasowanej talii (zwykle 5 x 5 = 25 kart). Nadawca miał, zgodnie z umową, odkrywać w uzgodnionym tempie po jednej karcie i próbować przekazać telepatycznie informację o symbolu do odbiorcy, który siedział W innym pokoju lub gmachu i miał w tymże tempie zapisywać swe odgadnięcia.
Rysunek 24 . Karty Zenera
Rhine wykonał kilkaset tysięcy podobnych prób z różnymi osobami i opublikował wyniki, z których wynikało, że u niektórych osób liczba trafień znacznie przewyższała wartość oczekiwaną z rachunku prawdopodobieństwa. Z rachunku tego wynika, że oczekuje się średnio 5 trafnych odgadnień na 25 kart. Ponadto można obliczyć prawdopodobieństwo P odgadnięcia n kart posługując się wzorem Bernoulliego:
gdzie N jest liczbą prób (w tym przypadku N=25), a p - prawdopodobieństwem przypadkowego sukcesu (tutaj 1/5). Wyniki są zamieszczone poniżej: Liczba kart odgadniętych 0 1 2 3 4 5 6 7 8 9 10 11 12 13
prawdopodobieństwo 0,0038 0,0236 0,0708 0,1358 0,1 $67 0,1960 0,1634 0,1108 0,0624 0,0294 0,0118 0,0040 0,0012 0,0003
Gdybyśmy więc wykonali 10 000 prób z talią 25 kart, to najczęściej, bo średnio w 1960 próbach, należałoby oczekiwać odgadnięcia przypadkowego 5 kart, odgadnięcie np. 11 kart powinno wystąpić w 40 próbach, a przypadkowe odgadnięcie 13 kart - tylko w 3 próbach na 10 000. Im większa liczba n, tym mniejsze prawdopodobieństwo. I tak np. szansa, że przez przypadek odgadnięte zostanie wszystkie 25 kart wynosi zaledwie 3 • 10-18, co oznacza 3 takie trafienia na 1018 prób. O znikomości tej liczby może świadczyć następujący przykład: gdyby wykonywać próby z talią 25 kart w zawrotnym tempie dwóch doświadczeń na sekundę przez 15 miliardów lat (oceniany wiek Wszechświata), to w tym czasie dokonalibyśmy 2 • 1,5 • 1010 • 3,1 • 107 ≈ 1018 prób: dopiero wtedy można by więc oczekiwać, że w trzech próbach przez przypadek odgadnięto wszystkie 25 kart! Wspominam, ten przykład dlatego, że według Rhine'a jedno z jego najbardziej uzdolnionych mediów, student Hubert Pearce, miał często bardzo wysokie liczby trafień, a raz osiągnął ich właśnie aż 25. Rhine podawał też przykłady wielu innych osób z niezwykłymi „uzdolnieniami psychicznymi”, osiągających wyniki, których szansa otrzymania przez przypadek jest astronomicznie mała. Dla osób mniej zaznajomionych z rachunkiem prawdopodobieństwa warto dodać istotne wyjaśnienie. Pojedyncze przypadki wystąpienia zdarzeń bardzo mało prawdopodobnych nie świadczą jeszcze o tym, że zadziałały jakieś siły zewnętrzne.. Najprościej przytoczyć przykład popularnej gry w brydża. Każdy brydżysta marzy o tym, aby otrzymać przy rozdaniu 13 kart jednego koloru, np 13 pików. Prawdopodobieństwo takiego przypadku jest bardzo małe i wynosi
, tzn.
przypadek taki zdarza się średnio raz na 635 013 559 600 rozdań (gdyby rozdawać karty raz na sekundę, .to taki przypadek zdarzałby się średnio raz na około 20 000 lat!). Weźmy jednak pierwszy lepszy „zwykły” rozkład ręki brydżowej, np. piki D W 6 3, kiery A 10 8 5 2, karo K 7, trefle 9 4. Prawdopodobieństwo takiego rozkładu wynosi także
, czyli jest to przypadek tak samo
prawdopodobny, jak otrzymanie 13 pików. Przy grze w brydża zatem zdarzają się same przypadki „mało prawdopodobne” i zapewne nikt z brydżystów nie miał jeszcze dwukrotnie w ręku identycznego układu 13 kart. Cytowana wartość prawdopodobieństwa odnosi się do tzw. zdarzenia elementarnego. Przy rzucie monetą zdarzeniami elementarnymi są: wyrzucenie orła lub reszki; każde z nich ma prawdopodobieństwo 1/2. Można więc powiedzieć, że otrzymanie 13 pików przy grze w brydża jest tak samo „zwykłe”, jak wyrzucenie orła w rzucie monetą lub szóstki w rzucie kostką. W. Weaver [109] komentuje te przykłady stwierdzając, że zdarzenie rzadkie może być interesujące (np. 13 pików) lub nie (inny „zwykły” rozkład). Wracając więc do odgadywania kart Zenera powiedzmy, że fakt pojedynczego odgadnięcia nawet dużej liczby kart sam przez się jeszcze nic nie znaczy. Jakkolwiek mało prawdopodobne jest zdarzenie, to kiedyś musi nastąpić, na przykład jako jedno z pierwszych zdarzeń w serii prób. W doświadczeniach Rhine'a chodziło więc o coś innego, o wybór ludzi, którzy stale uzyskują wyniki powyżej średniej oczekiwanej z rachunku prawdopodobieństwa. Doświadczenia Rhine'a były przedmiotem wielu krytycznych dyskusji. Bardzo dokładnie omawia te sprawy Hansel, do którego książki [110] odsyłam czytelników, chcących się zapoznać z tym zagadnieniem bardziej szczegółowo. Wspomnę tylko o dwóch sprawach. Po pierwsze, zastrzeżenie krytycznych badaczy budziły warunki, w jakich przeprowadzano doświadczenia z odgadywaniem kart. Zdaniem wielu, w próbach tych mogło dojść do oszustw. Oszustwa takie zostały udowodnione np.
w eksperymentach przeprowadzanych przez S.G. Soala z dwoma trzynastoletnimi chłopcami z Walii. Na nieszczęście Soal chcąc „wyzwolić moce psychiczne” premiował chłopców nagrodami pieniężnymi za uzyskiwanie dużych liczb prawidłowych odgadnięć. Chłopców przyłapano na oszustwie, gdyż dawali sobie niemal niewidoczne i niesłyszalne znaki. Hansel potwierdził możliwość niezauważalnych oszustw przeprowadzając w obecności świadków próby z uczennicami, którym dał tzw. „bezgłośny gwizdek” używany do przywoływania psów (dzieci mają podwyższony próg słyszalności, słysząc bardzo wysokie tony - słyszane także przez psy - niemożliwe do usłyszenia przez starszych). Przy posługiwaniu się tym gwizdkiem można było uzyskiwać bardzo wysokie liczby trafnych odgadnięć (np. 23 z 25 kart), przy czym świadkowie nie zauważyli żadnych oznak oszustwa i nie mieli pojęcia o tym, jak trik został przeprowadzony. Drugie zastrzeżenie to sposób wyławiania osób obdarzonych niezwykłymi zdolnościami. Rhine przeprowadził próby z kartami Zenera z grupą studentów, z której po pierwszym teście wybierał do dalszych osoby uzyskujące wyniki powyżej przewidywanej średniej. Następnie powtarzał tę procedurę aż do wybrania nielicznej grupy tych, którzy za każdym razem uzyskiwali wysokie liczby trafień. Niewłaściwość takiego postępowania jest oczywista. Wyobraźmy sobie przykład, w którym rzucamy 32 monetami. Ponieważ prawdopodobieństwo wyrzucenia orła i reszki jest jednakowe, więc średnio otrzymamy 16 orłów i 16 reszek. Wybieramy teraz do następnego rzutu tylko te monety, które za pierwszym razem dały orła. W drugim rzucie znów średnio połowa monet da orła. Jeśli będziemy tę procedurę powtarzali, biorąc zawsze do następnego rzutu monety, które dały orła, to możemy łatwo wybrać „cudowną” monetę, która np. 5 czy 6 razy z rzędu dała orła. Rhine twierdzi, że w jego doświadczeniach taka metoda była usprawiedliwiona, gdyż chciał właśnie wyselekcjonować osoby o niezwykłych uzdolnieniach. Gdyby na tym sprawa się skończyła,. to nie byłoby żadnych wątpliwości, że metoda jest statystycznie bezzasadna. Jednakże Rhine podaje, że wiele dalszych prób przeprowadzanych z wyselekcjonowanymi osobami dawało także wyniki odbiegające od średniej oczekiwanej z rachunku prawdopodobieństwa. Wyniki uzyskane przez Rhine'a (i innych nie wymienionych tu badaczy) budzą do dziś wiele krytyki. Na przykład cytowany już Hansel zajmuje w stosunku do tych doświadczeń stanowisko bardzo krytyczne pisząc: „Nie można kategorycznie twierdzić, że wyniki tych eksperymentów powstały za sprawą oszustwa, ale dopóty, dopóki możliwość taka istnieje, nie można uznać, że eksperymenty te spełniły zamierzenia swoich twórców i dały rozstrzygające świadectwo istnienia postrzegania pozazmysłowego”. Inni autorzy są nastawieni bardziej przychylnie26. Nie jest moim zamiarem szczegółowe ustosunkowanie się do realności zjawisk parapsychologicznych. Chciałbym jedynie - to jest przecież celem tej książki - ukazać ogromne trudności, jakie stoją przed badaczami w każdej nieznanej dziedzinie przyrodoznawstwa. A z przyczyn wyjaśnionych powyżej parapsychologia jest dziedziną o wiele trudniejszą niż wiele badań przyrody nieożywionej. Należy ponadto przestrzec Czytelników przed łatwowiernością, o jaką łatwo, gdy się czyta prace niektórych mało odpowiedzialnych entuzjastów.
26
Por.. bogaty przegląd literatury zamieszczony w pracach [111] i [112].
A teraz chciałbym - biorąc przykład z Herodota - zrelacjonować trzy niedawno wykonane eksperymenty, których wyniki są zaiste niezwykłe27. Autorem pierwszego eksperymentu [113] był fizyk niemiecki Helmut Schmidt pracujący w laboratorium badawczym firmy Boeing w Seattle (jak wiadomo, przemysłowe laboratoria badawcze w Stanach Zjednoczonych reprezentują bardzo wysoki poziom). Postanowił on sprawdzić eksperymentalnie, czy człowiek może wpływać na przebieg procesu rozpadu promieniotwórczego. Z punktu widzenia współczesnej fizyki pytanie takie nie ma sensu, gdyż uważa się, że procesy kwantowe nie podlegają prawom zwykłej przyczynowości i nie mogą być przewidywane w sensie klasycznym. A oto jak był wykonany eksperyment. Źródło promieniotwórcze, jakim była próbka strontu 90, wysyłało elektrony (z częstością średnio 10 na sekundę) rejestrowane przez licznik Geigera-Müllera. Inną częścią aparatury był generator wysokiej częstości wysyłający impulsy, które zmieniały ustawienie czteropołożeniowego przełącznika elektromechanicznego. Osoba badana siedziała przed pulpitem, na którym były cztery żarówki i odpowiednio cztery przyciski, ponumerowane cyframi 1, 2, 3, 4. Przed naciśnięciem przycisku żadna z żarówek się nie pali. Impulsy z generatora zmieniają z wielką częstością położenie przełącznika w sekwencji 1, 2, 3, 4, 1, 2, 3, 4... Po naciśnięciu przycisku nie dzieje się nic, dopóki następny elektron nie trafi do licznika Geigera-Mullera. W chwili trafienia przerwane zostaje połączenie generatora z przełącznikiem, który pozostaje w pozycji, w której znalazł się w chwili nadejścia elektronu do licznika; zapala się wówczas żarówka odpowiadająca temu położeniu przełącznika. Odpowiedni układ zliczający rejestruje trafienia, tzn. takie przypadki, w których numer zapalonej żarówki odpowiada numerowi naciśniętego uprzednio przycisku.
Rysunek 25 Wyniki badań H. Schmidta. Osoby badane są oznaczone inicjałami JB, OC i SC. Górna część rysunku odnosi się do starań o trafienia, a dolna - o „antytrafienia” [113] 27
Pamiętajmy jednak, że Herodot zamieścił w swym dziele także wiele relacji o faktach, o których wiemy obecnie, że z cała pewnością są nieprawdziwe.
Osoby badane miały za zadanie starać się przewidzieć numer zaświecającej się żarówki. Schmidt zbadał szereg osób, w tym takie, które twierdziły, że dysponują zdolnościami psychicznymi. Wyniki, które podaje, są niezwykłe (rys. 25). Niektóre osoby (Schmidt podaje tylko ich inicjały) mogły uzyskiwać wyniki przekraczające znacznie wartości oczekiwane z rachunku prawdopodobieństwa, i to zarówno w sensie trafień, jak i „antytrafień”, kiedy starały się wskazać tę żarówkę, która się nie zapali. Według Schmidta uzyskanie takich wyników przez przypadek mogłoby się zdarzyć zaledwie raz na 10 miliardów prób. Działanie aparatury sprawdzano posługując się liczbami przypadkowymi. Schmidt wykonał także wiele doświadczeń, w których używał skonstruowanego przez siebie generatora liczb przypadkowych i także doniósł o wynikach wskazujących na istnienie osób o szczególnych uzdolnieniach parapsychologicznych [114]. Drugi eksperyment został wykonany przez panią Gertrudę Schmeidler, profesora psychologii na uniwersytecie w Nowym Jorku (City University of New York). Badała ona medium, pana Ingo Swanna, który twierdził, że potrafi na odległość zmieniać siłą psychiczną temperaturę obiektów. W doświadczeniu użyto czterech termistorów, czyli przewodników zmieniających opór pod wpływem temperatury. Termistory połączono z automatycznymi urządzeniami do ciągłego zapisu temperatury. Urządzenia te były ustawione w różnych miejscach, w odległości do 8 metrów od miejsca, gdzie siedział Swann. W czasie niektórych testów termistory były umieszczone wewnątrz termosów w celu izolacji cieplnej od otoczenia, ustawiono także szyby szklane między medium i aparaturą. Swann próbował podwyższać lub obniżać temperaturę wskazanego (przypadkowo) termistora. Wyniki prób były rejestrowane automatycznie. Jak twierdzi w swej pracy [115] pani Schmeidler, Ingo Swann w wielu przypadkach mógł rzeczywiście zmieniać temperaturę wskazanego obiektu nawet o 1 stopień (wymagało to zwykle kilkudziesięciu sekund koncentracji medium). Zauważono przy tym korelację polegającą na tym, że podwyższeniu temperatury w jednym z termistorów towarzyszyło zwykle jej obniżenie w sąsiednim. Uzyskanie takich wyników przypadkowo wskutek szumów mogło się zdarzyć, zdaniem autorki, zaledwie raz na tysiąc podobnych eksperymentów. Trzecia praca, o której chcę opowiedzieć, została ogłoszona przez Harolda Puthoffa i Russela Targa w poważnym organie Instytutu Inżynierów Elektryków i Elektroników [112]. Puthoff i Targ (fot. 43) są znanymi fizykami, specjalistami w dziedzinie optyki nieliniowej i fizyki laserów, autorami cenionych prac i monografii. Od pewnego czasu zajęli się badaniami parapsychologii prowadząc je w laboratorium elektroniki i bioinżynierii w Stanford Research Institute w Kalifornii (wyjaśnijmy, że instytut ten nie ma żadnego związku ze znanym uniwersytetem w Stanford). Redakcja czasopisma, w którym ukazała się ta praca, opatrzyła ją komentarzem, w którym czytamy: „Wielka waga potencjalna tej pracy wpłynęła na naszą starannie przemyślaną decyzję publikacji w naszym czasopiśmie. Zdajemy sobie sprawę z tego, iż wielu naszych czytelników uzna tę decyzję za niewłaściwą, tak jak uczynił jeden z inżynierów, który zapytany przez nas o opinię odpowiedział: „To jedna z tych rzeczy, w które bym nie wierzył nawet, gdyby istniały”. Sądzimy jednak, że większość inżynierów elektryków i elektroników traktuje badania postrzegania pozazmysłowego jako uzasadnione przedsięwzięcie naukowe, niezależnie od ich osobistej wiary w sukces tych badań. Uważamy ponadto, że autorzy bardzo szczerze i sumiennie zaplanowali i opisali swój eksperyment. Ich praca zasługuje na rozważenie i obiektywną krytykę (...)”. A oto jak przeprowadzono eksperyment. W okolicy San Francisco wybrano ponad 100 miejsc z charakterystycznymi obiektami (np. kościoły, tunele, korty tenisowe, mosty, budynki). Do każdego
z tych obiektów można było dojechać z laboratorium samochodem w ciągu 30 minut. Nazwy obiektów zostały wypisane na pojedynczych kartach, zamkniętych następnie szczelnie w ponumerowanych kopertach. Ten bank obiektów znajdował się pod wyłączną kontrolą dyrektora jednego z laboratoriów, który poza tym nie brał udziału w eksperymencie. Dyrektor wybierał w sposób przypadkowy jakąś liczbę i otwierał kopertę oznaczoną tą liczbą. Kartę z nazwą obiektu otrzymywała wówczas grupa eksperymentatorów, która udawała się samochodem na wskazane miejsce, gdzie pozostawała przez 15 minut. W tym czasie inny eksperymentator zamknięty był wraz z medium w laboratorium; nie wiedział on oczywiście, która z kopert została wybrana przez dyrektora do eksperymentu. O oznaczonej godzinie, 30 minut po wyruszeniu eksperymentatorów do wybranego obiektu, medium pozostające w laboratorium zaczynało seans 15-minutowy, podczas którego chodziło o telepatyczne odgadnięcie miejsca, w którym znajduje się grupa. Badany człowiek mógł robić rysunki i zapisywać swoje wrażenia na taśmie magnetofonowej. W niektórych przypadkach okazało się, że medium bardzo trafnie odgadło miejsce pobytu zespołu wyjazdowego. Cały zebrany materiał był opracowany w ten sposób, że grupy niezależnych sędziów otrzymały wymieszane opisy i rysunki wykonane przez medium i miały na tej podstawie ustalić, do którego z obiektów (ich listę otrzymali też wymieszaną) odnosi się dany opis. Puthoff i Targ stwierdzają w swym artykule, że uzyskane przez nich wyniki dowodzą istnienia telepatii (patrz fot. 44 i 45). Rzeczywiście, czytając ich pracę trudno znaleźć jakiś słaby punkt w metodyce, w każdym razie na podstawie dostępnego w pracy opisu. A jednak niedawno wyniki Puthoffa i Targa zostały bardzo ostro skrytykowane przez nowozelandzkich psychologów, D. Marksa i R. Rammanna [116]. Mieli oni okazję zapoznać się ze wszystkimi oryginalnymi materiałami z tego eksperymentu, np. nagraniami z rozmów zamkniętych w laboratorium medium i eksperymentatora. Okazuje się, że, dopuszczono się poważnych błędów metodycznych (np. przekazywano sędziom listy obiektów w kolejności wizytowania - wbrew temu, co pisali Puthoff i Targ w swej pracy; pozostawiono w zapisie magnetofonowym pewne wskazówki w rodzaju zdań: to już dziś drugi obiekt), które mogły wpłynąć na pracę sędziów i umożliwić im przypisanie zapisów obiektom bez oglądania się na wrażenia medium. Marks i Kammann stwierdzają w swym artykule, że ich własne długie badania, przeprowadzone w poprawny metodologicznie sposób, przyniosły wynik negatywny na temat możliwości telepatii (pamiętajmy jednak, że media były inne). Czy ewentualna łączność telepatyczna może się odbywać za pomocą fal elektromagnetycznych wysyłanych przez mózg? Na to pytanie próbowało odpowiedzieć wielu badaczy, ale niestety wyniki przez nich uzyskiwane są sprzeczne. Argumenty za odpowiedzią twierdzącą na postawione pytanie uzyskali np. F. Cazamalli (patrz [106]) i S. Manczarski [117], podczas gdy inni, jak L. Wasiliew [106] czy E. Balanovski i J. G. Taylor [118] doszli do przeciwnego wniosku. Ciekawa jest zwłaszcza praca Balanovskiego i Taylora. Taylor, matematyk z Uniwersytetu Londyńskiego, od dawna interesował się parapsychologią i stał się znany także jako autor książek i prac na ten temat. Odnosił się on entuzjastycznie (niektórzy twierdzą, że także bardzo bezkrytycznie) do różnych „mediów” w rodzaju osławionego Uri Gellera. Praca ogłoszona w „Nature” przynosi podsumowanie prac eksperymentalnych prowadzonych w szerokim zakresie zjawisk parapsychologicznych. Autorzy prowadzili swe badania z niezwykłą ostrożnością i starannością i doszli do wielu ciekawych wniosków. Stwierdzili np., że rzekome efekty psychokinezy (obracanie „siłą psychiczną” igły zamkniętej w plastykowym walcu) były wywoływane zjawiskami elektrostatycznymi i znikły, gdy zastosowano znane płyny antystatyczne. W innym
przypadku obrót słomki pod szklaną pokrywą był wywołany przez zwykłe prądy konwekcyjne, a nie przez „siły psychiczne”. Podobnie było z rzekomym zginaniem łyżeczek na odległość: udawało się to badanym mediom tylko wówczas, gdy nie poddawane były ścisłej kontroli, natomiast nie wystąpiło ani razu, gdy np. rejestrowano przebieg doświadczenia na taśmie filmowej z uprzednim zawiadomieniem o tym medium. Taylor i Balanovski nie wykryli też żadnego promieniowania elektromagnetycznego od mediów i „uzdrawiaczy”, mimo stosowania niezwykle czułych detektorów pracujących w bardzo szerokim zakresie częstości; konkludują zatem, że efekty lecznicze muszą być spowodowane przez psychologiczny wpływ „uzdrawiacza” na pacjenta, a nie żadne tajemnicze „siły psychiczne”. Nietrudno przyjąć takie wyjaśnienie, jeśli się pamięta o doświadczeniach Wallace'a i Bensona omawianych powyżej. Balanovski i Taylor próbowali też sprawdzić, co kryje się za uczuciami „fal gorąca” lub „zimna”, o jakich donosili ludzie, którzy mieli kontakt z „uzdrawiaczami”. I znów, mimo użycia czułych detektorów, nie udało się stwierdzić żadnego mierzalnego efektu zmiany temperatury mimo starań „uzdrawiaczy”, by takie „fale” wytwarzać i zeznań pacjentów, że je odczuwają. Wrażenia ciepła i zimna mają więc w tym wypadku także podłoże czysto psychologiczne. Ten wynik Balanovskiego i Taylora nie zgadza się z poprzednio opisanym wynikiem pani Schmeidler, ale trzeba pamiętać, że medium było różne. John Taylor prowadził swoje badania nad zjawiskami paranormalnymi przez wiele lat. Ich wyniki opisał niedawno w obszernej książce Nauka i zjawiska nadnaturalne [119]. Zacytujmy kilka zdań z przedmowy: „W ostatniej dekadzie wyroiła się lawina książek o zjawiskach nadnaturalnych. Rasa ludzka zdaje się posiadać wielkie pragnienie nieznanego, dziwnego, mrożącego krew w żyłach. Wszystkie te książki zaspokajają ten apetyt jeszcze bardziej mrożącymi krew historiami przedstawianymi jako prawdziwe. Niniejsza książka nie należy do tego nurtu. Jest to natomiast relacja z usiłowań naukowca, który starał się sprawdzić, czy zjawiska nadnaturalne rzeczywiście istnieją. Jaka jest prawda w tych wszystkich opisach? Czy rzeczywiście zjawiska zachodzą tak, jak to jest w opisach nadnaturalnych? Czy też to tylko sprawa ludzkiej łatwowierności, omylności, bojaźni i chciwości, które powodują, że zjawiska naturalne są zupełnie zniekształcane i błędnie tłumaczone? Innymi słowy, czy zjawiska nadnaturalne to tylko stek kłamstw? Rozpocząłem moje badania spostrzegania, pozazmysłowego (w oryginale: ESP - przyp. A. W.), ponieważ sądziłem, że coś w tym może być. Wydawało się, że jest zbyt wiele dowodów pochodzących od zbyt wielu wiarygodnych ludzi, aby to wszystko nie miało wartości, lecz właśnie to okazało się w rezultacie moich badań. Każde zjawisko nadnaturalne rozsypywało się w proch przed mymi oczyma. Właśnie dlatego nadałem tej książce jej obecny tytuł. Ale mogłaby być ona równie dobrze zatytułowana „Naturalne zjawiska nadnaturalne” lub „Kłamliwe zjawiska nadnaturalne”; pierwszy tytuł wskazywałby, że na końcu mych badań natura zwyciężyła, a drugi - że błędy i oszustwa stawały się dla mnie coraz bardziej istotne w ocenie zjawisk nadnaturalnych”. Badania Taylora i jego współpracowników, E. Balanovskiego, R. Ibrahima i A. Smitha, miały bardzo szeroki zakres: obejmowały telepatię, jasnowidztwo, psychokinezę, różdżkarstwo, uzdrawianie „psychiczne” i inne. Poza doświadczeniami laboratoryjnymi Taylor studiował również źródła przynoszące informacje o zjawiskach ponadnaturalnych, jego książka jest więc obszernym źródłem informacji i odnośników do literatury przedmiotu.
W przytoczonych wyżej słowach Taylora wyczuwa się głębokie rozczarowanie. Jak wspomniałem wyżej, był on entuzjastą zjawisk paranormalnych, napisał nawet książkę pod tytułem Superminds (Superumysły) o „cudownych” dzieciach potrafiących „siłą psychiczną” zginać łyżeczki i pręty metalowe. Gdy znany iluzjonista amerykański James Randi uświadomił mu, jak łatwo można ulegać złudzeniom i gdy mnożyły się dowody, że osławiony Uri Geller jest tylko zręcznym szarlatanem, Taylor stał się bardziej ostrożny i poświęcił się badaniom w warunkach ściśle kontrolowanych. Negatywne wyniki tych badań jak również krytyczne studia nad danymi przytaczanymi w literaturze nastroiły Taylora całkowicie sceptycznie. W tej chwili zajmuje on zupełnie negatywne stanowisko wobec zjawisk paranormalnych, pisząc lapidarnie w zakończeniu swej książki: „ESP is dead” (w wolnym tłumaczeniu: zjawiska paranormalne nie istnieją). Inni badacze nie zajmują tak skrajnie negatywnego stanowiska. Jako przykład wymienię tu Roberta Jahna, dziekana Wydziału Inżynierii i Nauki Stosowanej na Uniwersytecie Princeton. Ogłosił on niedawno obszerny artykuł [120], w którym poza obszerną historią badań zjawisk paranormalnych przytacza metodykę i niektóre wyniki własnych doświadczeń w tej dziedzinie. Jahn używał m.in. interferometru Fabry-Perota, czułego mostka termistorowego i czułych technik elastooptycznych do badań mających na celu sprawdzenie, czy rzeczywiście człowiek może „siłą psychiczną” wywoływać na odległość mierzalne obiektywnymi metodami efekty fizyczne; opisuje też szereg prób powtórzenia doświadczeń Puthoffa i Targa (patrz wyżej) przez innych autorów. Jahn ostrożnie konkluduje, że mimo braku powtarzalności wyników i ich częstej niespójności badania w tej dziedzinie są usprawiedliwione pod warunkiem jednak, że będą to badania przeprowadzane nienagannie pod względem technicznym i metodologicznym i będą dotyczyły znacznie bogatszych liczbowo próbek. Jahn przyznaje także, że „(...) Przez swą naturę dziedzina ta jest niezmiernie narażona na łatwowierność i wykorzystywanie w celach oszukańczych; rzeczywiście, jedno i drugie zdarza się niebezpiecznie często. Prawdą jest także, że temat ten przyciągnął nieproporcjonalnie dużą liczbę badaczy niekompetentnych. Jednak pomimo zasadniczej słuszności tych twierdzeń oraz podejrzeń, jakie nieuchronnie rzucają one na wszystkie inne rezultaty, nie wydaje się, żeby można było orzekać o kategorycznym odrzuceniu całego tego pola badań”. Z tym wyważonym zdaniem Jahna można się zgodzić bez zastrzeżeń. Gdy w 1900 r. .zmarł znany angielski filozof Henry Sidgwick, jeden z założycieli i pierwszy prezes Towarzystwa Badań Psychicznych (Society for Psychical Research), inny znany działacz tego Towarzystwa, Frederic Myers, napisał we wspomnieniu pośmiertnym, że nie można zaprzeczyć, iż czasami parapsychologia potrzebuje bardziej obrony przed jej tak zwanymi zwolennikami niż przed obiektywnymi krytykami [121]. To paradoksalne sformułowanie zachowuje aktualność do dziś we wszystkich krajach. Jako przykład przytoczę tu wyjątek z artykułu badaczy radzieckich [122]: „W ostatniej dekadzie w naszym kraju opublikowano około 500 artykułów na temat różnych zagadnień parapsychologii; W większości były to marne doniesienia o źle przeprowadzonych »eksperymentach«, które nie zasługują w ogóle na uwagę. Autorzy tych artykułów nie zadali sobie trudu, aby spełnić kryteria poprawności eksperymentów sformułowane przez samych parapsychologów...” Autorzy cytowanego artykułu przytaczają wiele przykładów szeroko reklamowanych eksperymentów parapsychologicznych, które rzekomo miały przynieść bardzo znaczące pozytywne rezultaty, jak np.
telepatyczne przesyłanie informacji w 1966 r. na linii Moskwa-Nowosybirsk. O tym eksperymencie rozpisują się natomiast z entuzjazmem polscy autorzy [123]. Komu należy wierzyć? Jestem skłonny wierzyć cytowanym autorom radzieckim, gdyż książka Stefańskiego i Komara jest niestety pełna takich bezkrytycznie optymistycznych doniesień, które nie znajdują potwierdzenia w konfrontacji z innymi źródłami; parafrazując Myersa zaryzykuję twierdzenie, że książka ta przynosi parapsychologii większą szkodę niż krytyczne, ale rzeczowe opracowania. Sądzę, że każdy interesujący się parapsychologią powinien raczej zapoznać się z artykułem Jahna [120] albo innymi rzeczowymi wydawnictwami [111, 117, 124, 125, 126]; spośród prac pisanych z pozycji krytycznych warte polecenia są poza książkami Hansela [110, 127] i Taylora [119] także inne niedawno wydane zbiory [128, 129, 130]28. Przytoczę teraz parę innych przykładowych zagadnień z pogranicza nauki, które cieszą się wielkim zainteresowaniem i są szeroko dyskutowane na łamach prasy najczęściej codziennej, rzadziej naukowej. Na tych przykładach widać wyraźnie, że nauka bynajmniej nie ignoruje hipotez na pierwszy rzut oka niezwykłych i dziwnych, lecz stara się je skrupulatnie badać; z drugiej jednak strony rygory postępowania naukowego są jednoznaczne, lecz często mało rozumiane i niedoceniane przez ogół, a krytykowane przez pseudonaukowców.
Biorytmy W szeroko rozpowszechnionej teorii biorytmów przyjmuje się, że w życiu człowieka występują trzy podstawowe rytmy biologiczne: fizyczny o długości 23 dni, emocjonalny o długości 28 dni oraz intelektualny o długości 33 dni. Wszystkie trzy rytmy mają rozpoczynać się w dniu narodzin i przebiegać regularnie, niezależnie od czynników zewnętrznych, aż do śmierci. Pierwsza połowa każdego rytmu jest jego częścią dodatnią, pozytywną, a druga - częścią ujemną, negatywną. Każdy rytm (cykl) można przedstawić jako sinusoidę, której połowa dodatnia odpowiada pozytywnemu stanowi organizmu, a połowa ujemna - stanowi ujemnemu. Każde przejście od połowy dodatniej do ujemnej lub odwrotnie nazywa się dniem krytycznym. W dodatniej fazie każdego cyklu człowiek jest szczególnie zdolny do dobrej pracy, intelektualnej czy fizycznej, natomiast w fazie ujemnej przeważać mają skłonności do złego nastroju, zmęczenia i słabej wydajności. W każdym dniu krytycznym organizm ma podlegać przebudowie, co powoduje, że człowiek jest szczególnie osłabiony i skłonny do ulegania wypadkom. Dwa spośród opisanych biorytmów zostały wprowadzone na początku obecnego stulecia przez lekarza berlińskiego Wilhelma Fliessa oraz rozpropagowane przez Hermana Swobodę, który zapożyczył część idei od Fliessa. Fliess miał obsesję na punkcie liczb 23 i 28 i był przekonany, że u podstaw wszystkich procesów w naturze leżą dwa fundamentalne cykle: męski 23 dni i żeński 28 dni. Dopatrywał się w życiu swoim, rodziny i przyjaciół wpływu tych dwu cykli i ich kombinacji. W 1906 r. ogłosił w Lipsku wielkie dzieło, w którym starał się powiązać różne zjawiska ze swymi cyklami; nie ograniczał się przy tym do zjawisk biologicznych, lecz sięgał także do przyrody nieożywionej, na
28
Najnowsze godne polecenia podsumowanie stanu badań zjawisk paranormalnych można znaleźć w artykule Marksa [207] i książce Brocha [208].
przykład do astronomii. Układ cykli Fliessa powtarzał się dokładnie po upływie 23×28=644 dni, co zwolennicy jego teorii nazwali rokiem biorytmicznym. Cykl 33-dniowy został dodany dopiero później. Biorytmy Fliessa cieszą się ogromnym powodzeniem. Za drobną opłatą każdy może sobie w specjalnych firmach zamówić prognozę biorytmów, produkowane są także specjalne proste kalkulatory do wykonywania obliczeń. Zwolennicy teorii biorytmów (i właściciele firm komputerowych) propagują twierdzenia, że wypadki samochodowe i lotnicze zdarzają się najczęściej w dniach krytycznych kierowców i pilotów. Jak się zdaje, duża część społeczeństwa jest przekonana, że teoria biorytmów została już dawno potwierdzona przez naukę. A jak wygląda prawda? Oczywiście zawsze można znaleźć przykłady wypadków, które nastąpiły w dniach krytycznych ich sprawców, ale nie stanowi to przecież potwierdzenia teorii biorytmów. Odpowiedź na pytanie, czy teoria ta jest prawdziwa, mogą dać tylko porządne badania statystyczne. Badań takich przeprowadzono już wiele. Zarówno wyniki, jak i bogaty wykaz literatury można znaleźć w artykułach [131]. Tu przytoczę tylko wnioski. Jak się okazuje, ogromna większość przeprowadzonych badań przyniosła wyniki nie potwierdzające opisanej wyżej teorii biorytmów Fliessa. Badania prowadzone na bardzo licznych próbkach wypadków (na przykład 9 500 katastrof lotniczych, 13 300 wypadków przy pracy) nie wykazały żadnego związku z fazą cyklu sprawcy; częstość wypadków w dniach krytycznych nie różniła się od oczekiwanej z rachunku prawdopodobieństwa. Badaniom, poddano również wyniki uzyskiwane przez sportowców, ale i w tym wypadku nie stwierdzono znaczącej korelacji osiągnięć z biorytmami. Terence Hines w swym artykule [131] podaje także szereg przykładów badań, które miały przynieść potwierdzenie teorii biorytmów; badania te są propagowane przez firmy ciągnące zyski z obliczeń biorytmów. Skrupulatna analiza wykazała, że niektóre z tych badań nie zostały w ogóle przeprowadzone, a ich wyniki najwidoczniej zmyślono; w innych przypadkach istnieje tylko stwierdzenie autora bez żadnej dokumentacji umożliwiającej sprawdzenie poprawności analizy. Cytowani przeze mnie autorzy dochodzą więc do sceptycznego wniosku, że teoria biorytmów Fliessa nie znajduje potwierdzenia w faktach. Oczywiście, istnieje wiele przykładów dobrze umotywowanych rytmów biologicznych w życiu organizmów żywych, jak choćby rytm dobowy, ale dobrze wiadomo, że rytmy te mogą ulegać zmianom zależnie od czynników zewnętrznych. Biorytmy Fliessa nie mają z tym nic wspólnego.
Wrażliwość roślin W 1968 r. w „International Journal of Parapsychology” pojawił się artykuł z sensacyjnymi wynikami na temat wrażliwości roślin. Autorem był Cleve Backster, znany amerykański specjalista metody badań prawdomówności przy użyciu wariografu („wykrywacz kłamstwa”) rejestrującego tzw. odruchy skórno-galwaniczne, jak np. zmiana oporu elektrycznego skóry wywołana czynnikami emocjonalnymi. Backster zajął się badaniami roślin przypadkowo w 1966 r. Przyszło mu na myśl, by użyć wariografu do zbadania szybkości, z jaką woda przechodzi od korzeni do liści. Odpowiednikiem odruchu skórnogalwanicznego mogła być zmiana oporu liści roślin (na przykład zwiększone parowanie z liści mogłoby zmniejszać opór między górną i dolną powierzchnią liścia). Pomysł Backstera był ciekawy, ale
początkowo zapisy wariografu były dość niestabilne. Backster jednak zauważył, że niektóre części zapisu liści wyglądają podobnie do zapisów otrzymywanych przy badaniu ludzi, którzy przy przesłuchaniu kłamali. Jak piszą Galston i Slayman [132]: „W tym miejscu pojawia się zupełnie nienaukowy brak ciągłości logicznej. Zamiast zbadania warunków zapisu w celu zidentyfikowania lub usunięcia nieoczekiwanego szumu Backster wyciągnął pochopny wniosek, że ponieważ zapis rośliny przypominał pod pewnym względem zapisy ludzi otrzymywane podczas reakcji emocjonalnej, to rośliny muszą doświadczać czegoś w rodzaju emocji ludzkich. Jest to z grubsza równoważne dowodzeniu, że ponieważ ciemne plamy i smugi na tarczy Księżyca w pełni przypominają twarz ludzką, to na Księżycu musi być prawdziwy człowiek”. Backster zaczął więc zastanawiać się nad silnymi bodźcami, które by mogły spowodować zmianę oporu liścia. Zanurzenie jednego z liści w filiżance gorącej kawy nie spowodowało mierzalnej reakcji innych liści. Wtedy Backster pomyślał, żeby podpalić jeden z liści (badaną rośliną była dracena Dracena massangeana) i sprawdzić, czy wariograf odnotuje jakąś reakcję. Twierdził on później, że sama ta jego myśl spowodowała silną reakcję rośliny, objawiającą się nagłym impulsem zarejestrowanym przez wariograf. W celu dokładniejszego testowania hipotezy o wrażliwości roślin na procesy psychiczne Backster badał reakcję filodendronu Philodendron cordatum na uśmiercanie małych skorupiaków, tzw. artemii (Artemia salina). Filodendron został wybrany ze względu na grube i szerokie liście, łatwe do przyłączenia elektrod wariografu. Backster umieścił trzy rośliny w osobnych pokojach, każdą połączył z osobnym wariografem, a w oddzielnym pokoju umieścił automatyczne urządzenie do uśmiercania artemii przez wrzucanie ich do wrzątku. Ogłoszone dane to w sumie 78 zapisów wariografu o długości 25 sekund każdy (inne 48 zapisów Backster uznał za niedobre i odrzucił z analizy). Podczas pierwszych 10 sekund każdego zapisu mogło, ale nie musiało, nastąpić uśmiercenie artemii. Nastąpiło ono w 13 przypadkach, a pozostałe 65 zapisów Backster uznał za kontrolne. Nagłe zmiany oporu liścia zdaniem Backstera świadczące o emocjach rośliny - występowały z bardzo różną częstością w tych dwu kategoriach zapisów: 11 na 13 zapisów odpowiadających uśmierceniu artemii i tylko 8 na 65 zapisów kontrolnych. Backster uznał te wyniki za dowód istnienia u roślin możliwości odbioru telepatycznego emocji człowieka lub sygnałów ginących komórek skorupiaków. Te wyniki Backstera, brzmiące zupełnie niewiarygodnie, wywołały wielką sensację; w świecie parapsychologów zaczęto mówić o udowodnieniu przez Backstera istnienia biotelekomunikacji. Wkrótce Backster doniósł o zaobserwowaniu podobnych zjawisk w świecie drobnoustrojów: miał mianowicie zauważyć skoki potencjału elektrycznego w naczyniu z jogurtem (zawierającym bakterie Lactobacillus), gdy do pobliskiego naczynia z jogurtem dodawał utleniający substrat. Backster nie był bynajmniej pierwszym badaczem zjawisk bioelektrycznych. Zjawiska te badano od dawna. Dość powiedzieć, że badanie potencjałów czynnościowych przy stymulacji muchołówki Dionaea muscipula przeprowadzono w latach siedemdziesiątych ubiegłego stulecia, a od tego czasu zjawiska te badano także u innych roślin owadożernych, a nawet glonów i grzybów [133]. Jednym z pionierów badań nad roślinami był wybitny fizyk indyjski, Jagadish Chandra Bose (1858-1937), który skonstruował pomysłowe przyrządy do badania maleńkich zmian potencjału elektrycznego
i drobnych ruchów roślin29. To właśnie Bose zwrócił uwagę na podobieństwo zjawisk bioelektrycznych u roślin i zwierząt. W samej więc idei badań Backstera nie było nic nadzwyczajnego, zdumiewające były natomiast wyniki i ich interpretacja. Po ogłoszeniu wyników Backstera kilku innych badaczy, takich jak Marcel Vogel, Douglas Dean i Aristide Esser, zajęło się podobnymi badaniami; donieśli oni, że udało im się częściowo potwierdzić wyniki Backstera. Późniejsze jednak badania przyniosły inne wyniki, jak również postawiły inaczej sprawę interpretacji wyników Backstera. Na Uniwersytecie Cornella Edgar Gasteiger, Kenneth Horowitz i Donald Lewis powtórzyli eksperyment Backstera korzystając z jego rad i wskazówek; wprowadzili oni szereg ulepszeń technicznych, jak np. zapisywanie na taśmie magnetowidu operacji uśmiercania artemii, lepszą izolację przewodów i ekranowane elektrody itp. Otrzymane przez nich wyniki nie wykazały żadnego związku statystycznego między uśmiercaniem artemii oraz drobnymi zmianami potencjału, które zdawały się zachodzić spontanicznie i nieregularnie. Jeszcze staranniej przeprowadził powtórzenie eksperymentów Backstera Kmetz w San Antonio i właśnie jego studia przyniosły, jak się zdaje, wyjaśnienie przyczyn, zupełnie zresztą prozaiczne, dla których Backster otrzymał swe wyniki. Otóż Kmetz zauważył, że Backster w celu uzyskania dobrego kontaktu elektrycznego elektrod z powierzchniami liścia stosował pośrednią warstwę żelu agaru z chlorkiem sodu. Jak pisze Kmetz: „... Natychmiast po umieszczeniu elektrod woda zaczyna parować z żelu agarowego; co powoduje zmianę stężenia chlorku sodu w żelu... to z kolei wywołuje zmianę oporu przejawiającą się jako wychylenie piórka zapisującego...” Ponieważ ten proces parowania nie jest regularny, cały system jest w stanie mało stabilnym, aż do czasu wytworzenia się na powierzchni agaru „skórki” spowalniającej parowanie i stabilizującej kontakt elektryczny. Kmetz zaobserwował, że czas upływający do ustalenia się względnej równowagi jest stosunkowo długi, może sięgać nawet pół godziny. Tymczasem zapisy wariografu Backstera z 1968 r. zostały otrzymane właśnie w okresie dochodzenia do równowagi, gdy układ nie był stabilny. Zarówno wyniki Kmetza, jak Gasteigera i współpracowników były dyskutowane publicznie, w obecności Backstera, na specjalnych konferencjach zorganizowanych w 1974 i 1975 r. w Ithaca i w Nowym Jorku. Przeważająca większość poważnych badaczy jest obecnie przekonana, że atrakcyjna hipoteza o wrażliwości roślin nie została jeszcze przekonywająco potwierdzona doświadczalnie. Tylko nieliczni są zdania przeciwnego zajmując skrajne stanowisko, zgodnie z którym wyniki potwierdzające hipotezę Backstera może uzyskać tylko obserwator odpowiednio nastrojony psychicznie, tak aby „miał kontakt” z rośliną. Odrzucanie jednak negatywnych wyników ze względu na zły nastrój eksperymentatora jest powszechnie uważane za przykład skrajnie nienaukowego podejścia. Tak więc hipoteza o wrażliwości roślin czeka jeszcze na potwierdzenie
Różdżkarstwo
29
Jednym z twórców statystyki kwantowej cząstek, tzw. Statystyki Bosego-Einsteina, był inny wybitny fizyk indyjski Satyendra Nath Bose (1894-1974). Zarówno 13-tomowa, jak i 4-tomowa encyklopedia PWN obu tych fizyków zlepiła w jednego człowieka, przypisując także odkrycie statystyki kwantowej Jagadishowi Chandrze Bosemu!
Poszukiwanie wody czy kopalin przy użyciu różdżki jest znane od stuleci. Nadal jednak różdżkarstwo traktowane jest jako zagadnienie na pograniczu nauki i magii. To prawda, że przeciętny człowiek dowiaduje się o różdżkarstwie bardzo rzadko z poważnych publikacji naukowych, zaś najczęściej z głupawych enuncjacji prasowych, prowokowanych zresztą przez niektórych różdżkarzy. Bo chociaż wszyscy badacze są zgodni co do tego, że ogromna większość różdżkarzy to ludzie absolutnie uczciwi, szczerze przekonani, że są obdarzeni zdolnością różdżkarską i że nie mają kontroli nad ruchem różdżki, to i wśród różdżkarzy zdarzają się ludzie niepoważni, głośni i krzykliwi lub po prostu szarlatani. Nie będę się tu zajmował wypowiedziami tych ostatnich, którzy często goszczą na łamach naszej prasy; oto jeden zaleca nam rozsypywanie pod łóżkiem potłuczonych skorupek jajek, inny woli owies lub pestki moreli, jeszcze inny zaleca noszenie w kieszeni kasztanów li wszystko to ma chronić przed otaczającym nas rzekomo szkodliwym promieniowaniem. Cały ten kram pasuje raczej do rozważań o pseudonauce w następnym rozdziale. Przytoczę raczej te wiadomości, których czytelnik nie będzie mógł łatwo znaleźć w prasowych wywiadach. Jak przedstawia się sprawa wydajności różdżkarzy? Otóż łatwo jest zawsze przywoływać jedno lub drugie anegdotyczne zdarzenie, gdy to właśnie różdżkarz znalazł wodę w beznadziejnej sytuacji, kiedy zawiodły inne metody. Znacznie trudniej o porządne badania statystyczne, a tylko one warte są dyskusji. W cytowanej książce Taylora [119] znaleźć można informuję o dużej statystyce studni wierconych w Nowej Południowej Walii w latach 1918-1943. Statystyka ta obejmuje łącznie 3600 studni. Okazuje się, że tylko 70% studni wykopanych według wskazówek różdżkarzy dawało wodę w znacznych ilościach (ponad 100 galonów na godzinę), podczas gdy to samo dotyczyło 84% studni wykopanych konwencjonalnie, zgodnie z opiniami ekspertów geologów. Liczba studni zupełnie suchych była dwukrotnie większa (14,7%) wśród studni różdżkarzy niż wśród studni ekspertów (7,4%). Komentując te wyniki Taylor stwierdza, że stanowią one silny argument za tym, iż reakcja różdżki nie jest skorelowana z obecnością wody podziemnej. Zastanawiające są także wyniki ściśle kontrolowanych doświadczeń. Przytoczę tu kilka z nich [119, 129]. Oto w końcu marca 1979 r. w pobliżu miasteczka Formello niedaleko Rzymu przeprowadzono kontrolowany test zdolności różdżkarskich. Wzięli w nim udział znani i reklamowani różdżkarze włoscy. Test polegał na tym, by wykryć wodę płynącą w ilości co najmniej 5 litrów na sekundę w rurze o średnicy 8 cm znajdującej się na głębokości pół metra. Pod powierzchnią placu testowego umieszczono trzy różne rury, którymi mogła płynąć woda z rezerwuaru do drugiego zbiornika. Specjalny zawór umożliwiał kierowanie wody przez jedną tylko rurę wybieraną przypadkowo bez wiedzy egzaminowanego. Różdżkarz miał za zadanie wskazanie drogi przepływu wody w danym etapie testu. Wyznaczono nagrodę dla zwycięzcy konkursu w wysokości 10 000 dolarów, a każdy uczestnik miał możliwość przeprowadzenia trzech prób. Okazało się, że żaden (!) z uczestników nie odgadł nawet w przybliżeniu przebiegu rur; na ogół kreślili oni rzekomy przebieg rur w kierunkach zupełnie różnych od rzeczywistego układu. Należy dodać, że w konkursie wzięli udział sławni różdżkarze włoscy, jak Giorgio Fontana, Lino Borga czy Vittorio Senatore, warunki konkursu były z nimi uzgodnione i wszyscy byli przekonani, że bez żadnych trudności zdobędą nagrodę.
Ten test był podobny do testu przeprowadzonego przez Brytyjskie Ministerstwo Obrony; w jednym z etapów doświadczeń różdżkarz miał oceniać, czy w podziemnej rurze woda płynie, czy też nie, a to było ustalane zaworem zgodnie z przypadkiem. Różdżkarz miał rację w połowie z 50 testów, a więc tyle właśnie, ile wynika z przypadku. W sierpniu 1949 r. Amerykańskie Stowarzyszenie Różdżkarzy przeprowadziło kontrolowany test polegający na wskazaniu miejsca kopania studni w pewnym terenie. W teście wzięło udział 27 różdżkarzy, którzy mieli wybrać miejsce oraz ocenić głębokość, na jakiej jest woda. W teście wzięło udział także dwóch geologów, którzy metodami konwencjonalnymi ocenili głębokość i ilość wody podziemnej w 16 punktach wybranych na obszarze testowym. Wykopano następnie studnie w miejscach wskazanych przez różdżkarzy. Jak się okazało, obaj eksperci zupełnie nieźle oceniali głębokość wód podziemnych, natomiast różdżkarze wypadli wprost fatalnie. Organizatorzy konkludowali, że. „... ani przez chwilę żaden z naszych różdżkarzy nie mógł być wzięty za eksperta”. Komentując te dane statystyczne Taylor [119] stwierdza: „Starannie kontrolowane testy ludzi, którzy twierdzili, że posiadają umiejętności różdżkarskie, wykazały, że umiejętności takie nie występowały, podczas testów. Sama reakcja różdżkarza, wskutek której różdżka w jego rękach nagle się wygina lub wahadło zmienia kierunek oscylacji, może być najlepiej wyjaśnione jako podświadoma reakcja mięśni na jakiś bodziec zmysłowy. Zwykłe twierdzenie różdżkarza, że nie ma on kontroli nad różdżką, jest prawdziwe, jeśli ma on na myśli kontrolę świadomą, ale nie musi być tak, gdy włączy się także mechanizmy podświadome”. Do podobnych wniosków doszli także inni badacze, starający się beznamiętnie studiować zjawisko różdżkarstwa [104, 125]. Niemniej jednak reakcje różdżkarzy występują faktycznie, toteż od dawna zastanawiano się nad możliwymi bodźcami, które te reakcje wywołują. Ostatnio dużą popularność zdobyła hipoteza wrażliwości człowieka na zmiany pola magnetycznego, propagowana przez francuskiego uczonego, Yvesa Rocarda [134]. Okazuje się jednak, że niektóre eksperymenty takiej hipotezie zaprzeczają (chodzi o testy wykonane przez komisję uczonych belgijskich), sprawę trudno więc uznać jeszcze za wyjaśnioną [135]30. Przytoczyłem trzy przykłady zagadnień z pogranicza nauki. Na przykładach tych widać - wbrew temu, co mówią kłamliwe wywody niektórych autorów na łamach naszej prasy - że nauka bynajmniej nie ignoruje zjawisk, które nie są wyjaśnione, dziwnych hipotez i doniesień niecodziennych i niezwykłych. Kryteria postępowania w nauce są jednak jasne. Najpierw chodzi o niewątpliwe stwierdzenie istnienia zjawiska, w czym naczelną rolę odgrywa poprawna analiza statystyczna, następnie o sprawdzenie hipotez metodą doświadczalną; nie ma jednak większego sensu wysuwanie hipotez i próbowanie ich sprawdzania przed stwierdzeniem, że dane zjawisko naprawdę istnieje. Trzy wymienione wyżej przykłady różnią się bardzo swym statusem. Biorytmy Fliessa w świetle bardzo licznych dowodów można zaliczyć już do pseudonauki, czy jak kto woli do fantazji. Wrażliwość roślin wydaje się zagadnieniem bardziej otwartym: z jednej strony wiadomo, że zjawiska bioelektryczne istnieją, z drugiej jednak - doświadczenia Backstera uzyskały bardzo prozaiczną interpretację, więc trudno utrzymywać jego ideę biotelekomunikacji bez dalszych niepodważalnych faktów doświadczalnych. Wreszcie różdżkarstwo pozostaje zagadnieniem otwartym, gdzie nauka nie powiedziała jeszcze ostatniego słowa. 30
Warto też zapoznać się z interesującym artykułem prof. Zagórskiego [209].
Zakończmy rozdział cytując za Wasiliewem [136] piękne zdania wypowiedziane w początkach XIX wieku przez Laplace'a w jego Essai philosophiąue sur les probabilités: „Jesteśmy tak dalecy od chwili, kiedy poznamy wszystkie siły przyrody i różne formy ich oddziaływania, że nie byłoby godnym filozofa negowanie pewnych zjawisk jedynie dlatego, że nie można ich objaśnić przy obecnym stanie wiedzy. Jesteśmy zobowiązani do badania zjawisk tym dokładniej, im trudniej przychodzi nam uznać je za istniejące”.
5. Nauka i pseudonauka W swej doskonałej książce o pseudonauce Martin Gardner podaje wiele przykładów twórczości pseudonaukowej w różnych dziedzinach. Rozdział, w którym omawiane są ataki pseudonaukowców na Einsteina, rozpoczyna Gardner od następującego stwierdzenia [137]: „W żadnej dziedzinie nauk przyrodniczych, nie wyłączając fizyki i chemii, nie ma wyraźnej granicy pomiędzy spekulacjami pseudouczonych a teoriami uczonych z prawdziwego zdarzenia. Jedne przechodzą w drugie, tworząc przypadki graniczne. Do takich granicznych przypadków można zaliczyć twórczość angielskiego fizyka, Oliviera Heaviside'a, która stanowi zaskakującą mieszankę nauki z dziwactwem. Kiedy Einstein po raz pierwszy ogłosił swoją teorię względności, Heaviside, jako jedyny ze znanych fizyków, wystąpił przeciw niemu. Rozważania jego przy tym były miejscami tak absurdalne, że żadne poważne czasopismo naukowe nie mogłoby ich opublikować. A równocześnie uczony ów wniósł dużo cennego materiału do teorii elektryczności”. Trudno by się zgodzić z dwoma pierwszymi zdaniami z powyższego cytatu, gdyż oznaczałoby to ogromne zawężenie pojęcia pseudonauki do przypadków mających związek raczej z konserwatyzmem w nauce (mowa o tym była w rozdziale 3). Ponadto odróżnienie nauki od pseudonauki byłoby rzeczą bardzo trudną, co - moim zdaniem - nie jest prawdą. Zresztą zdaje sobie z tego sprawę sam Gardner, który w innym miejscu tego samego rozdziału pisze: „Nie będziemy się jednak zajmowali tymi przypadkami granicznymi. Mamy bowiem w zapasie obfitość literatury z dziedziny fizyki i chemii tak bzdurnej, że bez wahania możemy ją zaliczyć do pseudonauki Aby rozważyć kryteria pozwalające zidentyfikować twórczość pseudonaukową zapoznajmy się dla przykładu z podanymi przez Gardnera wyjątkami z prac George'a Francisa Gillette'a, który wymyślił teorię „spiralnego wszechświata” i „teorię grawitacji na zasadzie odkręcającej się śruby”, a teorię względności nazywał „dzieckiem kretyńskiego mózgu, cierpiącego na mentalną kolkę”. Oto niektóre sformułowania Gillette'a: „(...) Grawitacja jest odrzuconą nakrętką zakręconej śruby promieniowania. Grawitacja jest synonimem odśrubowywania. Wszystkie ciała materialne są układami słonecznymi (...) wzajemnie ześrubowanych jednostek niższych (...). Grawitacja nie jest niczym innym, jak tylko reakcją w formie podpłaskiego systemu wkręconego w wyższą płaszczyznę mas (...)
Każda ultracząsteczka jest jednocześnie częścią integralną zylionów jednostek innopłaszczyznowych i tylko w ten sposób jej nieskończona współpłaszczyzna prędkości i energii rozkłada się na zyliony skończonych płaskich porcji prędkości i energii (...)” [138]. Gardner podaje w swej książce wiele innych przykładów poglądów, które bez wahania można nazwać pseudonaukowymi. Amerykanin Joseph Batell w końcu XIX wieku bronił zaciekle korpuskularnej teorii dźwięku, natomiast ksiądz metodysta z Nowego Jorku Alexander Hall uważał, że dźwięk ma naturę substancjalną, składa się z maleńkich atomów, podobnie jak ciepło, światło, elektryczność i magnetyzm. Thomas Graydon z Kalifornii uprościł astronomię przez usunięcie przyciągania grawitacyjnego i wprowadził na to miejsce odpychanie działające od Słońca ku Ziemi. Zupełnie zaś niedawno Albert Crehore utrzymywał, że elektrony są częścią składową jąder atomowych, a grawitacja jest wynikiem krążenia ładunków dodatnich wewnątrz tych jąder. W nazistowskich Niemczech wielu zwolenników miała tzw. kosmologia glacjalna Hörbigera. Autor widział wszędzie we Wszechświecie lód; Wszystkie planety miały być pokryte grubą jego warstwą (np. na Marsie grubość lodu miała wynosić około 400 kilometrów, a pęknięcia widać było jako kanały). Także Droga Mleczna miała być pierścieniem z bloków lodu, a jej zdjęcia jako zbiorowiska gwiazd Hörbiger uważał za sfałszowane. W związku z tym przypomina się przypadek osławionego „profesora” George'a Adamskiego, który twierdził, iż w latającym pojeździe kosmitów zwiedził Księżyc i planety. Szczególnie przyjemne były jego spacery wśród bujnej roślinności na odwrotnej stronie Księżyca. Kiedy w 1959 r. radziecka sonda „Łunnik” przekazała pierwsze zdjęcia odwrotnej strony Księżyca nie potwierdzające rewelacji Adamskiego, ten oświadczył po prostu, że Rosjanie musieli zdjęcia sfałszować. Niedawno w niektórych kręgach zdobyła też wielką popularność twórczość Immanuela Velikovsky'ego. Twierdził on np., że niegdyś z Jowisza została wyrzucona wielka kometa, która parokrotnie przeszła w pobliżu Ziemi, żeby wreszcie znaleźć się na orbicie okołosłonecznej jako planeta Wenus. Przy spotkaniu komety z Ziemią około 3500 lat temu nastąpiło poważne spowolnienie (albo całkowite wstrzymanie) obrotu Ziemi wokół osi. Powierzchnia Ziemi uległa wtedy metamorfozie, powstały góry, następowały powodzie, wrzała woda w morzach, rzeki barwiły się krwawo; było to w czasie ucieczki Izraelitów z Egiptu. Dwutlenek węgla z warkocza komety osiadł na Ziemi jako manna niebieska. W podobny „naukowy” sposób Velikovsky tłumaczy szereg innych wydarzeń biblijnych i legend. Sprawa Velikovsky'ego była o tyle przykra, że niektórzy redaktorzy wielkonakładowych pism uznali, że Velikovsky stoi wśród największych umysłów na równi z Galileuszem, Newtonem i Einsteinem. Sprawa stała się tak poważna, że paru wybitnych uczonych uznało za stosowne zareagować, by poinformować opinię publiczną o prawdziwej wartości dzieł Velikovsky'ego. Wytknięto mu elementarne błędy logiczne, co nie przeszkodziło, że grono zaciekłych obrońców tego „geniusza” nie chciało niczego przyjąć do wiadomości. O ile Velikovsky, jak się zdaje, traktował swoje dzieła ze śmiertelną powagą, o tyle inaczej przedstawiała się sprawa w przypadku słynnego Charlesa Forta. Ten Amerykanin lubował się w wymyślaniu najdzikszych teorii. Twierdził np., że Ziemia niemal wcale nie wiruje dokoła osi (okres obrotu ma wynosić około roku) i otacza ją niezbyt odległa, nieprzezroczysta skorupa. Gwiazdy są otworami w tej skorupie, a ich migotanie pochodzi od jej drgań. Skorupa ta ma miejsca świecące (to mgławice) i nieprzezroczyste - mgławice ciemne. Nad tym wszystkim ma znajdować się supermorze z wyspą, z której często spadają na Ziemię różne ryby, robaki, ślimaki, żaby, kolorowe deszcze itp.
Książki Forta cieszyły się i nadal cieszą poczytnością, a jego zwolennicy założyli Towarzystwo Fortystów. W przedmowie napisanej do książki Forta w 1941 r. jego przyjaciel Thayer napisał: „Charles Fort nie był wcale pomyleńcem. Nie wierzył ani na jotę w żadną ze swoich zaskakujących hipotez, o czym zresztą każdy rozsądny człowiek potrafi zorientować się z tekstu. Wysuwał swoje teorie tylko dla zabawy (...) zaśmiewał się, aż trząsł mu się brzuch, a wraz z nim maszyna do pisania (...) kpił z tego, co sam pisał, śmiał się z pretensji poważnych fachowców, chichotał z powodu wprowadzenia ich w błąd, bawił się swymi czytelnikami, parskał śmiechem czytając ich listy, cieszył się z własnego udziału w takim przedsięwzięciu, śmiał się z recenzji swoich książek i bawił się moim kosztem widząc, że istotnie organizuję Towarzystwo Fortystów (...) miał najwspanialsze poczucie humoru, które każdemu myślącemu człowiekowi wzbogaca życie” [139]. Fort był wielkim żartownisiem, co nie przeszkadza, że do dziś można znaleźć poważne roztrząsania jego teorii w dziełach poświęconych UFO. Nie wiadomo natomiast, czy śmiać się, czy płakać z fantastycznych teorii na temat kształtu Ziemi głoszonych do dziś. Gardner opisuje na przykład sektę religijną utrzymywaną przez Amerykanina Willburna Volivę. Ten dziwak czy maniak wierzył święcie, że Ziemia jest płaska jak stół, a wszystkie dowody uczonych na jej kulistość są oszustwami lub nieporozumieniami. Głosił też, że Ziemia się nie porusza, a malutkie Słońce o średnicy 32 mil znajduje się od nas w odległości mniejszej niż 3000 mil. Moore [140] natomiast opisał Towarzystwo Płaskiej Ziemi istniejące w Londynie. Członkowie tego stowarzyszenia głosili również, że Ziemia jest płaska i nieruchoma i dodawali, że wyznaczenie odległości do Księżyca jest niemożliwe. Po locie statku „Apollo 8” w 1969 r. 65-letni sekretarz Towarzystwa Samuel Shenton z Dover oświadczył, że po obejrzeniu zdjęć Ziemi z dużej odległości sporo członków załamało się psychicznie i wystąpiło z Towarzystwa; pozostało w nim tylko dwóch członków. W początkach XIX wieku były kapitan piechoty John Symmes wystąpił z teorią wydrążonej Ziemi. Ziemia miała się składać z pięciu koncentrycznych powłok kulistych o średnicy kilku tysięcy mil każda, z otworami w okolicy biegunów. Życie miało istnieć zarówno na wypukłych, jak i wklęsłych powierzchniach tych powłok. Im bardziej wyśmiewano Symmesa, tym bardziej wpadał on w gniew na nic nie rozumiejących uczonych i szukał dowodów na potwierdzenie swoich poglądów. Teoria wydrążonej Ziemi w różnych wariantach była podtrzymywana przez wielu maniaków. Chyba najbardziej fantastyczne poglądy głosił inny Amerykanin, Cyrus Teed, który wydał parę broszur udowadniających, że cały Wszechświat jest podobny do jajka, w którym my żyjemy po wewnętrznej stronie skorupki. Wszystkie ciała niebieskie znajdują się wewnątrz, natomiast na zewnątrz nie ma absolutnie nic. Teed odrzucił też istnienie Słońca, uważał Księżyc za odbicie Ziemi, a planety - za odbicie „tarcz rtęciowych unoszących się między warstwami metalowych płaszczyzn”. Gardner komentując teorie wydrążonej Ziemi, które - chociaż może się to wydawać niewiarygodne przetrwały do naszych czasów, pisze: „Na to, by zlikwidować »dziury Symmesa«, trzeba było aż lotu Byrda nad biegunem północnym”. Jakże się mylił! Prawdziwy pseudonaukowiec odrzuca wszystkie dowody, które obalają jego teorię. Oto w 1974 r. ukazała się w Anglii książka Trencha [141], w której autor nie tylko święcie wierzy, że
Ziemia jest wydrążona i ma ogromne dziury przy biegunach, ale wyjaśnia także, że właśnie przez te otwory przylatują do nas UFO z wnętrza Ziemi. Loty Byrda nad biegunami komentuje Trench krótko: Byrd oczywiście nie mógł być na biegunie, gdyż inaczej spostrzegłby te otwory. Podobnie nikt inny nie mógł dotrzeć do biegunów. Koronnym dowodem słuszności teorii Trencha są fotografie wykonane rzekomo przez amerykańskie sztuczne satelity. Czytelnicy mogą sami ocenić wartość tego nieudolnego fotomontażu (fot. 46). Wypada jeszcze tylko przedstawić pana Trencha. Otóż jest on prezesem stowarzyszenia badaczy UFO o nazwie „Contact International”, które reklamuje się jako największe w świecie. Sądzę, że na podstawie przytoczonych przykładów31 czytelnicy mogą wyrobić sobie pogląd o cechach charakterystycznych twórczości pseudonaukowców. Kryteria, które pozwalają odróżnić prace pseudonaukowe od innych, są dość oczywiste: 1. Mania wielkości autora, który uważa, że jako jedyny zna prawdę, odnosi się pogardliwie do wszystkich uczonych z prawdziwego zdarzenia, zarzucając im w niewybrednych słowach konserwatyzm lub wręcz nieuctwo. 2. Tekst pracy pseudonaukowej jest zwykle bełkotem polegającym albo na wprowadzeniu nowej terminologii znanej tylko autorowi, albo na posługiwaniu się słowami wprawdzie znanymi, ale przemieszanymi na zasadzie doboru przypadkowego (np. zmarszczki czasoprzestrzeni, ginekologia międzyplanetarna), co świadczy o ich niezrozumieniu przez autora. 3. Ignorancja objawiająca się zarówno w nieznajomości dobrze ustalonych faktów, jak również w bezpodstawnym zaprzeczaniu a priori wszystkiemu, co nie zgadza się z poglądami autora. 4. Kompletne niezrozumienie ducha nauki objawiające się w stawianiu „nauce oficjalnej” zarzutu, że nie potrafi na wszystko odpowiedzieć. Pseudonaukowiec nie rozumie, że nauka rozwija się właśnie dlatego, iż musi szukać odpowiedzi na wciąż nowe pytania. 5. Pseudonaukowiec lubi także podpierać się wymyślonymi przez siebie autorytetami (jak np. „profesor” Adamski, którego związek z nauką polegał na tym, iż prowadził kawiarnię u podnóża Mount Palomar). Dobrym przykładem pracy pseudonaukowej jest wydana niedawno w Polsce książka G.P. Flanagana Energia piramid [144]. Znaczną część tej książki wypełniają rozważania autora na temat materii i cząstek elementarnych. Autor autorytatywnie stwierdza na przykład, że eksperymenty Sagnaca (1913 r.) i Michelsona-Gale'a (1925 r.) potwierdziły teorię eteru i pisze: „Mimo że te dwa eksperymenty w sposób oczywisty obaliły teorię względności Poincarégo-Einsteina, dzisiejsze podręczniki fizyki w dalszym ciągu, z całą pewnością siebie, objaśniają teorię Einsteina przemilczając eksperymenty, które ją obaliły”. Flanagan nie zadał sobie oczywiście trudu, by zajrzeć do podręczników, w których mógłby wyczytać, że właśnie dwa wspomniane eksperymenty bynajmniej nie obalają szczególnej teorii względności. Nie rozumiejąc tej teorii32 woli autorytatywnie ją odrzucać wprowadzając w błąd czytelników.
31
Wiele innych przykładów poglądów pseudonaukowych można znaleźć w wydanych książkach u nas książkach Evansa [142] i Ráth-Végha[143]. W książce [210] znajduje się krytyczny przegląd licznych teorii pseudonaukowych, a także świetna analiza pseudonaukowych tekstów.
Ignorancja Flanagana sięga jednak dalej. Jak wynika z poniższego cytatu, nie rozumie on nawet mechaniki klasycznej Galileusza-Newtona: „Jeśli Jowisz spełnia pierwsze prawo ruchu Newtona, a tak przypuszczalnie jest, i jeśli nie istnieje eter, wtedy moglibyśmy tylko przyjąć, że Jowisz porusza się ze stałą prędkością względem gwiazd stałych. Jednakże ponieważ Słońce porusza się szybciej niż Jowisz, nie mógłby on zawsze osiągać drugiej strony swej orbity, dopóki nie uczynilibyśmy fantastycznego założenia, że jest on przyspieszany na jednej połowie swej orbity, a opóźniany na drugiej. Wówczas pierwsze prawo ruchu Newtona nie miałoby w ogóle żadnego sensu”. Dalsze rozważania Flanagana nad budową cząstek elementarnych oparte na wirach eteru (który ma, zdaniem autora, gęstość dokładnie 0,027 mg/cm3 oraz wykazuje „zawiesistość”) są po prostu przeraźliwym bełkotem. Trudno też zrozumieć, jaki związek ma to mieć z piramidami egipskimi, legendami hawajskimi, oparciem budowy ciała ludzkiego na mistycznym współczynniku «t» , który „jest tak stary jak historia” i innymi podobnymi rzeczami (np. kartonowy piramidowy generator psychotroniczny). Niewiele w tym sensu, a jeszcze mniej dowcipu33. Rzekoma energia związana z kształtem piramidy Cheopsa to następny pomysł pseudonaukowców, szeroko reklamowany w naszej prasie, a nawet w telewizji. W kartonowej piramidzie tępe żyletki mają się same stawać z powrotem ostre, żywność ma się przechowywać lepiej itd. Chociaż rzecz wygląda niewiarygodnie, znalazł się ktoś, kto postanowił obiektywnie sprawdzić, ile jest prawdy w tych doniesieniach. Był to kanadyjski inżynier z Toronto, Dale Simmons, który postępując według zaleceń „piramidologów” trzymał żyletki w piramidkach różnej wielkości; wykonał następnie mikrofotografie ostrzy tych żyletek; nie wykazywały one żadnych różnic w porównaniu z kontrolną żyletką trzymaną na wolnym powietrzu. Podobnie negatywne wyniki przyniosły testy Simmonsa z przechowywaniem substancji organicznych. Zauważył on tylko, że obiekty kontrolne należy w tym wypadku przechowywać także w zamkniętych pojemnikach (których kształt nie odgrywa roli), a nie na wolnym powietrzu, gdzie warunki są inne. Wyniki Simmonsa są znane od dawna [125], ale pseudonaukowcy, co leży w ich naturze, nie chcą o nich słyszeć [126], natomiast jako koronny argument istnienia energii piramid podają fakt, że Czech Karel Drbal uzyskał patent na ostrzałkę żyletek, którą jest kartonowa piramidka. No cóż, w nauce nie ustala się prawdy drogą głosowania ani wyrokami sądów czy biur patentowych. Najlepszą odpowiedzią na twierdzenia „piramidologów” jest chyba to, że na świecie wydano już ogromnie wiele patentów na maszyny wiecznego ruchu, czyli perpetuum mobile (pierwszego rodzaju). Jak podaje Arthur Ord-Hume [145], brytyjskie biuro patentowe wydało pierwszy patent na perpetuum mobile w 1635 r., a do roku 1903 wydano takich patentów aż 600 (!), z czego tylko 25 32
Niezrozumienie teorii względności (choćby szczególnej) jest niestety zjawiskiem dość powszechnym. Zabawne, że do przeciwników tej teorii nie trafiają argumenty fizyczne, natomiast często przekonuje ich argument finansowy: oto na świecie działają wielkie i kosztowne urządzenia (np. akceleratory zbudowane kosztem dziesiątków milionów dolarów) zbudowane na podstawie tej teorii; nie działałyby one, gdyby teoria była fałszywa! 33 Książka Flanagana została wydana jako „Materiały instruktażowo-metodyczne” przez Wielkopolskie Stowarzyszenie Różdżkarzy w nakładzie 3000 egz. Nie mam zamiaru naigrywać się z różdżkarstwa. w której to dziedzinie wiele pozostaje do wyjaśnienia przed wydaniem przez naukę werdyktu. Nie mogę jednak pojąć, jak to się stało, że wiele osób z tytułami naukowymi, figurujących w tej publikacji jako recenzenci, redaktorzy lub władze Stowarzyszenia, dopuściło do wydania tej bezprzykładne) bzdury, nie mającej nic wspólnego z różdżkarstwem.
przed 1855 r. Żadna z zaprojektowanych i opatentowanych maszyn oczywiście nie działa, ale czy to ma jakieś znaczenie wobec faktu posiadania patentu? Najsłynniejszą chyba pseudonauką jest astrologia, ale ojej pseudonaukowym charakterze wiemy dopiero od lat kilkuset. Astrologia powstała w najstarszych cywilizacjach Bliskiego Wschodu. Bezpośrednim wynikiem przekonania, że położenie gwiazd w chwili urodzin człowieka determinuje jego los i charakter, stał się rozwój obserwacji ciał niebieskich. Astronomia powstała więc dzięki astrologii i z niej właśnie. Aż do czasów Odrodzenia astrologią zajmowali się powszechnie astronomowie, częściowo z przekonania, w części zaś w celach zarobkowych (jak np. Kepler). Dopiero w ostatnich paruset latach astrologia stała się domeną pseudonaukowców i maniaków, którzy z jednej strony po prostu nie nadążyli za rozwojem wiedzy, z drugiej zaś wykorzystują łatwowierność łudzi dla zdobycia łatwego zarobku. Zasady astrologii usystematyzował w II wieku naszej ery Ptolemeusz w swym dziele Tetrabiblos (Czworoksiąg). Przypisał on każdemu znakowi Zodiaku rządzącą nim planetę. Ku zdenerwowaniu późniejszych astrologów trzeba było następne odkrywane planety przypisywać do „zajętych” już znaków. I tak kolejno Uran został przypisany do znaku Wodnika (razem z Saturnem), Neptun - do Ryb (razem z Jowiszem); niedawno odkrytemu Plutonowi przypisano „dom” w Skorpionie, który musi dzielić z Marsem. Astrologowie nie uważają oczywiście za stosowne uzasadnić, dlaczego tak właśnie przypisane zostały planety poszczególnym znakom Zodiaku [146]. Trzeba też wspomnieć o tym, że ze względu na zjawisko precesji astronomicznej punkty przecięcia na sferze niebieskiej ekliptyki i równika przesuwają się z wolna, wykonując pełen obrót w ciągu około 26 000 lat. Punkt równonocy wiosennej (tzw. punkt Barana) i zaczynający się od niego znak zodiakalny Barana leżały w czasach Ptolemeusza w gwiazdozbiorze Barana; obecnie punkt Barana leży w gwiazdozbiorze Ryb, a za kilkaset lat znajdzie się w gwiazdozbiorze Wodnika. Powstaje więc zasadnicze pytanie: czy należy rozważać gwiazdy aktualnych konstelacji czy też (ruchome) znaki Zodiaku. Niektórzy astrologowie uwzględniają precesję i układają tzw. horoskop gwiazdowy, opierający się na położeniu Słońca i planet w rzeczywistych gwiazdozbiorach w dniu urodzin człowieka. Większość jednak posługuje się znakami Zodiaku określonymi raz na zawsze przez porę roku przez Ptolemeusza; ci astrologowie układają tzw. horoskop zodiakalny. Tak to w astrologii liczą się przede wszystkim pozory: nie określone kierunki w przestrzeni, lecz tylko umowne znaki Zodiaku. Gdybyż to jeszcze twierdzenia astrologów były oparte na głębokich systematycznych studiach, a nie na patrzeniu w sufit lub w, kryształową kulę. Przecież nie można z góry odrzucać możliwości, że z różnych kierunków Wszechświata dochodzi do nas jakieś promieniowanie mogące wpływać na organizmy żywe. Jest to jednak w świetle współczesnej wiedzy bardzo mało prawdopodobne, a jeszcze mniej prawdopodobne, by o tym wiedział Ptolemeusz. Ponadto, jak pisał Włodzimierz Zonn [146]: „Ale to jeszcze drobnostka w porównaniu z koniecznością uwierzenia, że obecność którejś z planet na drodze tego oddziaływania gruntownie zmienia jego charakter. Że obecność np. małego Neptuna na drodze „promieniowania” idącego” z kierunku gwiazdozbioru Skorpiona zmieni oddziaływanie tegoż promieniowania tak, że zamiast fałszywych mędrców rodzić się będą naiwni prostaczkowie! Jeśli jednak zamiast Neptuna na drodze znajdzie się inna planeta, bardzo podobna niemal pod każdym względem do Neptuna, np. Mars, to wszystko znowu się odmieni i rodzić się będą wielcy wojownicy...”
Lecz pokora, jakiej uczy nas historia nauki, nie pozwoliłaby odrzucić z góry nawet tak niewiarygodnych twierdzeń, gdyby tylko ktoś potrafił je przekonywająco uzasadnić na materiale obserwacyjnym. Aby pokazać zupełną absurdalność twierdzeń astrologów posłużę się tylko jednym przykładem, a mianowicie Neptunem. Ta odległa od Słońca planeta, odkryta niecałe 150 lat temu (por. rozdział 3), jest jeszcze bardzo słabo poznana przez astronomów. Mimo usilnych badań wiemy bardzo niewiele o panujących na niej warunkach i jeszcze teraz trwają dyskusje na temat okresu jej obrotu wokół osi (w tablicach podaje się zwykle okres poniżej 16 godzin, ale pojawiły się nowe dane zdające się wskazywać na okres około 22 godzin!). Spodziewamy się, że dokładniejszych informacji o Neptunie może dostarczyć sonda kosmiczna „Voyager 2”. Tymczasem dla astrologów Neptun nie przedstawia tajemnic, „poznali” oni już bowiem bardzo wiele jego cech. Oto co pisze współczesny polski astrolog: „Neptun jest władcą znaku zodiakalnego Ryb. Określa się tę planetę jako »negatywną”, »żeńską«, »płodną« i »łagodną«. Wpływ Neptuna dotyczy przede wszystkim spraw wyższych, na płaszczyźnie fizycznej w zetknięciu z materią i życiem codziennym ulega wypaczeniu. Można to określić, że »Neptun nie wytrzymuje kontaktu z materią”. Na płaszczyźnie fizycznej ma związek z cieczami, wodą, wilgocią, mgłą, butwieniem, mchem, grzybami, miejscami cienistymi. Na płaszczyźnie wyższej, niematerialnej, Neptun ma związek z podatnością do przekształceń, wrażliwością, tajemniczością i tajemnicami, ewolucją bierną lub kolektywną, sugestywnością, uzdolnieniami supernormalnymi jak np. jasnowidztwo, widzenia senne, wgląd w to, co potocznie określa się mianem »czwartego wymiaru«. Wpływ Neptuna obdarza natchnieniem, intuicją, wyższą mądrością, poczuciem obowiązku, mistycyzmem, wiarą, a także zimnym opanowaniem umożliwiającym rozwój wyższych władz wewnętrznych, daru proroczego, geniuszu, ekstazy, wtajemniczenia. Ujawnia się także wielopłaszczyznowość umysłu zdolnego do skojarzeń pozornie dziwnych, rażących, a w rzeczywistości trafnych... ...Życie zazwyczaj smutne, wewnętrzne odosobnienie, brak zrozumienia przez innych - oto obraz człowieka zanurzonego w mgle wpływów neptunowych... ...Neptun (...) obdarza natchnieniem, genialnością, estetyzmem, artyzmem, wyższym życiem wewnętrznym, mistycyzmem, subtelnością, delikatnością, zdolnościami metapsychicznymi, często też mediumizmem. Niestety często też dołączają się tu cechy ujemne, niekiedy nawet fatalne, które w wypadku złych aspektów pozostają zazwyczaj jedynymi cechami. Są to: skłonności do narkotyków, alkoholizmu, apatii, nadmiernej pobłażliwości dla siebie i innych. Występuje dążność do poszukiwania niezwykłych wrażeń, uwiedzeń i ekscesów wszelkiego rodzaju...” [147]. Właściwie można ten cytat pozostawić bez żadnego komentarza. Trochę się nie mieści w głowie, że pochodzi on nie z jakiegoś średniowiecznego traktatu magicznego, lecz z biuletynu astrologicznego z ostatnich lat. Chciałoby się zapytać: kto, kiedy, jakimi przyrządami i metodami zdołał ustalić tak szczegółową charakterystykę Neptuna; wymagać to przecież musiało nie lada pracy, znacznie przekraczającej wysiłek paru pokoleń biedzących się nad Neptunem astronomów. Ale, że odpowiedzi nie otrzymamy, przytoczymy jeszcze tylko wypowiedź znanego amerykańskiego astrofizyka i astrobiologa Carla Sagana [148]: „Astrologia towarzyszy nam co najmniej od 5000 lat. Nie oznacza to, że jest ona słuszna, lecz tylko charakteryzuje jej rezonans z naszą potrzebą wierzeń.
Według mojej najlepszej wiedzy w żadnym renomowanym i recenzowanym periodyku naukowym nie było nigdy pracy uzasadniającej słuszność astrologii. Jeśli dane przemawiające za słusznością astrologii są tak liczne i łatwo osiągalne, to dlaczego nie są publikowane w literaturze naukowej? Są pewne dane na to, że urodziny ludzi w niektórych szczególnych zawodach zdarzają się w niektórych miesiącach (można więc powiedzieć: pod niektórymi znakami astrologicznymi) częściej, niżby to wynikało z rozkładu przypadkowego34. Ale młode istoty ludzkie mogą ulegać bardzo silnym wpływom klimatu albo przed urodzeniem, albo tuż po nim. W strefach umiarkowanych, których dotyczy większość przeprowadzonych statystyk, pogoda w styczniu jest przecież bardzo różna od pogody w lipcu. Nie zaproponowano dla astrologii żadnego mechanizmu. Rzekomy wpływ astrologiczny nie może się propagować przez światło, ponieważ większość ludzi rodzi się w zamkniętych budynkach. Nie może się również wiązać z grawitacją, gdyż wpływ grawitacyjny lekarza położnego jest dużo większy niż np. wpływ Marsa. Mars ma większą masę, ale lekarz jest dużo, dużo bliżej. Astrologia nie zauważa źródeł promieniowania X, radiowego, gamma i podczerwonego i wielu innych obiektów naszego Układu Słonecznego odkrytych w ostatnich paru tysiącach lat. Praktykujący astrologowie często używają nieprawdziwych tablic położeń planetarnych i nie wprowadzają poprawek na refrakcję astronomiczną. Popularność astrologii to smutna ilustracja braku niezależnego, otwartego i krytycznego myślenia w naszym społeczeństwie”.
Rysunek 26 Korelacja cen pszenicy z liczbą plam na słońcu [150]
34
Sagan ma tu na myśli badania francuskiego astrologa Michela Gauquelina; wyniki te nie zostały potwierdzone [149], Napisałem też o tym w przedmowie do książki [211]. Najnowszy, bardzo skrupulatny tekst sensowności przewidywań astrologicznych przeprowadzony przy udziale astrologów [212] dał też zupełnie negatywne wyniki.
Nikt oczywiście nie zaprzecza istnieniu głębokich związków między zjawiskami w Kosmosie i życiu ludzkim. Wystarczy choćby wspomnieć wpływ zmian aktywności słonecznej na klimat, zjawiska biologiczne i może nawet społeczne (patrz rys. 26). Niezaprzeczalny i dobrze ustalony jest też wpływ Księżyca. To jednak nie ma nic wspólnego z astrologią, zastygłą w starodawnych schematach i wierzeniach. Pojawiające się u nas od czasu do czasu enuncjacje prasowe rodzimych astrologów mogą napawać tylko smutkiem35. Wśród wielu sławnych przypadków pseudonauki znajduje się mesmeryzm, czyli magnetyzm zwierzęcy i ludzki. Mesmeryzm został zapoczątkowany przez Franza Antona Mesmera (1734-1815, fot. 47), który studiował medycynę w Wiedniu i uzyskał tam tytuł doktora na podstawie pracy Wpływ planet na życie ludzkie. Rozwijał tam przestarzałą ideę, że wszystkie części Wszechświata przenika niewidzialny fluid podobny do magnetyzmu, a planety oddziałują na życie ludzkie. Zasadniczą treść poglądów Mesmera zawiera poniższy wyjątek z jego rozprawy [151]: „Ciała niebieskie, ziemia i organizmy żywe wywierają na siebie wzajemnie wpływ; wpływ ten przenosi się za pośrednictwem rozproszonego we Wszechświecie fluidu. Doświadczenia wykazują, że istnieje jakaś materia, tak subtelna, że może przenikać wszystkie ciała, praktycznie bez utraty energii. Działa ona z dużych odległości bez pośrednictwa jakiejś innej substancji, podobnie jak światło skupiające się i odbijające w zwierciadle. Wykazuje właściwości (szczególnie w ciele ludzkim) podobne do właściwości magnesu. Tę siłę magnetyczną można akumulować, koncentrować i przenosić. Fakty te zgodne z praktycznymi prawidłowościami, nad których ustalaniem właśnie pracuję - dowodzą, że opierając się na tej zasadzie, będziemy leczyć bezpośrednio choroby nerwowe, inne zaś choroby drogą pośrednią. Uzbrojony w tę zasadę lekarz może sobie jasno uprzytomnić, jak posługiwać się medycyną, aby jej działanie było bardziej doskonałe oraz jak pokierować zbawczymi przesileniami, żeby mieć nad nimi absolutną kontrolę”. Mesmer doszedł więc do wniosku, że za pomocą magnetyzmu można leczyć ludzi. Pewnego razu, próbując uleczyć młodą kobietę cierpiącą „na konwulsję” zauważył, że osiąga jednakowo dobre wyniki machając pustymi rękami, jak przy machaniu magnesem. Ogłosił więc, że jego dłonie są namagnesowane i głaszcząc pacjenta lub machając nad nim rękami może kierować nań uzdrawiające prądy fluidu. Przeniósłszy się z Wiednia do Paryża otworzył tam słynny salon leczniczy, słabo oświetlony, wyłożony lustrami, w którego środku umieścił drewniany cebrzyk wypełniony opiłkami żelaza, sproszkowanym szkłem i „namagnesowaną” wodą. Z cebrzyka przez pokrywę wystawały żelazne pręty, które pacjenci przykładali do obolałych części ciała. O dziwo, wizyty w salonie Mesmera przynosiły ulgę wielu pacjentom. Praktyki Mesmera stały się głośne i w 1784 r. rząd francuski powołał specjalną komisję, która miała się wypowiedzieć na temat naukowych podstaw działalności Mesmera. W skład komisji wchodzili m.in. Lavoisier i Franklin. Przytoczmy wyjątek z werdyktu tej komisji [152]:
35
W wyjątkowo bałamutnej książce [213] autorzy bez osłonek podają, że niektórzy astrologowie opierają swe horoskopy na kilkudziesięciu planetach nie znanych astronomom, a odkrytych „metodami astrologicznymi” (czytaj: wziętych z sufitu), co ma zwiększyć dokładność horoskopów. Byłaby to niezła lektura humorystyczna, gdyby nie fakt, że zmarnowano na jej wydanie (w 100 000 egz.!) wiele dobrego papieru, którego nadal nie mamy w nadmiarze.
„Komisja uznając, że fluid zwierzęco-magnetyczny ani jednemu z naszych pięciu zmysłów nie jest dostępny, że nie wykazał on najmniejszego działania na nikogo z naszych członków ani na chorych, których komisja poddała temu oddziaływaniu, a wreszcie, wykazując za pośrednictwem rozstrzygających doświadczeń, że wyobraźnia bez pomocy magnetyzmu wywołuje wstrząsy, a magnetyzm bez pomocy wyobraźni nie wywołuje żadnego efektu - ustaliła jednogłośnie następujący wniosek o istnieniu i użyteczności magnetyzmu: nic nie wskazuje na istnienie fluidu zwierzęco-magnetycznego, a zatem, to nie istniejące ciało nie może być użyteczne; lecznicze skutki obserwowane w czasie publicznego leczenia zachodzą wskutek dotknięcia, pobudzonej wyobraźni i mechanicznego naśladowania zmuszających nas do mimowolnego powtarzania tego, co wywołuje w nas wrażenie”. Werdykt tej komisji zniszczył prestiż Mesmera, który zachował jednak praktykę leczenia w swym salonie. Dopiero po wybuchu Rewolucji Francuskiej uznał, że bezpieczniej będzie przenieść się do Szwajcarii, gdyż większość jego pacjentów wywodziła się ze znienawidzonej przez lud arystokracji. Mimo iż u podstaw praktyk Mesmera leżały pseudonaukowe poglądy, osiągnął on, jak powiedzieliśmy, znaczne sukcesy. Można spotkać zdanie, że Mesmer po prostu odkrył hipnozę. Nie jest to zgodne z prawdą, jak wyjaśnia Eysenck [153]: „Terminy »mesmeryzować« i »hipnotyzować« stały się prawie że synonimami, a sam Mesmer uchodzi wśród większości ludzi za ojca hipnozy lub przynajmniej za jej odkrywcę i tego, który pierwszy ją świadomie praktykował. Tymczasem sprawa ta przedstawia się zupełnie inaczej. Otóż zjawiska hipnotyczne znane są już od tysięcy lat, a jeśli chodzi o Mesmera, to nie hipnotyzował on w ogóle swych pacjentów. Niektórzy z jego pacjentów doznawali spontanicznych wstrząsów hipnotycznych, u innych pojawiały się silne przeżycia emocjonalne i występowały zjawiska odreagowań, jednakże ani w jego zabiegach, ani u jego następców nie mamy do czynienia z prawdziwymi zjawiskami hipnotycznymi. Tak więc okazuje się, o dziwo, że ojciec hipnozy nigdy faktycznie nikogo nie hipnotyzował, na zjawiskach tych się nie znał i dla hipnozy nie było miejsca w jego systemie teoretycznym. Zagadką jest, dlaczego opinia publiczna przypisała Mesmerowi odkrycie dokonane przez innych”. Ogromnie bogatym i szerokim terenem działalności pseudonaukowej są tzw. zjawiska paranormalne. Jednak w odróżnieniu od spekulacji z dziedziny przyrodoznawstwa, o których była mowa na początku tego rozdziału, teren zjawisk paranormalnych jest niezmiernie mało zbadany przez naukę, toteż zgodnie ze stanowiskiem wyjaśnionym w rozdziale 4 - nie można a priori negować faktów czy hipotez na te tematy, nawet jeśli wydają się fantastyczne i nie są w pełni zrozumiałe. Tak, nie można negować faktów, jeśli -są prawdziwe. Tymczasem okazuje się - co wyjaśniam poniżej - że faktów tych może w ogóle nie być, że wszystko to mogą być oszustwa lub zmyślenia. Zacznijmy od spirytyzmu. Jak piszą państwo de Camp [154]: „Oficjalnie spirytyzm narodził się 31 marca 1848 r., kiedy to córki Johna i Margaret Fox z Hydesville w stanie Nowy Jork rzekomo nawiązały porozumienie z duchem, który od pewnego czasu zakłócał spokój ich domostwa tajemniczymi odgłosami (...)”. Dziewczynki, Margaret i Kate, opracowały szyfr, który umożliwił rozmowy z duchem. Z dziewczynkami zaczęto prowadzić płatne pokazy przed publicznością, cieszące się dużym powodzeniem. Siostry Fox przyczyniły się do rozkwitu spirytyzmu, który zresztą miał spory odłam o charakterze wyraźnie religijnym.
Po czterdziestu latach siostry Fox przyznały się do oszustwa. Początkowo dla żartu udawały rozmowy z duchami, potem czuły się zmuszone przez publiczność do kontynuowania porozumienia ze światem duchów. Swoje sztuczki robiły tak dobrze, że nie zostały zdemaskowane przez badających je uczonych, m.in. znanego fizyka Crookesa. Margaret Fox zademonstrowała w Nowojorskiej Akademii Muzyki, w jaki sposób obie wytwarzały słyszalne trzaski w swych stawach. To zjawisko „trzaskania” w stawach przy gwałtownych ruchach zna każdy, ale na ogół nie można takich trzasków powtarzać dowolnie, i to przy ruchach niedostrzegalnych dla widza. O tym, do jakiego stopnia można ulegać zaślepieniu, świadczy stanowisko Charlesa Richeta, znanego uczonego, laureata Nobla z medycyny (1913 r.), który pisząc po latach książkę o zjawiskach parapsychologicznych wypowiedział się w niej, że rozmowy sióstr Fox z duchami były autentyczne, a oszustwem było ich przyznanie się do oszustwa! Przykładem pseudonaukowej pracy poświęconej m.in. spirytyzmowi jest książka F.W. Holidaya, który przedstawia się jako były pilot R.A.F., inżynier okrętowy, pomocnik kupca towarów kolonialnych, dziennikarz i farmer. Książka ta pt. The Dragon and the Disc [155] wydana niedawno w Anglii omawia głównie zagadnienia związków smoków i potworów (np. potwora z Loch Ness) z latającymi talerzami. Autor w paru miejscach zahacza o fizykę, wspomina np. o teorii względności Einsteina; te urywki nie pozostawiają wątpliwości, że autor nie ma zielonego pojęcia o tym, o czym pisze. W tejże pseudonaukowej książce wiele miejsca autor poświęca zagadnieniom krasnoludków, elfów, gnomów i innych towarzyszących nam stworów. Dyskutuje np. z całą powagą słynną historię dwóch dziewczynek Elsie Wright i Frances Griffiths, które w lesie Cottingley w hrabstwie Yorkshire spotykały się wielokrotnie z krasnoludkami, wiodły z nimi długie rozmowy i przedstawiały nawet dowody w postaci fotografii tych stworków. Sprawa wywołała w Anglii wielką sensację w latach 1917-1920, zainteresował się nią m.in. znany pisarz Arthur Conan Doyle, twórca Sherlocka Holmesa. Wziął on serio opowiadania dziewczynek i przedstawiane przez nie fotografie (fot. 48) i napisał nawet na ten temat książkę The Coming of the Fairies (1921). Niestety, kiedy w 1920 r. wyposażono dziewczynki w kamerę filmową, krasnoludki postanowiły zniknąć (a może problem techniczny poruszania kukiełek przed obiektywem okazał się za trudny nawet dla tych pomysłowych dziewczynek), nigdy więcej nie uzyskano więc potwierdzenia tych spotkań. Przypadki sióstr Fox czy Elsie Wright i jej koleżanki to tylko przykłady z ogromnej galerii tzw. mediów, które od przeszło stu lat produkują się publicznie demonstrując kontakty z duchami, telekinezę, jasnowidztwo itp. Do najsłynniejszych należała Włoszka Eusapia Palladino, która występowała nawet przed paroma komisjami uczonych, aż wreszcie została przyłapana na kuglarskich sztuczkach. Innym słynnym medium była Brytyjka Margery Crandon, w której zdemaskowaniu jako oszustki decydującą rolę odegrał słynny iluzjonista Harry Houdini. Bezbłędnie odgadł on sztuczki; jakimi pani Crandon (i inne media) zdołała otumanić wielu znanych uczonych36. W latach siedemdziesiątych XIX wieku słynny był też przypadek „doktora” Henry Slade'a, Amerykanina, który twierdził, że może przenikać do czwartego wymiaru. Swymi iluzjonistycznymi sztukami tak opętał austriackiego astrofizyka Johanna Zöllnera, że opisał on doświadczenia ze Sladem i swoje na ten temat teorie w książce Fizyka transcendentalna [156]. Wkrótce potem zdradzając objawy choroby umysłowej został umieszczony w szpitalu. Sztuczkami Slade'a zajęła się specjalna 36
Dokładny opis historii Eusapii Palladino, Margery Crandon i innych mediów można znaleźć w cytowanych książkach Hansela [110] oraz państwa de Camp [154].
komisja, która udowodniła, że posługiwał się on jedynie trikami iluzjonistycznymi. Slade w końcu przyznał się na piśmie (4 XI 1882) do oszustw oraz do wprowadzenia w błąd Zölinera i innych obserwatorów. W ostatnich latach natomiast światową sławę zdobył Uri Geller, zadziwiający ludzi odgadywaniem zamkniętych tekstów, przekazywaniem i odgadywaniem myśli oraz zginaniem łyżeczek. Zdolności Gellera badali m.in. Puthoff i Targ, którzy na łamach „Nature” [157] przedstawili wyniki świadczące, ich zdaniem, o realności zjawisk paranormalnych. Do innego wniosku doszedł jednak Joseph Hanlon [158], który zebrał dane świadczące o niewątpliwej nieuczciwości Gellera. A kropkę nad i postawił znany iluzjonista amerykański James Randi, który zdemaskował wszystkie triki Gellera [159]. Po założeniu w Anglii Towarzystwa Badań Psychicznych uczestniczyło w jego działalności wielu znanych fizyków, którzy nie mogli się dopatrzyć żadnych „niedozwolonych” praktyk w popisach mediów. Dopiero gdy tymi sprawami zainteresował się iluzjonista Harry Houdini, zaczął z łatwością wykrywać triki i oszustwa. Jak się więc zdaje, naukowcy źle się nadają do wykrywania podobnych oszustw, ponieważ przywykli do badania przyrody, która zawsze zachowuje się fair, w odróżnieniu do oszustów goniących za pieniędzmi. Udział sztukmistrzów i iluzjonistów w badaniach mediów jest więc niezbędny. „Idealnym człowiekiem do prowadzenia badań parapsychologicznych byłby biegły fizyk, antropolog, psycholog, kryminolog i iluzjonista w jednej osobie. Powinien łączyć w sobie mądrość Salomona z cyniczną podejrzliwością wytrawnego detektywa. Jednakże taki człowiek prawdopodobnie jeszcze się nie narodził” [160]. Czyż nie daje do myślenia fakt, że współcześnie działający osobnicy, którzy pretendują, jak Uri Geller, do posiadania nadprzyrodzonych zdolności, bardzo, chętnie zgadzają się występować nawet przed bardzo dużymi gronami naukowców, ale nigdy w obecności zawodowych magików, którzy przecież wiedzą doskonale, jak wykorzystywać łatwowierność widzów? I tak np. w 1975 r. wspomniany już Randi publicznie oświadczył [159], że zapłaci 10 000 dolarów Gellerowi lub komukolwiek innemu, kto udowodni istnienie zjawisk lub zdolności paranormalnych. Warunkiem jest wykonanie odpowiedniego pokazu przed komisją, w której skład wszedłby sam Randi, jeszcze jeden zawodowy iluzjonista jego wyboru oraz dwóch przedstawicieli świata nauki i prasy. W Anglii Berglas złożył podobną ofertę, proponując nagrodę 5000 funtów. Geller nie podjął próby zdobycia nagrody, j chociaż w tym czasie produkował się publicznie, biorąc za występ tylko 200 dolarów. Do konkursu o nagrodę Randiego stawało już paręset osób, wszystkim jednak udowodniono stosowanie trików iluzjonistycznych [161]. Działalność Randiego i innych iluzjonistów doprowadziła do ujawnienia trików, jakimi posługują się inne głośne media popisujące się telekinezą jako rzekomą „siłą psychiczną” [162]. Czy jest więc dziwne, że większość naukowców bardzo sceptycznie zapatruje się na doniesienia o zjawiskach paranormalnych? Ze względu na udowodnioną łatwowierność Puthoffa i Targa wobec Uri Gellera pod znakiem zapytania stoją także wyniki ich doświadczeń z innymi mediami opisane w rozdziale 4. Na sztuczkach przyłapano pewnego razu Ingo Swanna, czyż można więc wierzyć w wyniki badań przeprowadzonych przy jego udziale przez Gertrudę Schmeidler (rozdział 4)? Cytowani powyżej Hansel czy państwo de Camp zajmują stanowisko skrajnie sceptyczne:
„Media psychiczne rozpoczynają, być może, swoją działalność ze szczerym przeświadczeniem o prawdziwości swych nadprzyrodzonych kontaktów. Jednakże później, w pogoni za sławą i fortuną, czują się zmuszone do fingowania transów, ponieważ nie mogą wprowadzić się w trans na każde żądanie klientów, którzy płacą im przecież za wywoływanie duchów (...) Na jeszcze niższym szczeblu drabiny uczciwości znajdują się media fizyczne. Liczne dowody wykazały, że wszystkie media fizyczne używają sztuczek, które zdumiewają, swą różnorodnością i pomysłowością” [163]. Inni badacze są nastawieni mniej sceptycznie. Zresztą sami państwo de Camp przyznają, że „(...) żaden człowiek prowadzący badania parapsychologiczne nie może udowodnić, że wszystkie zjawiska fizyczne przypisywane duchom są nieprawdziwe. Zdemaskowanie miliona oszustw nie wykluczy możliwości, że milion pierwszy przejaw obecności ducha nie jest prawdziwy” [164] Niechże przytoczone tu przykłady i krytyczne uwagi będą przeciwwagą dla wielu hurraoptymistycznych enuncjacji na temat zjawisk paranormalnych, jakie można u nas spotkać na łamach gazet i tygodników: ich autorzy bowiem zbyt chętnie „zapominają” o wszystkich „wpadkach” nawet najsłynniejszych mediów37. Trudno się też nie zgodzić z wyważonym zdaniem, wypowiedzianym przeszło sto lat temu przez Dymitra Mendelejewa, zdaniem, które zachowuje aktualność do dziś: „Zjawisk tych nie można ignorować, a przeciwnie trzeba je dokładnie zbadać, to znaczy stwierdzić, co spośród nich należy do dziedziny znanych wszystkim zjawisk naturalnych, co należy do rzeczy zmyślonych i halucynacji, co zaś do haniebnych oszustw, i wreszcie stwierdzić, czy któreś z nich nie należą do kategorii zjawisk dotychczas nie wyjaśnionych i wynikających z nich nie znanych jeszcze praw przyrody. Po takim zbadaniu zjawiska te utracą znamię tajemniczości pociągającej tak wielu ludzi i w ten sposób mistycyzm zostanie pozbawiony wszelkich podstaw (...)” [165]. Pseudonauką, która obecnie chyba najbardziej oddziałuje na społeczeństwo, jest „ufologia”, zajmująca się UFO, popularnie zwanymi „latającymi spodkami”. Podkreślę na wstępie, że nie chodzi mi tu o tych nielicznych badaczy, którzy próbują atakować problem UFO metodami naukowymi, lecz o tych, którzy przyjmując za fakt udowodniony, że UFO to pojazdy istot pozaziemskich, zajmują się najbardziej fantastycznymi i bezsensownymi rozważaniami na ich temat. Amerykański astrofizyk Allen Hynek, profesor Uniwersytetu Północno-zachodniego w Chicago i kierownik założonego tam „Center for UFO Studies” (fot. 49), tak pisze w przedmowie do swej książki The UFO Experience [166], jednej z najlepszych, jeśli nie najlepszej książki na temat UFO: „(-...) Jest oczywiście wiele książek na ten temat. Uraczają one czytelnika jedną za drugą historyjką o UFO, które prześcigają się w fantastyczności, ale niewiele miejsca poświęca się w nich dokumentacji i ocenie. Jak wiarygodni i zgodni w swych relacjach byli ludzie (niestety najczęściej jest to tylko jeden człowiek), którzy donieśli o zjawisku? Jak wybierane były doniesienia o UFO? Najczęściej spotyka się przypadkowo dobrane doniesienia, bez żadnego z sobą związku i w dodatku opowiedziane po dziennikarsku (...)” 37
W 1974 r. sensację wywołało przyłapanie na fałszowaniu danych dr. Waltera Levy, dyrektora Instytutu Badań Parapsychologicznych Uniwersytetu Duke w Durham (USA). Instytutem tym kierował poprzednio, cytowany w rozdziale 4, J. B. Rhine. Czytelnik powinien też koniecznie zapoznać się z artykułem [214].
I dalej: „(..!) Nie mogę natomiast ośmielić się napisać, czym są UFO, ponieważ tego nie wiem (...)”. To ostatnie, bardzo charakterystyczne zdanie może służyć jako wskazówka pozwalająca czytelnikom na odróżnienie książek pisanych przez uczciwych naukowców od morza „dzieł” przeróżnych fanatyków, którzy zwykle kuszą czytelnika już na okładce tym, że podają gotową, sensacyjną i oczywiście jedyną prawdziwą odpowiedź na pytanie, czym są UFO. Zwykle odpowiedź ta ma związek z kosmitami (fot. 50), bywa poparta relacjami z rozmów z nimi i z podróży na inne planety (jak u Adamskiego), ale mogą to też być stwierdzenia, że UFO to pojazdy z wnętrza Ziemi (jak u Trencha), pojazdy z innego wymiaru lub statki podróżników w czasie (np. Atlantów). Książki takich autorów - by wymienić najbardziej znanych - jak George Adamski, Robert Charroux, R.L. Dione, Raymond Drake, Henry Durrant, Frank Edwards, John Fuller, Donald Keyhoe, Arthur Shuttlewood, John Spencer, Brad Steiger, Guy Tarade, Paul Thomas, Brinsley Le Poer Trench i Clifford Wilson, są zupełnie bezwartościowe dla czytelnika pragnącego się dowiedzieć czegoś rzeczowego na temat UFO. Nie można z tych książek korzystać nawet jako ze źródła pojedynczych doniesień o UFO, gdyż autorzy ci odznaczają się - można do nich zastosować wyżej cytowane zdanie Hynka - brakiem krytycyzmu w przytaczaniu relacji, a często sami upiększają tekst zmyślonymi przez siebie „dowodami”. Zwykle jednak czytelnik już na wstępie może się zorientować, z czym ma do czynienia. Groźniej natomiast przedstawia się sprawa z książkami drugiej grupy, też bez większej wartości, które są tak dobrze ucharakteryzowane na prace czysto naukowe, że mniej zorientowany czytelnik często dopiero pod koniec książki może poznać rzeczywiste intencje autora. Do tej grupy autorów zaliczam takich ufologów, jak Aime Michel, John Keel, Ralph Blum czy Jim i Coral Lorenzen. Na przykład Michel ogłosił o odkryciu przez siebie tzw. ortotenii, zjawiska poruszania się UFO po krzyżujących się odcinkach linii prostych. Rzecz polegała po prostu na niezrozumieniu dość podstawowych praw statystyki matematycznej, co wykazali Donald Menzel i Jacques Vallee. Jacques Vallee, astronom i matematyk współpracujący z Hynkiem w badaniach UFO, tak pisał w swej znakomitej książce Anatomia zjawiska [167]: „(...) Dla wyznawców kultu niezidentyfikowanych obiektów latających w Ameryce jedynym problemem jest to, jak »sprzedawać« latające talerze, tak jak sprzedaje się parówki czy lody. Cóż z tego, że doniesienia są zmyślone, fotografie fałszowane, a podróż na Wenus wyimaginowana? Cóż z tego, że trzeźwo myślący czytelnik, oszukany dwa, trzy razy, uzna na podstawie tych błazeństw, że UFO to żarty? Dla tych wyznawców jedynym motywem »badań« jest łatwe zdobycie pieniędzy. Czasem ich historyjki są opowiadane z prawdziwym talentem, czasem są smutne i odrażające.- Ale marzenia pozostają (...)”. Wiele z tych słów można niestety zastosować także do materiałów, które spotykamy na łamach naszej prasy. Przypomnijmy definicję UFO38. Allen Hynek, jeden z najwytrwalszych i najbardziej znanych badaczy tych zjawisk, podał taką definicję już w 1953 r. w fachowym czasopiśmie fizycznym [168]: „UFO, czyli Niezidentyfikowany Obiekt Latający, jest to zjawisko lub spostrzeżenie, które pozostaje nie
38
UFO to skrót od angielskiego Unidentified Flying Object.
wyjaśnione dla obserwatora przynajmniej dopóty, dopóki nie opisze on komuś innemu tego, co widział”. Później Hynek podał inną definicję UFO [169]: „Niezidentyfikowany Obiekt Latający jest to zjawisko lub światło na niebie lub ziemi, którego wygląd, tor lotu i zachowanie się nie nasuwają logicznego, zwykłego wyjaśnienia, które jest tajemnicze nie tylko dla obserwatora, ale które pozostaje nie wytłumaczone nawet po dokładnym zbadaniu wszystkich okoliczności przez osoby technicznie zdolne do podania rozsądnego wyjaśnienia (a więc przez ekspertów)”. Pierwsza definicja Hynka obejmuje bardzo szeroką klasę zjawisk. Po zbadaniu przez ekspertów relacji napływających od obserwatorów - zwykle około 90% udaje się od razu wyjaśnić jako obserwacje dobrze znanych zjawisk, jak: planety, jasne gwiazdy, sztuczne satelity, meteory, samoloty, balony, zorze polarne, nawet ptaki. Pozostałe relacje dotyczą „prawdziwych” UFO, które obejmuje druga definicja Hynka. Niektórzy badacze, jak Donald Menzel czy Philip Klass uznają za możliwe, iż wszystkie doniesienia o UFO dotyczą zjawisk dobrze znanych, jednakże fałszywie interpretowanych i opisywanych przez obserwatorów, Wiadomo przecież, że większość ludzi to bardzo źli świadkowie, od których można usłyszeć krańcowo różne relacje o wydarzeniach, które obserwowali, przy czym rozbieżność opinii jest tym większa, im bardziej nagłe i niespodziewane zjawisko wystąpiło. Zagadnieniu wiarygodności relacji świadków sporo miejsca poświęca cytowany już brytyjski psycholog Eysenck [170]: „Celem zbadania niedokładności zeznań przeprowadza się zwykle następujący eksperyment. Zbiera się grupę studentów, którym daje się wykład o niedokładności zeznań świadków, a następnie inscenizuje jakieś ekscytujące wydarzenie. Na przykład w czasie wykładu wpada ktoś z zewnątrz i wyjmuje rewolwer grożąc, że zabije wykładowcę. Zwykle kilku studentów wyprowadza intruza z pokoju. Wykładowca zwraca się wtedy do studentów z prośbą o opisanie incydentu, jaki się właśnie rozegrał. Osobom, które nie uczestniczyły nigdy w tego typu eksperymencie, trudno byłoby uwierzyć, jak niedokładne są to relacje. W niektórych opisach rewolwer staje się np. nożem, strzelbą lub kijem, intruz jest w nich kobietą, starym człowiekiem z brodą, Murzynem czy też chorym umysłowo. Świadkowie niemal zupełnie zniekształcają treść jego wypowiedzi i wreszcie liczba studentów, którzy wyprowadzili go z pokoju albo niepomiernie wzrasta, albo też z opisu wynika, że napastnik sam się wycofał (...)”. Dodajmy, że w przypadku obserwacji nieznanego świadkowi obiektu na niebie element emocji jest jeszcze większy, a dodatkowo istnieje jeszcze coś w rodzaju presji psychicznej (wszyscy już widzieli UFO, a ty jeszcze nie?!). Prześledźmy na przykład poniższe zestawienie relacji o nie zidentyfikowanym przez obserwatorów obiekcie w listopadzie 1957 r. w USA i w Kanadzie [171]. - Obiekt w kształcie cygara, światło białe, fluorescencyjne, długi ogon z trzema niebieskimi smugami (niektórzy wzięli te smugi za płomienie), był głównie nieruchomy, ale wykazywał nagłe ruchy w bok,
zdawał się oddalać od obserwatora; obserwacja przez lornetkę przez około godzinę (Aiken, Płd. Karolina). - Wielki obiekt owalny, jasnopomarańczowy i białawy, znikł na horyzoncie, widoczny przez godzinę (Milwaukie, Oregon). - Obiekt wielkości piłki do koszykówki, srebrzysty, potem czerwony, wydawał się kręcić wokół osi, obserwowany przez lornetkę około 20 minut (Teksas i Nowy Meksyk). - Obiekt okrągły z trójkątną wypustką na górze, część okrągła biała, trójkątna czerwona i obracająca się, obiekt poruszał się pionowo i poziomo, obserwowany przez godzinę (St. Charles, Missouri). - Obiekt w kształcie jajka, obserwowany przez lornetkę pół godziny, najpierw biały, potem znikł pozostawiając na niebie czerwone kropki, zdawał się kręcić wokół osi (Harrisburg, Pensylwania). - Obiekt okrągły wielkości piłki do baseballu, obserwowany przez lornetkę 3 godziny, biały gołym okiem, brązowy przez lornetkę, poruszał się na zachód (Santa Rosa, Teksas). - Obiekt owalny wielkości główki szpilki do ziarnka grochu, świecił biało i pomarańczowo, niektórzy widzieli ciemną plamę przesuwającą się na jego tle, skąd wnioskowali o obrocie wokół osi raz na minutę, 20 razy większy od Gwiazdy Polarnej (Ontario). - Obiekt okrągły wielkości dziesięciocentówki, wysyłający wiązki światła (Long Beach, Nowy Jork). - Obiekt gruszkowaty, wielkości bombowca, o metalicznym wyglądzie poruszał się na południowy zachód, szybko słabnąc, obserwowany przez lornetkę przez około 20 minut (Buffalo, Nowy Jork). - Obiekt okrągły wielkości grochu, zielony i niebieski, nieruchomy przez godzinę (Detroit, Michigan). Naprawdę trudno w to uwierzyć, ale wszystkie powyższe relacje dotyczyły planety Wenus, która w tym czasie bardzo jasno świeciła na zachodnim niebie. Dodajmy, iż wszyscy obserwatorzy byli przekonani, że obserwują latający spodek. Może sprawę wyjaśnia częściowo fakt, że działo się to wkrótce po wystrzeleniu pierwszego sputnika (4 X 1957 r.), gdy rozbudzona fantazja podpowiadała obserwatorom nie istniejące szczegóły i właściwości widzianego obiektu. Ale podobne „fale” obserwacji UFO, którym była Wenus, zdarzały się w latach następnych także w Polsce. W USA ten „obiekt niezidentyfikowany” próbowały nawet gonić samochodem patrole policyjne. Dodatkową trudnością przy obserwacjach obiektów na tle nieba jest praktyczna niemożliwość jednoczesnego wyznaczenia rozmiarów i odległości nieznanego obiektu. Podkreślam, że chodzi o obiekt nieznany, gdyż jeśli obiektem jest coś znanego, inaczej mówiąc coś o znanych rozmiarach, to wyznaczenie odległości na podstawie widocznego rozmiaru kątowego nie jest trudne. Na przykład doświadczony pilot z dużą dokładnością może ocenić wysokość lub odległość, w jakiej znajduje się inny samolot. Ale same rozmiary kątowe nie wystarczają, jeśli obiektem jest coś nieznanego, gdyż przecież np. tarczę o średnicy 1 metra w odległości 100 metrów widać pod dokładnie takim samym kątem, jak tarczę o średnicy 10 metrów w odległości 1 kilometra i tarczę 100-metrową w odległości 10 kilometrów. Jedynym rozsądnym sposobem oceny wielkości obiektu jest więc wyznaczenie jego średnicy kątowej, np. przez porównanie ze średnicą kątową Księżyca. Często przytaczane przez obserwatorów rozmiary liniowe (duży jak dwudziestogroszówka, jak pomarańcza, jak piłka futbolowa
itd.) wynikają stąd, że każdy podświadomie wyobraża sobie ten obiekt w jakiejś zadanej odległości, która zwykle ma niewiele wspólnego z rzeczywistą odległością obiektu. Kiedy 30 stycznia 1868 r. przelatywał nad Polską słynny bolid pułtuski, obserwatorom wydawało się, że leci on „(...) o jakie pięć metrów nad drzewami ogrodu”. Jasny bolid przelatywał też nad Polską 14 stycznia 1965 r. Miałem okazję zapoznać się z kilkuset relacjami obserwatorów, z których wynikało, że większość wyobrażała sobie, że obiekt ten leci na wysokości zaledwie 30 metrów, gdy w rzeczywistości było to kilkadziesiąt kilometrów [172], Podczas niedawnego przelotu nad Polską pękającego jasnego bolidu39 w sierpniu 1979 r. obserwatorom też wydawało się, że leci on bardzo nisko, na wysokości od paruset metrów do 12 kilometrów, jak to ocenił pilot. Ciekawe, że według badań Hynka [173] piloci, zarówno cywilni, jak wojskowi, należą do najgorszych obserwatorów w tym sensie, że największa liczba obserwowanych przez nich UFO okazuje się zjawiskami dobrze znanymi (głównie astronomicznymi). Właśnie ze względu na te ogromne możliwości pomyłek i przeinaczeń w relacjach obserwatorów niektórzy badacze uznają, że wszystkie doniesienia o UFO dadzą się wyjaśnić, tzn., że nawet „prawdziwe” UFO to po prostu przypadki, w których opowiadania obserwatorów bardzo daleko odbiegają od rzeczywistego obrazu zjawiska. Stanowisko takie reprezentują m.in. dwaj poważni badacze, Philip Klass [174] i Donald Menzel [175, 176, 177], Inni, jak Allen Hynek i Jacques Vallee, są przeciwnego zdania sądząc, że wśród „prawdziwych UFO mogą być przypadki nowych zjawisk”40. Wyniki badań statystycznych, jakie ogłosił niedawno Allan Hendry z prowadzonego przez Hynka Centrum Badań UFO (Center for UFO Studies), zdają się przemawiać na korzyść stanowiska Klassa i Menzela. Otóż jak wspomnieliśmy wyżej, zwykle około 90% relacji o niezidentyfikowanych obiektach udaje się łatwo wyjaśnić jako obserwacje dobrze znanych zjawisk. Te relacje stają się więc relacjami o IFO - w skrócie od angielskiego: Identified Flying Objects (Zidentyfikowane Obiekty Latające). Pozostałe około 10% to właśnie UFO. Otóż Hendry przeprowadził badania porównawcze między próbką IFO i próbką UFO. Rezultat był zdumiewający: okazało się, że nie ma żadnej statystycznie znaczącej różnicy między próbkami IFO i UFO, jeśli chodzi o wiele cech charakterystycznych, jak np. czas trwania zjawiska, pora dnia podczas obserwacji, wiek czy zawód świadka itd. A to daje wiele do myślenia. Gdyby prawdziwe UFO były czymś nowym i nieznanym, to przecież winny się różnić pod jakimś względem -od obiektów i zjawisk codziennych i dobrze znanych. Zestawienie podane przez Hendry'ego potwierdza ponownie, że wyobraźnia podsuwa obserwatorom nie istniejące szczegóły widzianego obiektu. Wielu obserwatorów nocnego przelotu samolotu podawało, że widzi obracający się obiekt w kształcie dysku, a 10% obserwatorów „widziało” jeszcze
39
Obserwacje tego bolidu wywołały w naszej prasie wielką falę doniesień i spekulacji o UFO. Bezkrytycznie drukowano niemal wszystko. Paru obserwatorów np. bardzo stanowczo twierdziło, że nie mógł być to przelot meteoru, gdyż rzekomo: „(...) obserwacja ich jest możliwa zaledwie przez ułamek sekundy” oraz „(...) lecą one przeważnie prostopadle do Ziemi”. Prasa stawiała też na równi opinie fachowych astronomów, jak i „ufologów” twierdzących, że na pewno był to statek kosmitów. 40 Nawet gdyby rację mieli Klass i Menzel, to i tak problem pozostałby niebanalnym zagadnieniem socjologicznym!
kopułkę na wierzchu „latającego talerza” istniejącego tylko w ich wyobraźni, jako że, podkreślmy jeszcze raz, chodzi o jednoznacznie zidentyfikowane obserwacje przelotu samolotu. Jeszcze jednym ważnym faktem przemawiającym za tym, że wszystkie UFO to przypadki, w których opowiadanie obserwatora odbiega daleko od rzeczywistego obrazu zjawiska uniemożliwiając jego identyfikację, jest stałość procentu „prawdziwych” UFO wśród wszystkich nadsyłanych relacji. Inaczej mówiąc, zarówno gdy relacje występują skąpo, jak i bardzo licznie (jak w przypadku okresowych „fal” UFO), procent zjawisk, których nie daje się zidentyfikować, pozostaje w przybliżeniu jednakowy. A przecież gdyby „prawdziwe” UFO były naprawdę pojazdami obcej cywilizacji, to procent ich wśród wszystkich relacji powinien się zmieniać. Jeśli, dajmy na to, w jednym roku zanotowano 100, a w drugim 300 „prawdziwych UFO”, to przyjmując hipotezę statków kosmicznych moglibyśmy powiedzieć, że dowodzi to zwiększonej aktywności „kosmitów” w tym drugim roku. Ale dlaczegóż by ludzie mieli przy trzykrotnie zwiększonej aktywności „kosmitów” donosić także trzy razy częściej o obserwacji balonów, samolotów, meteorów i innych dobrze znanych zjawisk? Tak więc, niezmienność procentu „prawdziwych” UFO, inaczej mówiąc stosunku liczby UFO do IFO, zdaje się wskazywać, że w całym tym zagadnieniu mamy do czynienia wyłącznie z „szumami”, a nie z nowym, nieznanym zjawiskiem. Robert Sheaffer zauważa dowcipnie, że np. policja też nie osiąga 100% identyfikacji sprawców rabunków, ale przecież, nikomu nie przyjdzie do głowy przypisywać „kosmitom” tych wypadków, w których sprawców nie udało się wykryć [215, 216]. Część „wyjaśnień” zjawiska UFO to wyjaśnienia pozorne. Mówi się na przykład, że UFO to pioruny kuliste. Ale pioruny kuliste, chociaż obserwowane od bardzo dawna, są zjawiskiem równie tajemniczym i, prawdę mówiąc, zupełnie nie wyjaśnionym. Istnieje bardzo wiele hipotez na temat natury tych zjawisk [178, 179], jak np.: hipoteza mikrometeorytów z antymaterii, hipoteza rezonatora pochłaniającego energię fal elektromagnetycznych, hipoteza reakcji jądrowych rozszczepienia jąder ksenonu zawartego w powietrzu, hipoteza reakcji chemicznej utleniania azotu (silnie egzotermicznej i samopodtrzymującej się z chwilą zapoczątkowania), hipoteza kuli plazmowej, hipoteza powidoków (obrazów powstających na siatkówce oka w wyniku działania silnych bodźców świetlnych) i szereg innych. Żadna z tych hipotez nie potrafi jednak wyjaśnić wszystkich obserwowanych, bardzo różnorodnych cech zjawisk nazywanych piorunami kulistymi. Niewątpliwie jednak istnieje pewne pokrywanie się zjawisk UFO i zjawisk nazywanych piorunami kulistymi. Zapoznajmy się dla przykładu z następującymi relacjami: 1) W dniu 4 listopada 1957 r. nocny samolot transportowy lecący z Porto Alegre do Sao Paulo w Brazylii napotkał na wysokości około 2200 m czerwoną kulę, która zbliżyła się do samolotu, w którym została uszkodzona prądnica i nadajnik radiowy; potem kula zniknęła. 2) W dniu 4 sierpnia 1957 r. brytyjski chemik R. Startin wędrował samotnie w Alpach Austriackich. Gdy zapadł zmierzch, był na wysokości około 2700 m. Nagle zobaczył w dolinie w odległości 200-300 m trzy pomarańczowożółte kule poruszające się bezszelestnie w kierunku wschodnim. Miały średnice nie większe niż 60 do 180 cm. Niebo było bezchmurne, rozgwieżdżone, nie było wiatru ani żadnego hałasu. 3) W lipcu 1954 r. docent z Chabarowska W.A. Barbin, udając się na polowanie, spostrzegł białą kulę o średnicy około 25 cm poruszającą się poziomo. Gdy była w odległości około 15 m, Barbin wystrzelił do niej ze śrutu, co spowodowało tylko lekkie zakołysanie się kuli, która oddaliła się, znikając z pola widzenia.
4) W 1957 r. w koszarach Itaipu (Brazylia) zauważono jasną pomarańczową kulę zbliżającą się do fortu i opuszczającą się w dół. Dwaj wartownicy poczuli nagle gorąco, jeden z nich zemdlał, drugi zawołał o pomoc. Kula uniosła się w górę i oddaliła. 5) W 1934 r. brytyjski meteorolog J. Durward był na wycieczce samochodem z dwunastoletnim synem. Syn otwierał właśnie żelazną bramę na drodze, gdy ojciec spostrzegł zbliżającą się wśród drzew jasną kulę o średnicy około 30 cm. Ręka chłopca została sparaliżowana na kilka godzin. 6) Grupa ludzi w Kanadzie zauważyła w nocy jasną kulę o średnicy około 1 metra krążącą wokół samotnego drzewa na polu. Obserwatorzy znajdowali się w odległości około 90 m; kula po paru minutach oddaliła się bezszelestnie i znikła w pobliżu horyzontu. Relacje 1) i 4) pochodzą z sensacyjnej książki o UFO [180], relacja 6) także z książki o UFO, tym razem poważnej [166], natomiast relacje 2), 3) i 5) z opracowań o piorunach kulistych (odpowiednio [181], [178] i [182]). Jak widać, wszystkie relacje są do siebie bardzo podobne (jasne, kuliste obiekty), choć występują różnice w rozmiarach, barwie i zachowaniu się obiektów. Różnice te jednak są typowe dla tych relacji. Właśnie ta różnorodność rozmiarów, barwy, czasu obserwacji i innych charakterystyk sprawia, że dotychczas niewiele wiadomo o piorunach kulistych, chociaż relacje o obiektach zaliczanych do tej samej kategorii datują się od starożytności. Niedawno w. Związku Radzieckim dokonano dużego wysiłku, aby wzbogacić wiedzę o zjawiskach zaliczanych do piorunów kulistych. Redakcja miesięcznika „Nauka i żizń” rozpisała wśród czytelników ankietę, prosząc o nadsyłanie opisów obserwacji tych zjawisk. Uzyskano relację o ponad tysiącu obiektów, co podwoiło światową statystykę zebraną w dotychczasowych opracowaniach. Igor Stachanow opracował więc około 2000 relacji o piorunach kulistych i jego niedawna książka [178] jest najpełniejszym na świecie podsumowaniem naszej wiedzy o tych zjawiskach. Już na wstępie autor stwierdza ze smutkiem, że mimo ogromnego wysiłku nie udało mu się bardzo posunąć naszej wiedzy o tych zjawiskach od tego, co wiedział już Arago, który w 1838 r. podał pierwsze podsumowanie znanych mu relacji. Już ponad 100 lat temu wiedziano, że zjawisko określane mianem pioruna kulistego to jasna kula o średnicy 20-30 cm, poruszająca się po dziwnym i złożonym torze, trwająca średnio około 10 sekund. Notowane były jednak także obiekty parometrowe i kilkucentymetrowe, trwające kilka sekund, ale i parę minut. Barwa jest przeważnie czerwonawa, ale obserwowano też kolory: żółty, pomarańczowy, zielony, fioletowy, niebieski i biały. Około 20% obiektów występuje bez widocznego związku z burzą. W opracowaniu Stachanowa zauważono jednak po raz pierwszy, że wśród tych obiektów występują dwie kategorie różniące się średnim czasem trwania. Zanik w czasie liczby piorunów kulistych daje się opisać wzorem wykładniczym:
przy czym τ1 = 5÷10 sekund, a τ2 około 50 sekund. Zauważono też pewną korelację rozmiarów z czasem trwania zjawisk: kule większe trwają przeważnie dłużej. Nie udało się natomiast stwierdzić żadnej znaczącej korelacji barwy z rozmiarami i czasem trwania. I to prawie wszystko, co udało się osiągnąć przy opracowaniu światowej statystyki około 2000 obserwowanych zjawisk. A ile jest na świecie relacji o „prawdziwych” zjawiskach UFO (tj. takich,
których dotychczas nie udało się przypisać znanym zjawiskom)? W niedawnym zbiorczym opracowaniu [173] Hynek podaje liczbę 640. Są to relacje, które Hynek osobiście wybrał z wielotysięcznej statystyki zebranej przez ponad 20 lat. Czyż można się dziwić, że tak mało dotychczas-wiemy o zjawiskach, których dotyczą te relacje? Na obecnym etapie badań UFO istotną rolę odgrywają więc próby klasyfikacji relacji o tych zjawiskach i doszukiwanie się w nich prawidłowości. Najbardziej rozpowszechniona klasyfikacja pochodzi od Hynka [166]. Doniesienia o UFO dzieli Hynek na sześć następujących kategorii: 1. 2. 3. 4. 5.
Obiekty widoczne w nocy, tzw. światła nocne. Dyskowate obiekty widoczne w dzień. Obserwacje wizualno-radarowe. Bliskie spotkania I rodzaju (tzn. bez widocznych efektów poza zdziwieniem obserwatora). Bliskie spotkania II rodzaju (z widocznymi efektami fizycznymi, mechanicznymi lub termicznymi, np. zniszczenie trawy, porażenie zwierząt). 6. Bliskie spotkania III rodzaju (relacje o „pilotach” lub o „pasażerach” UFO). Wobec dużej różnorodności doniesień o UFO (patrz fot. 51 i 52) jest mało rozsądne przypuszczać, że jakaś jedna hipoteza wyjaśni wszystkie te i zjawiska. Co najwyżej może chodzić o próby wyjaśnienia niektórych relacji41. Najdziwniejszą grupą relacji o UFO są niewątpliwie bliskie spotkania III rodzaju. Hynek swój rozdział o tej kategorii zaczyna od stwierdzenia, że chętnie opuściłby tę klasę doniesień, ale nie robi tego w obawie o naruszenie integralności zjawisk UFO. Zastrzega przy tym, że relacje o spotkaniach z „ufonautami” należy wyraźnie oddzielić od „kontaktowców”, tj. ludzi, którzy twierdzą, że są lub mogą być w stałym kontakcie z „kosmitami”. Te ostatnie sprawy Hynek chciałby zaliczyć do psychopatologii42. Natomiast poważnie zastanawia się nad relacjami ludzi, którzy np. twierdzą, że zostali zatrzymani przez „ufonautów”, zabrani do wnętrza „latającego talerza” i poddani szczegółowemu badaniu. Jednym z bardziej znanych przypadków tej kategorii jest relacja małżonków Betty i Barneya Hillów z września 1961 r., rozpropagowana przez amerykańskiego łowcę sensacji, dziennikarza Johna Fullera w książce Przerwana podróż [184], Hillowie twierdzili, żernie pamiętali na jawie swych kontaktów z „ufonautami”, dopiero wprowadzeni w stan hipnotyczny przez psychiatrę, dr. Benjamina Simona, zrelacjonowali, jak zostali zatrzymani na drodze przez dziwne istoty, wprowadzeni do wnętrza „latającego spodka” i tam poddani badaniom. Fuller traktuje to, rzecz jasna, jako niezbity dowód wizyt z Kosmosu. Ale wystarczy przeczytać przedmowę, jaką do książki Fullera napisał sam dr Simon, aby się przekonać, że nie jest on bynajmniej przekonany o realności przeżyć Hillów. Pisze on, że istnienie UFO z Kosmosu jest dla niego rzeczą drugorzędną, natomiast interesowała go głównie 41
Na przykład niedawno pojawiło się przypuszczenie, że doniesienia o UFO widzianych w stanie Utah (USA) w latach 1965-1968 mogły być wywołane przez roje świecących owadów [183]. Inną grupę zjawisk UFO próbuje się wyjaśnić zjawiskami geologicznymi [217]. 42 Naiwność ludzka nie zna granic. Jak doniósł „Ekspress Wieczorny” (30 IV 1980 r.), około 50 000 ludzi zjechało do brazylijskiej miejscowości Casimiro de Abreu, gdzie - jak ogłosiło Brazylijskie Towarzystwo Komunikacji Międzyplanetarnej miał wylądować „latający talerz” i przywieźć z Jowisza jego 4 mieszkańców. W oznaczonym dniu i godzinie zebrani wstrzymali oddech, ponieważ spostrzegli, że horyzont zabarwił się; sprawcą było jednak zachodzące słońce. Ludzie rozjechali się rozczarowani, ale zadowoleni byli miejscowi kupcy, których obroty bardzo wzrosły.
sprawa tego, jak wpływały poprzednie przeżycia i urojenia Hillów (oboje byli entuzjastami UFO) na ich odpowiedzi i zachowanie się w stanie hipnotycznym. Ostrzega również przed przecenianiem hipnozy jako metody dochodzenia prawdy. Zachodzi też możliwość uprzedniej sugestii hipnotycznej, by potem podczas publicznego seansu można było „wyciągać” z pacjenta rewelacyjne zeznania. Hynek i Vallee [185] opisują doświadczenie, które przeprowadził wraz z nimi brytyjski lekarz Maxwell Cade. W stanie hipnozy podsunięto medium sugestię, że w określonej chwili spostrzeże na niebie UFO. Eksperyment się udał: osoba, która po wyprowadzeniu z transu hipnotycznego niczego nie pamiętała, o określonej godzinie po paru dniach „zobaczyła” na niebie UFO, narysowała je nawet w kształcie piłki futbolowej z kilkoma mniejszymi kółkami, jak piłki golfowe, gdy niebo było oczywiście zupełnie czyste i puste. Wielu ludzi jest zdania, że ludzie relacjonujący o swych bliskich kontaktach z UFO rzeczywiście doznali jakiegoś głębokiego przeżycia43. Pozostaje problemem otwartym to, jakiego rodzaju były to przeżycia. Trudno jednak przeprowadzić wyraźną granicę między doniesieniami o bliskich spotkaniach z UFO a relacjami „kontaktowców”. Tych ostatnich jest bardzo wielu. Poczynając od wspomnianego już George'a Adamskiego prześcigają się oni w fantastycznych opisach swych przeżyć. Oto np. Buck Nelson podróżował na Marsa i Wenus i jako dowód sprzedawał nawet pęczki sierści z „wenusjańskiego psa bernardyna”. Howard Menger też podróżował na Marsa i Wenus i nawet wydał płytę z muzyką zasłyszaną od pewnego Saturnianina. Od „ufonautów” dowiedział się zresztą, że sam jest reinkarnowanym Jowiszaninem, wobec czego rozwiódł się ze swoją żoną i ożenił z inną kobietą, w której od razu rozpoznał kosmitkę, chociaż ona sama nic o tym nie wiedziała. Truman Betherum spotkał pojazd kosmiczny z planety „Clarion”, Orfeo Angelucci - statek z planety „Lucyfer”, a Woodrow Derenberger spotykał się z kosmitami z planety „Lanolus” odległej o 3,5 roku świetlnego (oczywiście dla „latającego spodka” taka odległość to nic - Derenbergerowi droga zajęła raptem półtorej godziny). Daniel Ery, George van Tassel, George Williamson, Lauro Mundo, Gabriel Green, Uri Geller, Ray Stanford, Hal Wilcox, Frank Stranges, pani Dana Howard - to dalsze przykłady „kontaktowców” [186]. Gdyby chociaż ich relacje były spójne, ale nie, są sprzeczne i bezsensowne. Brzytwa Ockhama daje nam więc jedyne rozwiązanie: odrzucić je z poważnej analizy, co nie oznacza rzecz jasna, że negujemy możliwość życia we Wszechświecie i kontaktów z obcymi cywilizacjami. Trzeba więc przyznać, że proponowane przez Hynka oddzielenie „kontaktowców” od bliskich spotkań III rodzaju może być dokonane tylko w sposób subiektywny. Dla jednych granica może przebiegać na przypadku Adamskiego, dla kogoś innego - na przypadku Hillów. Niektórzy „kontaktowcy” starają się pokryć rzekomymi kontaktami z „kosmitami” swą działalność kryminalną. Brazylijczyk Felix Aladino, występujący pod pseudonimem Dino Kraspedon, w 1968 r. został zaaresztowany przez policję brazylijską pod zarzutem kierowania bandą terrorystyczną. Kraspedon oświadczył, że od 1952 r. ma kontakty z Wenusjanami, którzy mianowali go swym ambasadorem na Ziemi; zagroził, że jeśli nie zostanie uwolniony, to nastąpi inwazja Wenusjan na Ziemię. Jednak przyjaciele z Wenus zawiedli i Kraspedon musiał odsiedzieć wyrok.
43
W Polsce mieliśmy niedawno głośny przypadek „spotkania z ufonautami” w Emilcinie.
Amerykanin Reinhold Schmidt z Nebraski został zaaresztowany w Kalifornii za sprzedawanie akcji nie istniejącej kopalni kwarcu. Schmidt oświadczył policji, że piloci UFO, z którymi rozmawiał w 1957 r., powiedzieli mu, iż kwarc leczy raka. W 1959 r. policja austriacka zaaresztowała Karla Mekisa, który wraz ze wspólnikiem, Frankiem Weberem-Richterem, wyciągał pieniądze od łatwowiernych ludzi sprzedając im „zestawy przetrwania” na czas inwazji Wenusjan na Ziemię, jak również posady w przyszłej administracji wenusjańskiej. Aż trudno uwierzyć, że naiwni dali się skusić ogłoszeniami prasowymi w stylu: „Światowa Republika Wenus zatrudni kierowcę dla wysokich dygnitarzy wenusjańskich po inwazji”. Chciałbym podkreślić, że szczegóły te zaczerpnąłem nie od wrogów UFO, lecz z książki Hynka i Vallee [185] oraz ze „Sprawozdań Pierwszego Międzynarodowego Kongresu UFO”, wydanych w Nowym Jorku w 1980 r. [191]. Poważne badania UFO są też znacznie utrudnione przez to, że relacje o tych zjawiskach występują nie tylko na ogromnym tle zjawisk znanych, lecz źle interpretowanych przez obserwatorów, ale także na tle zmyśleń, oszustw i maniactwa. Często fałszowane są zdjęcia44 rzekomych UFO, zmyślane relacje, fabrykowane dokumenty czy wręcz czynione złośliwe „kawały”. Oto parę przykładów. W paru „ufologicznych” książkach (np. [187], [188]) dyskutuje się sensacyjne zdjęcia pokazujące rzekome UFO nad Taorminą (Sycylia) w lecie 1954 r. Frank Edwards podaje przy tym historyjkę, że UFO miały średnicę około 30 metrów, zachowywały się bezszelestnie, obserwowało je tysiące ludzi (a nawet sfilmował wysłannik United Press), zanim przylot włoskiego myśliwca nie przestraszył obiektów, które odleciały. Tymczasem łatwo się przekonać, że zdjęcie to (fot. 53) jest nieudolnym fotomontażem, bo przecież oświetlenie przez Słońce obu „talerzy” jest zupełnie inne (jeden jest oświetlony z prawej, drugi z lewej), a obserwatorzy patrzą w zupełnie inną stronę. Podobnych przykładów sfabrykowanych zdjęć jest bardzo wiele. Jesienią 1973 r. w paru miejscach USA kierowcy byli zatrzymywani na autostradzie przez dziwne istoty w metalowych kombinezonach z antenami na głowach. Pewien taksówkarz z Gulfport (Missisipi) zeznał, że spotkał statek kosmiczny, którego pilot zatrzymał silnik jego samochodu i potem obserwował go przez szybę. Policja szybko wyjaśniła, że historie na autostradach były sprawką grup studentów i nastolatków, którzy zostali ukarani grzywną za zakłócenie porządku publicznego [174]. Taksówkarz zaś w końcu przyznał się, że swą relację zmyślił, gdy jego kolega znalazł go śpiącego w samochodzie w godzinach pracy. Natomiast w niektórych książkach o UFO (np. [189]) wydarzenia tego okresu są z całą powagą uznane za dowód działalności oddziału kosmicznych komandosów, badających teren przed wielką inwazją45.
44
Jeden z rozdziałów książki Hynka [173], poświęcony omówieniu wątpliwej wartości dowodów fotograficznych nosi tytuł „Zdjęcie niekoniecznie jest warte tysiąca słów”. 45 W 1974 r. para ufologów - Ralph i Judy Blum, ogłosiła nową książkę [195J o sensacyjnych spotkaniach ludzi z „ufonautami”. Przewidywali oni, że najdalej w 1975 r. rząd amerykański przedstawi ostateczne dowody na to że jesteśmy obserwowani przez kosmitów. Ulubionym argumentem ufologów jest to, że rządy ukrywają prawdę o kosmitach, gdyż boją się przestraszyć społeczeństwo. Dlaczego więc ludzie nie umierają z przerażenia czytając dzieła ufologów? Odpowiedź jest prosta: mimo wszystko większość ludzi ma zbyt wiele rozsądku, by w te „cuda” wierzyć.
Szereg ufologicznych dzieł podaje i analizuje następującą relację. W 1290 r. w opactwie Byland (hrabstwo Yorkshire) wydarzył się dziwny przypadek. Oto „(...) kiedy opat Henryk przygotowywał się do udzielenia błogosławieństwa, jeden z braci, Jan, wbiegł i oznajmił, że dzieje się coś niezwykłego. Wtedy wszyscy wyszli i ujrzeli wielki srebrzysty przedmiot w kształcie dysku, który wolno przelatywał nad ich głowami. Wywołało to ogromne przerażenie. Wtedy opat Henryk zawołał, że Wilfred jest cudzołożnikiem i grzeszy brakiem pobożności”. Jeden z członków zespołu Edwarda Condona [190] postanowił dotrzeć do źródła tej wiadomości. Okazało się, że historyjka została sfabrykowana przez dwóch uczniów brytyjskich, którzy nadesłali list do redakcji londyńskiego „Timesa”, donosząc o rzekomym odkryciu tego tekstu w manuskrypcie znalezionym w Ampleforth. Całkowicie zmyślona okazuje się też historia statku powietrznego z pasażerami, który miał rzekomo widzieć w 1897 r. Alexander Hamilton w Kansas [191]. Nie przeszkadza to, by ta historia, jak również „zapisek” z Byland były cytowane w „papkowej” literaturze ufologicznej, jak np. w niedawno wydanej polskiej książce [192], na której dyskusję szkoda doprawdy miejsca. Brytyjczyk Allingham wydał książkę [193], w której dowodził, że latające spodki pochodzą z Marsa. Opowiedział w niej o swoich spotkaniach z pilotami UFO, którzy mieli mu m.in. potwierdzać swą znajomość z Adamskim; cytował nazwiska i adresy świadków, którzy mieli towarzyszyć jego spotkaniom z UFO. Gdy sprawę zbadano, okazało się [194], że świadkowie tacy nigdy nie istnieli, a sam autor zagarnąwszy pieniądze za swą książkę schronił się przypuszczalnie w Szwajcarii. O pomyśle Trencha z UFO przylatującymi z wnętrza wydrążonej Ziemi pisaliśmy powyżej. Podobnych przykładów można cytować więcej. Nie wiadomo, co bardziej martwi, czy tupet autorów, którzy w pogoni za zyskiem nie cofają się przed niczym, czy łatwowierność czytelników, którzy ich książki kupują46. Philip Klass od 1966 r. bezskutecznie oferuje nagrodę w wysokości 10 000 dolarów (z własnej kieszeni) temu, kto przedstawi dowód, że UFO są statkami kosmicznymi obcych cywilizacji. I jakoś do tej pory suma przeznaczona na nagrodę pozostała nietknięta. Nie ma chętnych mimo setek artykułów i książek o wizytach kosmitów. Klass gwarantuje też każdemu chętnemu czytelnikowi zwrot kosztów kupna jego książki [174], jeżeli przepowiednia Blumów (patrz wyżej) sprawdzi się kiedykolwiek. Natomiast amerykański tygodnik „National Enquirer” ufundował nagrodę w wysokości miliona dolarów (!) za dowód, że „UFO pochodzą z Kosmosu i nie są zjawiskiem naturalnym” [125], Niestety, nagrody tej nie można od lat przyznać z braku takiego dowodu. Warto ten argument przytaczać w dyskusji z naszymi rodzimymi ufologami, którzy są głusi na inne rzeczowe argumenty. Ich pasją wydaje się dyskutowanie możliwych „napędów” UFO; czyż nie jest to podobne do dociekania, z jakiego drewna są miotły, na których latają czarownice? Jeden z najpoważniejszych badaczy UFO, Jacques Vallee, odrzucił stanowczo hipotezę UFO jako statków „kosmitów” [196].
46
UFO nie jest jedynym obiektem pseudonaukowych dywagacji. Każdy przecież słyszał o Erichu von Dänikenie, Robercie C'harroux (sławna historia kamieni” z Ica) czy Charlesie Berlitzu, który zbija pieniądze dyskutując trójkąt bermudzki i „eksperyment filadelfijski”.
Carl Sagan, znany astrofizyk amerykański zajmujący się problemem życia we Wszechświecie, wygłosił taką opinię [197]: „(...) uważam, że poszukiwanie inteligencji pozaziemskich ma niezwykłe znaczenie dla nauki i ludzkości; trudno w ogóle znaleźć ważniejsze zadanie dla nauki. Nie sądzę, by najbardziej odpowiednią metodą badania tego zagadnienia było studiowanie Niezidentyfikowanych Obiektów Latających (...)”. Nie znaczy to przecież, że UFO nie mogą być statkami kosmicznymi obcych cywilizacji. Negowanie a priori takiej możliwości byłoby niegodne naukowca. Chodzi o to, że brak jest dowodów na potwierdzenie tej zresztą atrakcyjnej hipotezy. A jak powiedział niegdyś mądry Laplace: „Waga dowodu powinna być proporcjonalna do dziwności faktów”. Ale przecież UFO istnieją z samej swej definicji jako obiekty niezidentyfikowane dla obserwatora. Nawet jeśli ograniczymy się za Hynkiem do „prawdziwych” UFO, niezidentyfikowanych także przez ekspertów, to pozostaje problem ich badania47. Sądzę, że nie można w tej chwili podać jednego jedynego wyjaśnienia zjawisk „prawdziwych” UFO. Przypuszczam, że jesteśmy w sytuacji podobnej do tej, w jakiej byli nasi przodkowie przed dwustu laty, używający nazwy „meteory” dla określenia bardzo wielu zjawisk rozgrywających się w atmosferze. Oto, co na ten temat pisał Jan Kanty Krzyżanowski w swym podręczniku fizyki z 1825 r. [199]: „Wielorakie zdarzenia, które się w pośród Atmosfery postrzegać daią, nazywają się w ogólności meteorami, a nauka o nich mówiąca Meteorologią. Zdarzenia te można podzielić na następujące, to iest lod na meteory ciepła, 2ie na meteory światła, 3cie na meteory ogniowe, 4te meteory elektryczne, 5te meteory wodne i 6te na meteory powietrzne. Przez meteory ciepłą rozumieią się zazwyczaj wszelkie zmiany w temperaturze atmosfery dostrzegane (...) Do meteorów światła liczą się: tęcza, o której iuż wyżey mowa była, kolory atmosfery, zmierzchnięcie, wieńce około słońca i xiężyca, poboczne słońca i xiężyce, światło zodyakalne i zorza północna (...) Do ogniowych takowe liczą się meteory, które zdaią się bydź szczególniey skutkiem zapalenia, a do takich należą, kule ogniste, gwiazdy spadaiące, i światła napowietrzne (...). Do głównieyszych elektrycznych meteorów należą, błyskawica, piorun, z towarzyszącym grzmotem, tudzież światełka u dawnych pod nazwiskiem Kastor i Pollux znane. Lubo oprócz tych, elektryczność atmosfery ma wpływ na powstawanie i wielu innych meteorów (...) Do meteorów wodnych liczymy: mgłę, chmury, deszcz, śnieg, grad, rosę i zamróz (...) Do meteorów powietrznych liczymy wiatry, tudzież zmiany wysokości barometryczney (…)”
Już zatem w początkach XIX wieku próbowano te „meteory” klasyfikować, co było jednym z pierwszych etapów ich naukowego badania.
47
Oto jak sobie niektórzy wyobrażają badania UFO. W studio polskiej telewizji hipnotyzer przekonuje medium (zresztą dobrze zaznajomione z tematyką UFO), że znajduje się ono w Dolinie Kościeliskiej i widzi stojący na ziemi pojazd kosmiczny. Dalszy opis ma zależeć od inwencji medium. „Eksperyment” się udał nadspodziewanie. Medium „zobaczyło”, że pilotami UFO są wielkie pająki. Dziennikarz z „Kuriera Polskiego” zamieszcza na pierwszej stronie artykuł, głosząc wszem i wobec, że jest to wynik sensacyjny, gdyż nigdy przedtem w literaturze ufologicznej nie spotykało się pająków.
Z biegiem czasu i postępem wiedzy poznano ich naturę i nazwę meteory utrzymano tylko dla zjawiska przelotu bryłek materii przez naszą atmosferę. My też obserwujemy wiele różnych zjawisk, tajemniczych i mało zrozumiałych, niektóre z nich nazywamy UFO, inne - piorunami kulistymi. Za jakiś czas może się okazać, że chodzi o szereg odrębnych zjawisk o różnej naturze fizycznej i przyrodniczej. Trudno jednak przewidzieć, kiedy to nastąpi. Przedstawiłem w tym rozdziale szereg przykładów pseudonauki. Jak widać, ostatnio zdarza się często, że działalność pseudonaukowców cechuje także nieuczciwość, co wzbogaca charakterystykę podaną na wstępie naszych rozważań. Jeśli ktoś zarzuci mi, że nie powinienem tu mieszać „prawdziwej” pseudonauki z nieuczciwością, to odpowiem, że dla odbiorców formy te są trudne do odróżnienia. Wszakże nie od razu można się zorientować, czy autor jakiegoś dzieła jest szarlatanem, czy też tylko uczciwym maniakiem, święcie przekonanym o swojej racji. Mając więc na uwadze społeczne konsekwencje chciałbym pod pojęciem pseudonauki widzieć wszystkie formy działalności nienaukowej, lecz naukę naśladującej, niezależnie od motywów kierujących autorami. Pozostaje zastanowić się nad przyczynami popularności pseudonauki w społeczeństwie. Część winy, ale tylko część, ponoszą moim zdaniem środki masowego przekazu, głównie telewizja i prasa, w której pseudonaukę traktuje się na równi z nauką, a może nawet lepiej, gdyż przedstawianie Dänikena uchodzi za bardziej atrakcyjne dla słuchaczy, widzów i czytelników. Na Zachodzie niemały udział w propagowaniu pseudonauki mają też wydawcy goniący za zyskiem. U nas też nie dzieje się najlepiej. Krajowa Agencja Wydawnicza wydaje pseudonaukowe dzieła w nakładach 100 000 egzemplarzy, gdy tymczasem przeciętny nakład książki popularnonaukowej w Państwowym Wydawnictwie Naukowym czy Wiedzy Powszechnej jest dwudziestokrotnie mniejszy! Trudno mówić o równości szans, jeśli książki Dänikena były u nas parokrotnie wznawiane, a książki polemizujące z tą twórczością nie mogą się przebić przez wydawnictwa. Obserwujemy u nas w miniaturze to, co w masowej skali opanowało Zachód. Polemistom z pseudonaukowcami nie daje się równych szans. Gdy Charles Berlitz napisał sensacyjną książkę o trójkącie bermudzkim [200], była ona wielokrotnie wznawiana, rozpisywano się o niej w superlatywach wszędzie (u nas także - na łamach wielu czasopism). Gdy jednak w rok później Lawrence David Kusche przekonująco udowodnił [201], że Berlitz przeinaczył lub sfabrykował fakty tak, aby pasowały do wymyślonej przez niego legendy o tajemniczym trójkącie, to jakoś książka ta nie była szeroko propagowana i wydana została w Polsce dopiero w 1983 r. Do dziś pisze się o „tajemnicy trójkąta bermudzkiego” w stylu Berlitza i jego naśladowców nie kłopocząc się tym, że ktoś tam wykazał, iż tajemnicy nie ma. Przez częste powtarzanie każda wiadomość nabiera cech prawdziwości. Nie zorientowany człowiek widząc coś wydrukowanego kilkanaście razy w książkach i czasopismach może nie zwrócić uwagi na słabiutki protest, że jest to nieprawda. Carl Sagan [148] opisuje, jak to kiedyś spotkał młodą kobietę czytającą Wspomnienia z przyszłości Dänikena. Na zapytanie, czy książka jej się podoba, osoba ta z nabożnym wyrazem oczu stwierdziła, że tak, podoba jej się niezmiernie. Sagan kontynuując rozmowę rzekł, że książka ta podobno nie jest całkiem prawdziwa, na co kobieta bez namysłu odparła, że jest to zupełnie niemożliwe, gdyż przecież nikt by Dänikenowi nie pozwolił na druk książek nieprawdziwych.
Jak to powiedział jeden z czytelników gazety „Daily Mail”: „Gdy kłamstwu daje się dwudziestoczterogodzinną przewagę, prawda nigdy nie może go dogonić” [143]48. Na pewno więc środki masowego przekazu ponoszą odpowiedzialność za bujny rozkwit pseudonauki we wszystkich odcieniach. Ale to jest tylko część prawdy. Pseudonauka nie rozwijałaby się, gdyby nie natrafiała na społeczne zapotrzebowanie. I wobec tego część winy na pewno spada na naukę i uczonych. Amerykański fizyk Robert March komentując wydanie książki [202] ukazującej bezsens astrologii zastanawia się nad przyczynami popularności tej pseudonauki. Pisze on [203]: „Możną twierdzić, że częściową winę za popularność astrologii ponoszą sami naukowcy. W naszym społeczeństwie każde dziecko jest od małego przekonywane, że nauka jest jedyną prawdziwą drogą do zrozumienia przyrody. Ale gdy nasi obywatele w większości kończą swą edukację, przekonują się, że nie dane im będzie nigdy przeżyć tego wyzwolenia, jakie przychodzi z prawdziwym zrozumieniem nauki. To przeżycie jest zarezerwowane dla wąskiej elity uczonych profesjonalnych. Tymczasem jeśli kiedykolwiek wysokie kapłaństwo otacza się tajemnicą, to można oczekiwać, że każda forma ludowej magii wykazująca choćby powierzchowne podobieństwo do jego dekoracji będzie się cieszyła znaczną popularnością. Nauka zarezerwowana dla profesjonalistów nie daje odpowiedzi rozpowszechnionemu uczuciu osobistej bezsilności. Nauka w wyłącznej służbie potężnych instytucji staje się jeszcze jedną siłą przyczyniającą się do alienacji, która jest rzeczywistą chorobą naszego społeczeństwa. Astrologia przypuszczalnie przeżyje każdy i wszystkie ataki ze strony nauki. Ale gdybyśmy odarli naukę z jej tajemniczości, uczynili ją dostępną dla powszechnego zrozumienia, wówczas nie byłoby potrzeby wydawania książek jak ta, którą tutaj omawiam”. Sądzę, że te mądre słowa Marcha można odnieść nie tylko do astrologii, ale również do wszystkich innych przykładów pseudonauki. Większość ludzi czuje się zagubiona we współczesnym świecie i nie mogąc szukać odpowiedzi na dręczące pytania w trudnych dziełach naukowych sięga po książki pseudonaukowe. „() Książki te fascynują laika, ponieważ zdają się rozwiązywać mnóstwo problemów; problemów, które go interesują przeważnie z przyczyn natury romantyczną, którymi jednak nigdy nie zajmował się poważnie, więc ich przesłanki i trudności nie są mu przeto znane. Książki te - iw tym tkwi tajemnica ich sukcesu - nie rozwiązują problemów w ten sposób, że zrywają zasłony i starają się wnieść światło, tak jak dąży do tego uczony; przesłaniają one prawdę, zanurzają ją w łagodnym świetle mistyki i zdają się dostarczać czytelnikowi klucza, wprowadzając go do grona wybranych, którzy są w posiadaniu tajemnicy i już przez to samo potrafią przemknąć wszystkie ukryte prawdy w całej ich głębi; prawd tych, wskutek niedoskonałości natury ludzkiej, nie jest zdolny przeniknąć uczony posługujący się »tylko« rozumem (...)”. 48
Niestety częste są dowody tej smutnej prawdy. Komentując ukazanie się polskiego przekładu książki Kuschego [201] recenzentka „Życia Warszawy” napisała (28 XII 1983 r.): „Umieszczenie w podtytule książki słów: „Zagadka rozwiązana” miało chyba na celu przyciągnięcie uwagi czytelników. Książka powstała bowiem w 1974 roku, gdy tymczasem uczeni i badacze do dziś nie mogą rozwikłać tajemnicy Trójkąta Bermudzkiego”. Czy słowa te nie dowodzą całkowitego zaniku krytycyzmu i umiejętności odróżniania białego od czarnego?
Te zdania, napisane przez dobrze znanego polskiemu czytelnikowi C. W. Cerama [204], bardzo dobrze charakteryzują motywy sięgania do pseudonauki i przyczyny jej popularności. M. Gardner twierdzi wręcz, że „(...) doktryn pseudonaukowych nie da się wytępić, podobnie jak nie da się wytępić sekciarstwa religijnego” [205]. Może Gardner ma rację, może pseudonauka będzie towarzyszyła nam zawsze. Jeśli jednak ludzie nauki będą wykazywali nadal przeważnie bierność i zamykali się w swoich „świątyniach” na kontemplację własnych problemów, to pseudonauce można wróżyć rozkwit daleko bujniejszy niż dziś. W Stanach Zjednoczonych powstał niedawno specjalny komitet do walki z pseudonauką. Weszło w jego skład wielu znakomitych uczonych i popularyzatorów, którzy zaczęli tę walkę na łamach wydawanego przez siebie pisma „The Zetetic”, które potem zmieniło tytuł na „Skeptical Inquirer”. Podobne komitety istnieją w Belgii i we Francji; problemy z pseudonauką są też w Związku Radzieckim [206]. Sądzę jednak, że nie da się osiągnąć większych postępów w walce z pseudonauką, jeśli zabraknie powszechnego zaangażowania ludzi nauki. Nie wystarcza wzruszać ramionami na wzmianki o Dänikenie, Uri Gellerze, UFO czy trójkącie bermudzkim i utrzymywać, że są to zagadnienia niegodne zainteresowania uczonych. Społeczeństwu trzeba pomóc, trzeba wyjaśnić, dlaczego są to przypadki pseudonauki. Pseudonauka znajduje podatny grunt nie tylko wśród laików, lecz także - zwłaszcza jeśli dotyczy zagadnień związanych z fizyką - wśród humanistów, których analfabetyzm w naukach przyrodniczych bywa czasem przerażający. Dlatego też konieczna jest dobra popularyzacja wiedzy, i to na każdym poziomie: od poziomu laika do poziomu uniwersyteckiego - dla przedstawicieli innych specjalności. Każdy członek świata nauki powinien uznać popularyzację wiedzy za swój niezwykle ważny obowiązek wobec społeczeństwa. Mam nadzieję, że zawarte tu rozważania choć w małej cząstce odpowiedzą na to społeczne zapotrzebowanie.
Literatura [1] Wielka Encyklopedia Powszechna PWN, Warszawa; tom IX, str. 395, hasło „prawda”; tom VII, str. 366, hasło „mit”. [2] Słownik języka polskiego, PWN, Warszawa 1979, tom 2, str. 187, hasło „mit”; str. 910, hasło „prawda”. [3] Drzewiński, F. Fizyka dla gimnazyjów na kl. II i III, Wilno 1825, str. 1. [4] Csonka, P. L., „Phys. Rev.” 180, 1266(1969); Lipińska, J., Koziński, W. Cywilizacja miedzi i kamienia, PWN, Warszawa 1977, str, 296. Hieroglify wg: Pietrowski, N. S. Egipetskij jazyk, Leningrad 1958.
[5] Żbikowski, T. Legendy i pradzieje Kraju Środka, Iskry, Warszawa 1978, str. 135. [6] Wróblewski, A. De mora luminis, „Amer. Journal Physics” 53, 620(1985). [7] Cohen, I. B. Newton, Hooke, and Boyles Law, „Nature” 204, 618(1964). [8] Gliozzi, M. Storia delia Fisica; tłum. ros. Istoria fiziki, Moskwa 1970, str. 222; Lyons, W. J. Inaccuracies in the Textbook Discussions of the Ordinary Gas Laws, „Amer. Journal Physics” 6, 256 (1938). [9] Wawiłow, S. I. Izaak Niuton; tłum. polskie J. Guranowski Izaak Newton, Czytelnik, Warszawa 1952. [10] Whitaker, M. A. B. History and Quasihistory in Physics Education, „Physics Education”, 14, 108(1979). [11] Adler, C. G., Coulter, B. L. Galileo and the Tower of Pisa Experiment, „Amer. Journal Physics”, 46, 199 (1978). [12] Langley, S. P. „Amer. Journal Sci.” 37, I(1889), cyt. wg artykułu: Scott Barr E” „Amer. Journ. Phys.” 28, 42(1960). [13] Black, J. Lectures on the Elements of Chemistry (1803); wyjątki cyt. wg pracy: Roller, D. The Early Development of the Concepts of Temperature and Heat, Harvard University Press, Cambridge (Mass.) 1961. [14] Stahl, G. E. Zufällige Gedanken (...) von den Sogenannten Sulphure; wyjątek cyt. wg antologii The Science of Matter pod red. M. P. Croslanda, Penguin Books, Harmondsworth 1971. [15] Cavallo, T. Treatise on Electricity (1786); wyjątek cyt. wg książki: Taylor, F. S. A Short History of Science and Scientific Thought, New York 1949. [16] Bernal, J. D. Science in History; tłum. polskie S. Garczyński, Z. Glinka, W. Grad, H. Krzeczkowski, Z. Lassotowa, K. Opałek i T. Swięcka Nauka w dziejach, PWN, Warszawa 1957, str. 438. [17] Conant, J. B. The Overthrow of the Phlogiston Theory, Harvard University Press, Cambridge (Mass.) 1948; Kapitańczyk, K. Flogiston, „Problemy” nr 1 (1950); Kapitańczyk, K. Spory wokół flogistonu, „Problemy” nr 10 (1958). [18] Lavoisier, A., Laplace, P. Mémoire sur la chaleur (1783); cyt. wg tłum. pol. M. Grotowskiego w dziele Dzieje rozwoju fizyki w zarysach, Mathesis Polska, Warszawa 1931, tom I, str. 235. [19] Lavoisier, A. Traite élémentaire de chimie, Paris 1789; cyt. wg urywków w antologii Croslanda (patrz [14]). [20] Franklin, B. Opinions and Conjectures Concerning the Properties and Effects of the Electrical Matter, Arising from Experiments and Observations made at Philadelphia, 1749; ten wyjątek cyt. wg antologii Croslanda (patrz [14]) został napisany w postaci listu do P. P. Collinsona z 29 lipca 1750 r. [21] Nash, L. K. The Atomie-Molecular Theory, Harvard University Press, Cambridge (Mass.) 1950. Holton, G. Introduction to Concepts and Theories in Physical Science, Second Edition revised by S. G.
Brush, Addison-Wesley, Reading 1973; Figurowskij, N. A. Oczerk obszczej istorii chimii, Nauka, Moskwa 1979. [22] Thompson, B. An Inquiry Concerning the Source of the Heat which is Excited by Friction, „Philosophical Transactions” 88, 80 (1798); cyt. wg pracy D. Rollera (patrz [13]). [23] Korzystam ze znakomitego artykułu S. C. Browna The Caloric Theory of Heat, „Amer. Jour. Phys.” 18, 367(1950) i zamieszczonych tam wyjątków. [24] Davy, H. An Essay on Heat, Light, and the Combination of Light, cyt. wg wyjątków w pracy D, Rollera (patrz [13]); częściowo korzystałem też z tłum. pol. w książce J. Tyndall Ciepło jako rodzaj ruchu, Kraków 1873. [25] Andrade, E. N. da C., „Nature” 135, 359(1935). [26] Fonberg, I. Chemiia z zastosowaniem do sztuk i rzemiosł, tom I, Wilno 1827, str. 130-132. [27] Brush, S. G. The Kind of Motion We Call Heat, „Studies in Statistical Mechanics” vol. 6, North Holland 1976. [28] Kittel, Ch., Knight, W. D., Ruderman, M. A. Mechanics; tłum. pol. H. Hofmokl i H. Chęcińska Mechanika, PWN, Warszawa 1969, str. 342. [29] Laue, Max von Geschichte der Physik; tłum. pol. A. Teske Historia fizykii PWN, Warszawa 1957, str. 57. [30] Dorfman, J. G. Wsiemirnaja istoria fizyki, Nauka, Moskwa 1974, str. 199. [31] Brandt, J. C., Moran, S. P. New Horizons in Astronomy, W. H. Freeman and Co, San Francisco 1979, str. 137. [32] Descartes, René La Dioptrique, Lejda 1637, rozdział VI; korzystam z wyjątków w przekł. ang. w książce A. I. Sabry Theories of Light from Descartes to Newton, London 1967. [33] Galileo Galilei Discorsi e dimostrazioni matematiche intorno a due nouve scienze, Lejda 1638; tłum, pol. F. Kucharzewski Rozmowy i dowodzenia matematyczne w zakresie dwóch nowych umiejętności, wyd. Kasy im. Mianowskiego, Warszawa 1930, str. 39. [34] Hooke, R. Lectures of Light, Posthumous Works, Second Edition, Cass and Co, London 1974, str. 78 i 108. [35] Huygens, C. Traité de la lumiére, Paris 1690, rozdział 1. [36] Beveridge, W. I. B. The Art of Scientific Investigation; tłum. pol. L. Żebrowski Sztuka badań naukowych, PZWL, Warszawa 1960. [37] Eicher, D. L. Geologic Time; tłum. pol. A. Hoffmann Czas geologiczny, PWN, Warszawa 1979. [38] Wróblewski, A. Fancied Physics, w zbiorze Physics from Friends, edited by R. Armenteros et al., Multi Office S. A., Geneva 1978, str. 401. W pracy tej znajduje się omówienie większości
dyskutowanych w tym rozdziale przykładów, bogatsza literatura przedmiotu oraz kopie ważniejszych prac oryginalnych. [39] Blondlot, R. „Comptes Rendus Acad. Sci.” 136, 735 (1903). [40] Lagemann, R. T. New Light on Old Rays, „Amer. Journ. Phys.” 45, 281 (1977) Thuiller P. La triste histoire des rayons N, „La Recherche”, 9, 95, 1092 (1978). Klotz, I. M. The N-Ray Affair, „Scient, Amer.” 242, 5, 122(1980); przedrukowane w „Problemach” nr 12 (1980). [41] Seabrook, W. Doctor Wood, New York 1941. [42] Wood, R. „Nature” 70, 530 (1904); „Phys. Zeitschrift” 5, 789(1904). [43] Millikan, R. A The Electron, The University of Chicago Press, 1917. [44] Sexl, Th. On Electric Charges Carried by Individual Microscopic Particles, „Phys. Rev.” 26, 92(1925). [45] Millikan, R. A. The Nature of the Evidence for the Divisibility of the Electron, „Phys. Rev.” 26, 99(1925). [46] Davis, B., Barnes, A. H, „Phys. Rev.” 34, 152(1929). [47] Langmuir, I. Pathological Science, General Electric Research and Information Center, „Technical Information Series” No 68-C-035, April 1968. [48] Davis, B., Barnes, A. H. „Phys. Rev.” 37, 1368(1931). [49] Wróblewski, A. Z tajemnic Marsa, PWN, Warszawa 1958; w książce tej można znaleźć obszerny opis sporu o kanały. [50] Lewis, G. N., Schutz, P. W, Refraction of Neutrons, „Phys. Rev.” 51, 369(1937); Lewis, G. N. Neutron Optics, „Phys. Rev.” 51, 371 (1937); notatka odwołująca wyniki: „Phys. Rev.” 51, 1105(1937). Wykorzystałem też nie publikowane wspomnienia prof. Ronalda Geballe z Seattle spisane w maju 1982 r. [51] de Bray, M. E. J. Gheury On an Apparent Decrease in the Velocity of Light, „Astronomische Nachrichten” 230, 449 (1927). [52] Edmondson, F. K. Note on the Velocity of Light, „Publ. Astron. Soc. Pacific” 46, 151(1934). [53] de Bray, M. E. J. Gheury Periodical Variation of the Velocity of Light, „Astronomische Nachrichten” 252, 235(1934). [54] Stephenson, L. M. A Possible Annual Variation of the Gravitational Constant, „Proc. Phys. Soc.” 90, 601(1967) [55] Mięsowicz, M. Promienie kosmiczne, Czytelnik, Warszawa 1950; Mieszkowski, A. Waritrony, klucz do zagadek jądra atomowego; tłum. pol. J. Hurwic, Nasza Księgarnia, Warszawa 1949; ponadto w „Problemach” i innych czasopismach popularnonaukowych z lat 1948-1950 można znaleźć wiele artykułów o waritronach.
[56] . Alichanian, A. I., Alichanow, A. I. Concerning New Elementary Particles in Cosmic Rays, „Nature” 163, 761(1949); skrót tego artykułu ukazał się w przekładzie polskim w „Problemach”, nr 9(1949). [57] Wiernow, S. N., Dobrotin, N. A., Zacepin, G. T. K woprosu o suszczestwowanii waritronow, „Żurnał Ekspiermientalnoj i Tieoreticzeskoj Fiziki” 21, 1045(1951). [58] Cyt. wg artykułu: Birge, R. T., „Nuovo Cimento Supplemento” 6, 39(1957). [59] Tatarkiewicz, W. Historia filozofii, PWN, Warszawa 1958, tom 1, str. 67-71. [60] Doskonałym źródłem do dziejów astronomii od czasów starożytnych do połowy XVII wieku jest książka J. L. E. Dreyera A History of Astronomy from Thales to Kepler, Dover Publications, New York 1953. Obszernym opracowaniem na temat Kopernika jest książka T. S. Kuhna The Copernican Revolution; tłum. pol. S. Amsterdamski Przewrót kopernikański, PWN, Warszawa 1966. Warto także zaznajomić się z krótkimi opracowaniami polskimi: Dobrzycki, J. Astronomia przedkopernikowska, Toruń 1971; Iwaniszewska, C. Astronomia Mikołaja Kopernika, Toruń 1971. [61] Putilin, I. I. Malyje płaniety, Moskwa 1953, str. 71. [62] Mikołaj Kopernik O obrotach sfer niebieskich, Księga pierwsza, przekład M. Brożek, PWN, Warszawa 1953. [63] Koestler, A. The Sleepwalkers, Hutchinson, London 1959. Jest to popularna historia astronomii do Newtona. Znaczna część książki jest poświęcona życiu i twórczości Keplera; krótki rozdział o Koperniku zawiera niestety sporo błędów. Bardzo dobrą tekturę o tych sprawach stanowi także niedawno wydana książka G. E. Christiansona This Wild Abyss, The Free Press, New York-London 1978. [64] Wróblewski, A. Gwiazdy Medycejskie, „Kwartalnik Historii Nauki i Techniki” XXV, nr 3, 461(1980); w artykule tym można znaleźć m.in. polski przekład znacznej części traktatu Sidereus Nuncius. [65] Kepler, J. Prodromus Dissertationum Cosmographicarum continens Mysterium Cosmographicum. Tübingen 1596; tłum. pol. M. Skrzypczak i E. Zakrzewska-Gębka Tajemnica Kosmosu, Ossolineum, Wrocław 1972, cytat ze str. 19. [66] Ibidem, str. 24. [67] Ibidem, str. 21. [68] Kepler, J. Dissertatio cum Nuncio Sidereo Galilei, Florencja 1610. [69] Huygens, C. Systema Saturnium, 1659. [70] Sroczyński, R. Rozwój eksperymentu, pojęć i teorii magnetycznych, Ossolineum, Wrocław 1969. [71] Krajewski, W. Rewolucje i kumulacja w rozwoju nauki, „Kwartalnik Historii Nauki i Techniki” XXII, nr 4, 779 (1977). [72] Kuhn, T. S. The Structure of Scientific Revolutions, tłum. pol. H. Ostromęcka Struktura rewolucji naukowych, PWN, Warszawa 1968.
[73] Ginzburg, W. L. Kak razwiwajetsia nauka?, „Priroda” nr 6 (1976). [74] Grebienikow, E. A., Rjabow J. A. Poiski i otkrytia planiet, Nauka, Moskwa 1975. [75] Kowal, C. T., Drake, S. Galileo's Observations of Neptune, „Nature” 287, 311(1980). [76] Maxwell, J. C. Treatise on Electricity and Magnetism, Oxford 1873. [77] Dyson, F. J. Innovation in Physics, „Scient Amer.” 199, 74, September 1958. [78] Rutherford, E. „Philosophical Magazine” 21, 669(1911); tłum. pol. znacznej części tej pracy znajduje się w książce Kittela i in. [28]. [79] Rapports et discussions de la réunion tenue à Bruxelles du 30 octobre au 3 novembre 1911; cyt. wg Gliozziego [8] ze str. 339. [80] Altszuler, S. W. Wstriecza z nieożidannym, „Priroda” nr 3, 81(1971). [81] Lavoisier, A. „Mém. Acad. Roy. Sci.” (1783), str. 505; cyt. wg książki: Fierz-Dawid, H. E. Die Entwicklungs-Geschichte der Chemie; tłum pol. J.Sawlewicz Historia rozwoju chemii, PWN, Warszawa 1958, str. 244. [82] Planck. M. Jedność fizycznego obrazu świata (wybór pism filozoficznych); tłum. pol. R. i S. Kernerowie, KiW, Warszawa 1970, str. 170. [83] Ibidem, str. 122. [84] Geworkjan, A. T. Filozofskij analiz rewolucij w fizykie, AN ASSR, Erewan 1979. [85] Thomson, W „Philosophical Magazine” 2,1(1901); cyt. za książką Random Walk in Science, London and Bristol 1973, str. 191. [86] Cyt. za książką Fierz-Dawida (patrz [81]), str. 452. [87] Gardner, M. Fads and Fallacies in the Name of Science; tłum, pol. B. Krzyżanowski i W. Zonn Pseudonauka i pseudouczeni, PWN, Warszawa 1966, str. 22. [88] Faraday, M. „Philosophical Magazine” 24, 136(1844); także Experimental Researches in Electricity, vol. II, Dover Publications, New York 1965, str. 285. [89] Friend, J. N. Man and the Chemical Elements; tłum, pol. S. Bylina Człowiek i pierwiastki chemiczne, PWN, Warszawa 1959, str. 381. [90] Jauncey, G. E. M. The Birth and Early Infancy of X-Rays, „Amer. Journ. Phys.” 13, 362(1945). [91] Becquerel, H. „Comptes Rendus Acad. Sci.” 122, 420 (1896). [92] Rutherford, E. „Philosophical Magazine” 49, 1(1900). [93] Segre, E. Enrico Fermi Physicist, University of Chicago Press, 1970, rozdział 3. [94] Fritsch, O. R. How It All Began, „Physics Today”, 20, 43, November 1967.
[95] Davisson, C. J., Germer, L. H. „Phys. Rev.” 30, 705(1927); bardzo szczegółową historię badań Davissona zawiera artykuł A. Russo w „Historical Studies in the Physical Sciences” 12, 117(1981). [96] Anderson, C. D. Early Work on the Positron and Muon, „Amer. Journ. Phys.” 29, 825(1961). [97] Oersted, H. C. Experimenta circa effectum Conflictus electrici in Acum magneticum, 1820; korzystam z tłum. pol. W. Wernera w dziele Dzieje rozwoju fizyki w zarysach (por. [18]), tom II, str. 71. [98] Lipson. H The Great Experiments in Physics, Oliver and Boyd, Edinburgh 1968, rozdział 8; Atherton, W. A. „Amer. Journ. Phys.” 48, 781(1980). [99] Wróblewski. A. 150 rocznica odkrycia indukcji elektromagnetycznej, „Postępy Fizyki” 33, 345(1982) w artykule tym opisana jest szczegółowo historia poszukiwania związków między elektrycznością i magnetyzmem od czasu zbudowania pierwszej baterii przez Voltę. [100] Szereg innych przykładów omawiam w artykule Chance, Prejudice and Reason in Scientific Investigation, „European Journal of Physics” 6, 116(1985). [101] Korzystam z tłum. pol. M. Sadzewiczowej w dziele Dzieje rozwoju fizyki w zarysach (por. [18]), tom I, str. 60. [102] Herodot Dzieje, tłum. pol. S. Hammer, Czytelnik, Warszawa 1954, księga czwarta, str. 287. [103] Kapica, P. L. Buduszczie nauki w zbiorze Ekspierymient, tieoria, praktika, Nauka, Moskwa 1974, str. 257. [104] Shadowitz, A., Walsh, P. The Dark Side of Knowledge, Addison-Wesley, Reading 1976. [105] Wallace, R. K., Benson, H. The Physiology of Meditation, „Scient. American” February 1972, str. 85. [106] Wasiliew, L. Tainstwiennyje jawienia czelowieczeskoj psichiki; tłum. pol. J. i L. Stobińscy Tajemnicze zjawiska psychiki człowieka, Iskry, Warszawa 1970. [107] Gardner, M. [87], str. 316. [108] Eysenck, J. J. Sense and Nonsense in Psychology, tłum. pol. M. Brzezińska Sens i nonsens w psychologii, PWN, Warszawa 1965, str. 120. [109] Weaver, W. Lady Luck; tłum. pol. A. B. Empacher Elementarz rachunku prawdopodobieństwa, Wiedza Powszechna, Warszawa 1970. [110] Hansel, C. E. M. ESP: A Scientific Evaluation; tłum. pol. T. Kołakowska Spostrzeganie pozazmyslowe, PWN, Warszawa 1969. [111] Parapsychology: Its Relation to Physics, Biology, Psychology and Psychiatry, edited by G. R. Schmeidler, The Scarecrow Press, Metuchen, New York 1976. [112] Puthoff, H. E., Targ, R. A Perceptual Channel for Information Transfer over Kilometer Distances: Historical Perspective and Recent Research, „Proceedings of the IEEE” 64, 3, 329(1976).
[113] Schmidt, H. Quantum Process Predicted? „New Scientist”, 16 X 1969. [114] Schmidt, H „Journal of Applied Physics” 41, 462(1970): patrz także „Problemy” nr 3 (1972) oraz opis doświadczeń Schmidta w książce [117]. [115] Schmeidler, G. R. PK Effects upon Continuously Recorded Temperature, „The Journal of the American Society for Physical Research” 67, 4. 325(1973). [116] Marks, D., Kammann, R. Information Transmission in Remote Viewing Experiments, „Nature” 274, 680(1978). [117] Boruń, K., Manczarski, S. Tajemnice parapsychologii. Iskry, Warszawa 1977. [118] Balanovski, E., Taylor, J. G. Can Electromagnetism Account for Extra-Sensory Phenomenal, „Nature” 267, 64(1978). [119] Taylor, J. G. Science and the SupernaturaL Dutton, New York 1980. [120] Jahn R. G. The Persistent Paradox of Psychic Phenomena: An Engineering Perspective, „Proceedings of the IEEE” 70, 136(1982). [121] Ebon, M. History of Parapsychology, w zbiorze [124]. [122] Zinczenko, W. P., Leontiew, A. N., Lomow, B. M., Luria, A. R. „Woprosy filozofii” nr 9, str. 128, wrzesień 1973; dostępne jest też tłum. ang. tego artykułu w zbiorze [124]. [123] Stefański, L. E., Komar, M. Od magii do psychotroniki, Wiedza Powszechna, Warszawa [124] The Signet Handbook of Parapsychology edited by Martin Ebon, New American Library, New York 1978. [125] The World Almanac Book of the Strange, New American Library, New York 1977. [126] The World Almanac Book of the Strange No. 2, New American Library, New York 1981. [127] Hansel, C. E, M. ESP and Parapsychology: A Critical Reevaluation, Prometheus Books, Buffalo 1980. [128] Science and the Paranormal edited by George O. Abell and Barry Singer. Scribners, New York 1981. [129] Paranormal Borderlands of Science edited by Kendrick Frazier, Prometheus Books, Buffalo 1981. [130] Gardner, M. Science: Good, Bad and Bogus, Avon Books, New York 1981. [131] Hines, T. M. Biorythm Theory: A Critical Review, w zbiorze [129]; Bainbridge, W. S. Biorythms: Evaluating a Pseudoscience, w zbiorze [129]; Khalil, T., Kurucz, C. Biorythms, w zbiorze [128]. [132] Galston, A. W., Slayman, C. L. Plant Sensitivity and Sensation, w zbiorze [128].
[133] Patrz bogaty wykaz literatury w artykule [132]. A oto niektóre prace polskie: Karczewski, W. Zjawiska elektryczne w organizmie, PWN, Warszawa 1965; Piechocki, G. Zjawiska elektryczne w roślinach, „Problemy” nr 3 (1970); Janiszewski, L. Zjawiska bioelektryczne, „Problemy” nr 8 (1979). [134] Rocard, Y. Le signal du sourcier, „La Recherche”, nr 124, (1981), str. 792. [135] Badania Komitetu Belgijskiego do Naukowego Badania Rzekomych Zjawisk Paranormalnych (Comité Belge pour l'Investigation Scientifique des Phénomenes Réputés Paranormaux) są opisane w „La Recherche” nr 125(1981) i nr 130(1982). Warto także zapoznać się z artykułami polskich autorów: Wadas, R. Biomagnetyzm, „Problemy” nr 12 (1976); Wojtusiak, R. J., Majlert Z. Pole magnetyczne Ziemi a organizmy żywe, „Problemy” nr 6 (1981). [136] Wasiliew, L. [106], cyt. ze str. 164. [137] Gardner, M. [87], cyt, ze str. 131. [138] Gardner, M. [87], cyt. ze str. 142-143. [139] Gardner, M. [87], cyt, ze str. 80-81. [140] Moore, P. Guide to the Moon, Comet Books, London 1955, str. 106. [141] Trench, B. Le Poer Secret of the Ages, Panther Books, London 1974. [142] Evans, B. The Natural History of Nonsense; tłum. polskie H. Krahelska Naturalna historia nonsensu, Wiedza Powszechna, Warszawa 1964. [143] Rath-Vegh, I. Az emberek butitásának történéteböl; tłum. polskie R. Bańkowicz Historia ludzkiego szaleństwa, Iskry, Warszawa 1973. [144] Flanagan, G. P. Pyramid Power; tłum. polskie B. Kochel Energia piramid, Poznań 1979. [145] Ord-Hume, A. W. J. G. Perpetual Motion, Allen and Unwin, London 1977, rozdział 12. [146] O historii astrologii i układaniu horoskopów można się dowiedzieć z następujących źródeł: Zonn, W. Astrologia z perspektywy czasu, „Problemy” nr 12 (1973); Abramowicz, M. A. Astrologia, „Problemy” nr 9(1977); Dworak, Z. Astrologia-Astronomia-Astrofizyka, LSW, Warszawa 1980. [147] Wrotkowski, T. W: „Problemy astrologii”, Stowarzyszenie astrologów w Poznaniu 1981, str. 8687 i 96. [148] Sagan, C. Other Worlds, Toronto-New York-London 1975, str. 122. [149] Patrz „La Recherche” nr 140(1983), str. 118 i nr 142 (1983), str. 370. [150] Menzel, D. H. Our Sun, Harvard University Press, Cambridge (Mass.) 1959. [151] Eysenck, H. J. [108], cyt. ze str. 28. [152] Wasiliew, L. [106], cyt. ze str. 51. [153] Eysenck, H. J. [108], cyt. ze str. 34.
[154] Camp, L. S. de, Camp, C. C. de Spirits, Stars, and Spells; tłum. polskie W. Niepokólczycki Duchy, gwiazdy i czary, PWN, Warszawa 1970, str. 351. [155] Holiday, F. W. The Dragon and the Disc, Futura, Aylesbury 1974. [156] Zöllner, J. Transcendental Physics, London 1880. [157] Puthoff, H., Targ, R. Information Transmission Under Conditions of Sensory Shielding, „Nature” 251, 602(1974). [158] Hanion, J. Uri Geller and Science, „New Scientist”, 64, 170(1974). [159] Randi, J. The Magic of Uri Geller, Ballantine Books, New York 1975. [160] Camp, L. S. de, Camp, C. C. de [154], cyt, ze str. 384. [161] „Science” 25 I 1980, str. 389. [162] O próbach z udziałem Francuza Jean-Pierre Girarda patrz „La Recherche” nr 86, str. 187(1978) i nr 89, str. 508(1978); jak się okazało, ten iluzjonista-amator postanowił celowo oszukiwać uczonych i do czasu mu się to udawało. Triki Czecha Roberta Pavlity ujawnił na filmie wyświetlanym we francuskiej telewizji Alfred Krantz (patrz „La Recherche” nr 91, str. 706(1978)). O Amerykance Suzie Cotrell jest artykuł w zbiorze [129]; tamże są opisane wyznania byłego menażera Uri Gellera, który pomagał mu w sztuczkach mających na celu przekonanie publiczności o „siłach psychicznych” Gellera. O sztuczkach Niny Kułaginy i Róży Kuleszowej jest dokumentacja w książce [130]. [163] Camp, L. S. de, Camp, C. C. de [154], cyt. ze str. 364. [164] Camp. L. S. de, Camp, C. C. de [154], cyt. ze str. 385. [165] Mendelejew, D. Oświadczenie dla Wydziału Fizycznego Uniwersytetu w Petersburgu w związku z powołaniem komisji dla badania zjawisk zwanych mediumicznymi (6 maja 1875 r.)) cyt. wg Wasiliewa [106], str. 187. [166] Hynek, J. A. The UFO Experience, Chicago 1972, str. 7. [167] Vallee, J. Anatomy of a Phenomenon, Chicago 1965, str. 162. [168] Hynek, J. A. Unusual Aerial Phenomena, „Journal of the Optical Society of America” 43, 4, 311(1953). [169] Hynek, J. A. [166], str. 26. [170] Eysenck, H. J. [108], str. 116. [171] Vallee, J., Vallee, J. Challenge to Science, Chicago 1966, str. 110. [172] Wróblewski, A. Problem UFO, w zbiorze Z powrotem na Ziemię, PIW, Warszawa 1980. Książka ta to zbiór krytycznych artykułów na temat twórczości E. von Dänikena. [173] Hynek, J. A. The Hynek UFO Report, New York 1977.
[174] Klass, P. UFO's Explained, New York 1974. [175] Menzel, D. Flying Saucers, Harvard University Press, Cambridge (Mass.) 1953. [176] Menzel, D., Boyd L. G. The World of Flying Saucers, New York 1963. [177] Menzel, D., Taves, E. H. The UFO Enigma, New York 1977. [178] Stachanow, I. P. Fiziczeskaja priroda szarowoj mołni, Moskwa 1979. [179] Singer, S. The Nature of Bali Lightning; tłum. ros. Priroda szarowoj mołni, Moskwa 1973. [180] Lorenzen, C. E. Flying Saucers - The Startling Evidence of the Invasion from Outer Space, New York 1966. [181] Charman, W. N. Bali Lightning, „Physics Reports” 54, nr 4(1979). [182] Cade, C. M. Thunderbolts as the X Weapon, „Discovery” nr 2(1962), str. 23. [183] Callahan, P. S. Mankin, R, W. Insects as Unidentified Flying Objects, „Applied Optics” 17, 3355(1978). [184] Fuller, J. G. The Interrupted Journey, New York 1966. [185] Hynek, J. A., Vallee, J. The Edge of Reality, Chicago 1975. [186] Jacobs, D. M. The UFO Controversy in America, Indiana University Press, Bloomington 1975 [187] Michel, A. The Truth about Flying Saucers, New York 1967. [188] Edwards, F. Flying Saucers - Serious Business, New York 1966. [189] Durrant, H. Premières enąuêtes sur les humanoides extraterrestres, Paris 1977. [190] Scientific Study of Unidentifled Flying Objects, edited by D. S. Gillmore, New York 1969; jest to zbiór artykułów opracowanych przez członków zespołu kierowanego przez E. U. Condona. [191] Proceedings of the First International UFO Congress, Warner Books, New York 1980. [192] Znicz, L. Nieznane obiekty latające, cz. 1, KAW, Gdańsk 1983. [193] Allingham, C. Flying Saucers from Mars, London 1954. [194] Chapman, R. Unidentifled Flying Objects, Frogmore 1969. [195] Blum R., Blum J. Beyond Earth: Man's Contact with UFO's; New York 1974. [196] Vallee, J. Messengers of Deception, Bantam Books, New York 1980. [197] UFO s - A Scientific Debate, edited by C. Sagan and T. Page, New York 1972. [198] Flammonde P. UFO Exist, New York 1976. [199] Krzyżanowski, J. K. Wykład Fizyki do użytku Szkól Wojewódzkich, Warszawa 1825.
[200] Berlitz, Ch. The Bermuda Triangle, Garden City, New York 1974. Idee Berlitza propaguje u nas Lech Niekrasz w książce Trójkąt Bermudzki, MAW, Warszawa 1978. [201] Kusche, L. D. The Bermuda Triangle Mystery - Solved; tłum. polskie R. M. Sadowski Trójkąt Bermudzki - zagadka rozwiązana, Iskry, Warszawa 1983. [202] Bok, B. J., Jerome, L. E. Objections to Astrology, New York 1975. [203] March, R. H. „Physics Today” nr 3(1976). [204] Ceram, C. W. The First American; tłum. polskie T. Zabłudowski i M. Gero Pierwszy Amerykanin, PIW, Warszawa 1977, cyt. ze str. 231. [205] Gardner, M. [87], cyt. ze str. 71. [206] Wolkensztajn, M. W. O fenomenie pseudonauki, „Priroda” nr 11(1983); pol. oprac. „Problemy” nr 5(1984). [207] Marks, D. F. Investigating the Paranormal, „Nature” 320, 119(1986) [208] Broch, H. Le paranormal, Seuil, Paris 1985. [209] Zagórski, Z. P. Radiestezja: uwierzyć, odrzucić, czy wyjaśnić?, „Problemy” nr 7 (1984). [210] Cazeau, Ch. J., Scott, S. D. Exploring the Unknown, Plenum Press, New York 1979. [211] Playfair, G. L., Hill, S. The Cycles of Heaven; tłum. pol. G. i Z. Fąfarowie Cykle nieba, PIW, Warszawa 1984. [212] Carlson, S. A double Blind Test of Astrology, „Nature” 318, 419(1985). [213] Prinke, R. T., Weres, L. Mandala życia, KAW, Poznań 1982. [214] „Projekt Alfa”, czyli jak udowodnić zjawiska paranormalne, „Problemy” nr 7(1984). [215] Sheaffer, R. The UFO Verdict, Prometheus Books, Buffalo 1981. [216] Extraterrestrials: Where Are They? edited by Michael H. Hart and Ben Zuckerman, Pergamon Press, New York 1982. [217] UFO sprowadzone na Ziemię, „Problemy” nr 5 (1984).
Fotografie