158 63 11MB
Italian Pages 205 Year 1988
Stephen W. Hawking
Dal Big Bang ai buchi neri Introduzione di Carl Sagan
Illustrazioni di Ron Miller
Rizzoli
Questo libro è dedicato a Jane
Proprietà letteraria riservata © 1988 by Stephen W. Hawking © 1988 by Cari Sagan per l'Introduzione © 1988 by Ron Miller (ter le illustrazioni © 1988 RCS Rizzoli Libri S.p.A., Milano First published Aprii 1988 by Bantam Books in the United States and Canada ISBN 88-17-85343-7 Titolo originale: A BRIEF HISTORYOF TIME Traduzione di Libero Sosio Prima edizione: maggio 1988 Seconda edizione: giugno 1988 Terza edizione: luglio 1988 Quarta edizione: luglio 1988 Quinta edizione: luglio 1988 Sesta edizione: settembre 1988 Settima edizione: settembre 1988 Ottava edizione: ottobre 1988 Nona edizione: ottobre 1988 Decima edizione: dicembre 1988 Undicesima edizione: febbraio 1989 Dodicesima edizione: febbraio 1989 Tredicesima edizione: marzo 1989 Quattordicesima edizione: maggio 1989 Quindicesima edizione: settembre 1989 Sedicesima edizione: ottobre 1989
RINGRAZIAMENTI
Presi la decisione di cimentarmi in un libro di divulgazione sullo spazio e sul tempo dopo aver tenuto il ciclo delle Loeb lectures a Harvard nel 1982. Esisteva già un numero considerevole di libri sugli inizi dell'universo e sui buchi neri, da quelli ottimi, come I primi tre minuti di Steven Weinberg, a quelli pessimi, che lascerò nell'anonimato. Pensavo però che nessuno di essi avesse affrontato veramente i problemi che mi avevano condotto a compiere ricerche nei campi della cosmologia e della teoria quantistica: da dove ebbe origine l'universo? Come e perché ebbe inizio? Avrà mai fine, e in tal caso come? Queste sono domande che interessano a tutti noi. Ma la scienza moderna è diventata così tecnica che solo un numero piccolissimo di specialisti è in grado di padroneggiare la matematica usata per descriverla. Le idee fondamentali sull'origine e la sorte dell'universo possono però essere espresse senza bisogno di far ricorso alla matematica, in un modo comprensibile anche da chi non abbia una formazione scientifica. Sarà il lettore a giudicare se io sia o no riuscito nel mio intento. Qualcuno mi disse che ogni equazione che avessi incluso nel libro avrebbe dimezzato le vendite. Decisi perciò che non avrei usato alcuna equazione. Alla fine, però, ho fatto un'eccezione per la famosa equazione di Einstein, E =mc2. Spero che essa non spaventerà metà dei miei potenziali lettori. A parte la sfortuna di contrarre la mia grave malattia dei motoneuroni, sono stato fortunato sotto quasi ogni altro aspetto. L'aiuto e il sostegno che ho ricevuto da mia moglie, Jane, e dai miei figli, Robert, Lucy e Timmy, mi hanno dato la possibilità di condurre una vita abbastanza normale e di avere successo nella carriera accademica. Un'altra fortuna che ho avuto è stata
quella di scegliere fisica teorica, poiché si tratta di una scienza che sta per intero nella mente. La mia invalidità non ha quindi rappresentato uno svantaggio grave. I miei colleghi scientifici mi hanno dato, senza eccezione, moltissimo aiuto. Nella prima fase, «classica», della mia carriera, i miei principali associati e collaboratori furono Roger Penrose, Robert Geroch, Brandon Carter e George Ellis. Io sono loro riconoscente per l'aiuto che mi hanno dato, e per il lavoro che abbiamo svolto assieme. Questa fase fu compendiata nel libro The Large Scale Structure qf Spacetime; scritto da Ellis e da me nel 1973. Non consiglierei ai lettori di questo libro di consultare quell'opera per trovarvi ulteriori informazioni: si tratta infatti di un libro altamente tecnico e del tutto illeggibile. Spero, da allora, di avere imparato a scrivere in un modo più comprensibile. Nella seconda fase, «quantistica», del mio lavoro, dopo il 1974, i miei principali collaboratori sono stati Gary Gibbons, Don Page e Jim Hartle. Io ho grandi debiti verso di loro e verso i miei studenti ricercatori, che mi hanno dato molto aiuto, tanto nel senso fisico quanto in quello teorico della parola. Il fatto di dover tenere il passo con i miei studenti mi ha molto stimolato e mi ha impedito, almeno lo spero, di fossilizzarmi. Nella preparazione di questo libro ho avuto un grande aiuto da un mio studente, Brian Whitt. Nel 1985, dopo avere scritto la prima stesura, fui colpito da una polmonite. Dovetti subire una tracheotomia, che mi tolse la capacità di parlare e mi rese quasi impossibile comunicare. Pensavo che non sarei riuscito a terminare questo lavoro. Brian, però, non solo mi aiutò a rivederlo, ma mi convinse a usare un programma di comunicazione chiamato Living Center che mi fu donato da Walt Woltosz, della Words Plus Inc. di Sunnyvale, in California. Con l'aiuto di questo programma sono in grado sia di scrivere libri e articoli sia di parlare con la gente usando un sintetizzatore vocale donatomi dalla Speech Plus, anch'essa di Sunnyvale. Il sintetizzatore e un piccolo personal computer furono montati sulla mia sedia a rotelle da David Mason. Questo sistema ha avuto un'importanza grandissima: in effetti io riesco a comunicare meglio adesso che non prima di perdere la voce. Ho avuto dei suggerimenti per migliorare questo libro da un gran numero di
persone che ne hanno visto versioni preliminari. In particolare Peter Guzzardi, redattore alla Bantam Books, mi inviò pagine e pagine di commenti e di domande su punti che pensava non fossero spiegati in modo appropriato. Devo ammettere che rimasi abbastanza irritato quando ricevetti il suo lungo elenco di cose da cambiare, ma aveva ragione lui. Sono certo che questo è un libro migliore in conseguenza della sgobbata supplementare che egli mi ha costretto a fare. Sono molto grato ai miei assistenti, Colin Williams, David Thomas e Raymond Laflamme; alle mie segretarie Judy Fella, Ann Ralph, Cheryl Billington e Sue Masey; e ai miei infermieri. Questo libro non sarebbe stato possibile senza il sostegno, per le mie spese mediche e di ricerca, for-nito dal Gonville and Caius College, dal Science and Engineering Research Council e dalle fondazioni Leverhulme, McArthur, Nuffield e Ralph Smith. A tutti esprimo qui la mia gratitudine. S.H. 20 ottobre 1987
INTRODUZIONE di Carl Sagan
Noi viviamo la nostra vita quotidiana senza comprendere quasi nulla del mondo. Ci diamo poco pensiero del meccanismo che genera la luce del Sole, dalla quale dipende la vita, della gravità che ci lega a una Terra che ci proietterebbe altrimenti nello spazio in conseguenza del suo moto di rotazione, o degli atomi da cui siamo composti e dalla cui stabilità fondamentalmente dipendiamo. Se trascuriamo i bambini (i quali non sanno abbastanza per formulare le domande importanti), ben pochi di noi spendono molto tempo a chiedersi perché la natura sia così com'è; da dove sia venuto il cosmo, o se esista da sempre; se un giorno il tempo comincerà a scorrere all'indietro e gli effetti precederanno le cause; o se ci siano limiti ultimi a ciò che gli esseri umani possono conoscere. Ci sono persino bambini — e io ne ho conosciuto qualcuno — i quali vorrebbero sapere che aspetto hanno i buchi neri; quale sia il pezzo più piccolo di materia; perché ricordiamo il passato e non il futuro; come mai, se in passato ci fu il caos, oggi non ci sia un caos ancora maggiore; e perché esiste un universo. Nella nostra società c'è ancora l'uso, per genitori e insegnanti, di rispondere alla maggior parte di queste domande con una scrollatina di spalle o con un rinvio a nozioni religiose richiamate in modo vago. Qualcuno si trova a disagio dinanzi a problemi come questi, che mettono in luce in modo così evidente i limiti dell'intelletto umano. Gran parte della filosofia e della scienza sono spinte avanti proprio da tali domande. Un numero crescente di adulti non hanno timore a porsi interrogativi di questo genere, e di tanto in tanto ottengono risposte sorprendenti. Equidistanti dagli atomi e dalle stelle, noi stiamo espandendo gli orizzonti della nostra esplorazione ad abbracciare sia l'estremamente piccolo sia l'estremamente grande.
Nella primavera del 1974, un paio di anni prima che il veicolo Viking scendesse su Marte, ero in Inghilterra a un convegno patrocinato dalla Royal Society di Londra per investigare il problema di come si potessero ricercare forme di vita extraterrestri. Durante una pausa per il caffè, avendo notato che una manifestazione molto maggiore si teneva in una sala adiacente, vi entrai spinto dalla curiosità. Mi resi subito conto che stavo assistendo a un antico rito, l'investitura di nuovi membri della Royal Society, una fra le più antiche società culturali di tutto il mondo. In prima fila un giovane seduto su una sedia a rotelle stava scrivendo il suo nome, con grande lentezza, in un libro che recava in una delle primissime pagine la firma di Isaac Newton. Quando infine la cerimonia finì, ci fu un'ovazione commovente. Stephen Hawking era una leggenda già allora. Hawking è oggi il professore lucasiano di matematica a Cambridge, posto occupato un tempo da Newton e in seguito da P.A.M. Dirac, due famosi esploratori dell'estremamente grande e dell'estremamente piccolo. Egli è il loro degno successore. Questo libro — il primo libro di Hawking per non specialisti — contiene molti motivi di interesse per il pubblico dei profani. Altrettanto interessante quanto la varietà degli argomenti trattati è la possibilità che esso fornisce di gettare uno sguardo sul modo di operare della mente del suo autore. In questo libro si trovano lucide rivelazioni sulle frontiere della fisica, dell'astronomia, della cosmologia, e del coraggio. Questo è anche un libro su Dio... o forse sull'assenza di Dio. La parola Dio riempie queste pagine. Hawking si avventura in una ricerca per rispondere alla famosa domanda di Einstein se Dio abbia avuto qualche scelta nella creazione dell'universo. Hawking sta tentando, come afferma esplicitamente, di capire la mente di Dio. E questo fatto rende tanto più inattesa la conclusione del suo sforzo, almeno finora: un universo senza confini nello spazio, senza inizio o fine nel tempo, e con nulla da fare per un creatore. Cornell University, Ithaca, New York
DAL BIG BANG AI BUCHI NERI
1
LA NOSTRA IMMAGINE DELL'UNIVERSO
Un famoso scienziato (secondo alcuni fu Bertrand Russell) tenne una volta una conferenza pubblica su un argomento di astronomia. Egli parlò di come la Terra orbiti attorno al Sole e di come il Sole, a sua volta, compia un'ampia rivoluzione attorno al centro di un immenso aggregato di stelle noto come la nostra galassia. Al termine della conferenza, una piccola vecchia signora in fondo alla sala si alzò in piedi e disse: «Quel che lei ci ha raccontato sono tutte frottole. Il mondo, in realtà, è un disco piatto che poggia sul dorso di una gigantesca tartaruga». Lo scienziato si lasciò sfuggire un sorriso di superiorità prima di rispondere: «E su che cosa poggia la tartaruga?». «Lei è molto intelligente, giovanotto, davvero molto», disse la vecchia signora. «Ma ogni tartaruga poggia su un'altra tartaruga!» La maggior parte delle persone troverebbe piuttosto ridicola quest'immagine del nostro universo che poggia su una torre infinita di tartarughe, ma perché mai noi dovremmo pensare di saperne di più? Che cosa sappiamo sull'universo, e come lo sappiamo? Da dove è venuto l'universo, e dove sta andando? L'universo ebbe un inizio e, in tal caso, che cosa c'era prima! Qual è la natura del tempo? Il tempo avrà mai fine? Progressi recenti in fisica, resi possibili in parte da fantastiche nuove tecnologie, suggeriscono risposte ad alcune di queste domande di età venerabile. Un giorno queste risposte potrebbero sembrarci altrettanto ovvie del fatto che la Terra orbita attorno al Sole, o forse altrettanto ridicole
di una torre di tartarughe. Solo il tempo (qualunque cosa esso sia) ce lo dirà. Già nel 340 a.C. il filosofo greco Aristotele, nel De caelo, potè proporre due argomenti a sostegno della tesi che la Terra non è un disco piano, bensì una sfera. Innanzitutto, egli si rese conto che le eclissi di Luna sono causate dall'interposizione della Terra fra la Luna e il Sole. L'ombra della Terra proiettata sulla Luna era sempre rotonda, cosa possìbile solo nel caso che la Terra fosse sferica. Se la Terra avesse avuto la forma di un disco, l'ombra sarebbe stata quasi sempre allungata ed ellittica, tranne nei casi in cui il centro del Sole, quello della Terra e quello della Luna fossero stati perfettamente allineati. In secondo luogo, i greci sapevano dai loro viaggi che le stelle circumpolari apparivano tanto più basse in cielo quanto più a sud ci si spingeva, mentre nelle regioni più settentrionali si vedevano più in alto. (La Stella Polare, che si trova sul prolungamento dell'asse terrestre, è allo zenit per un osservatore che si trovi al Polo Nord, mentre chi la osservi dall'equatore la vede esattamente sull'orizzonte.) Dalla differenza nella posizione apparente di varie stelle in cielo (in Egitto e nella regione di Cipro si vedono stelle che non sono visibili nelle regioni settentrionali, e viceversa) si poteva desumere una conferma della sfericità della Terra. Aristotele citò addirittura una stima dei matematici secondo la quale la circonferenza terrestre misurava 400.000 stadi. Oggi non sappiamo esattamente quanto fosse lungo uno stadio, ma secondo un'ipotesi esso potrebbe essere stato di circa 183 metri, cosicché la stima equivarrebbe a più di 73.000 km, che è una lunghezza quasi doppia rispetto al valore di 40.000 km attualmente accettato. I greci avevano addirittura un terzo argomento a sostegno della sfericità della Terra: se la Terra non fosse stata sferica, com'era possibile che di una nave apparissero al di sopra dell'orizzonte prima le vele e poi lo scafo? Aristotele pensava che la Terra fosse immobile e che il Sole, la Luna, i pianeti e le stelle si muovessero in orbite circolari attorno ad essa. Egli credeva infatti, per ragioni mistiche, che la Terra fosse il centro dell'universo e che il moto circolare fosse il più perfetto fra tutti. Nel II secolo d.C. Tolomeo sviluppò quest'idea in un modello cosmologico completo. Nel suo sistema la Terra era al centro, circondata da otto sfere che trasportavano la Luna, il Sole, le stelle e i cinque pianeti noti a quel tempo, ossia Mercurio, Venere,
Marte, Giove e Saturno (fig. 1.1). I pianeti stessi si muovevano su cerchi minori, gli epicicli, in movimento sulle rispettive sfere: quest'ipotesi era necessaria per spiegare le loro traiettorie apparenti piuttosto complicate in cielo. La sfera più esterna trasportava le cosiddette stelle fisse, le quali si trovano sempre nella stessa posizione l'una rispetto all'altra ma compiono assieme in modo solidale una rotazione diurna attraverso il cielo. Che cosa ci fosse al di là della sfera delle stelle fisse non fu mai chiarito, ma certamente era qualcosa che non faceva parte dell'universo osservabile dall'umanità.
Fig. 11 Il modello di Tolomeo fornì un sistema ragionevolmente esatto per predire le posizioni dei corpi celesti in cielo. A tal fine Tolomeo dovette però supporre che la Luna percorresse una traiettoria che comportava grandi variazioni nella sua distanza. Ne conseguiva però che a volte le dimensioni apparenti del disco lunare dovessero raddoppiarsi! Tolomeo riconobbe che questo era un punto debole della sua teoria, ma nondimeno il suo modello fu accettato generalmente, anche se non universalmente. Esso fu adottato anche dalla Chiesa cristiana come l'immagine dell'universo che era in
accordo con la Sacra Scrittura, tanto più che aveva anche il grande vantaggio di lasciare all'esterno della sfera delle stelle fisse una grande quantità di spazio in cui sistemare il paradiso e l'inferno. Un modello più semplice fu proposto nel 1514 dal canonico polacco Niccolò Copernico. (Dapprima, forse per timore di essere bollato come eretico dalla sua Chiesa, Copernico fece circolare il suo modello in forma anonima.) Egli propose la nuova idea che al centro si trovasse il Sole, immobile, e che attorno ad esso si muovessero, in orbite circolari, la Terra e i pianeti. Successivamente due astronomi (il tedesco Giovanni Keplero e il fiorentino Galileo Galilei) cominciarono a pronunciarsi pubblicamente a favore della teoria di Copernico, nonostante che le orbite da essa predette non corrispondessero del tutto con quelle osservate. Il colpo mortale alla teoria aristotelico-tolemaica fu inferto nel 1609. Quell'anno Galileo cominciò a scrutare il cielo notturno con un telescopio, strumento che era stato appena inventato. Osservando il pianeta Giove, Galileo trovò che era accompagnato da vari piccoli satelliti o lune che orbitavano attorno ad esso. Questo fatto implicava che non tutti i corpi celesti dovessero orbitare direttamente attorno alla Terra, come avevano creduto Aristotele e Tolomeo. (Ovviamente si poteva ancora pensare che la Terra fosse immobile al centro dell'universo e che i satelliti di Giove orbitassero in modi estremamente complicati attorno ad essa, creando l'apparenza di orbitare attorno a Giove. La teoria copernicana era però molto più semplice.) Nello stesso anno Keplero modificò la teoria eliocentrica di Copernico, suggerendo che i pianeti si muovessero non su cerchi bensì su ellissi (un'ellisse è un cerchio allungato). Ora le predizioni concordavano finalmente con le osservazioni. Secondo Keplero, le orbite ellittiche erano semplicemente un'ipotesi ad hoc, e un'ipotesi piuttosto difficile da accettare in quanto le ellissi erano chiaramente meno perfette di cerchi. Avendo scoperto quasi per caso che le orbite ellittiche corrispondevano bene alle osservazioni, egli non riuscì però a conciliarle con la sua idea che i pianeti venissero fatti orbitare attorno al Sole da forze magnetiche. Una spiegazione fu fornita solo molto tempo dopo, nel 1687, quando Isaac Newton pubblicò i Philosophìae naturalis principia mathematica (Principi matematici della filosofia naturale), probabilmente l'opera singola più importante che sia mai stata pubblicata
nel campo delle scienze fisiche. In essa Newton non solo propose una teoria sul modo in cui i corpi si muovono nello spazio e nel tempo, ma sviluppò anche il complesso apparato matematico necessario per analizzare tali moti. Newton postulò inoltre una legge della gravitazione universale, secondo la quale ogni corpo nell'universo è attratto verso ogni altro corpo con una forza direttamente proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato della loro distanza. Era questa stessa forza a causare la caduta al suolo degli oggetti. (Il racconto secondo cui Newton sarebbe stato ispirato da una mela cadutagli in testa è quasi certamente apocrifo. Tutto ciò che lo stesso Newton scrisse in proposito fu che l'idea della gravità gli venne mentre se ne stava seduto «in uno stato d'animo contemplativo» e «fu occasionata dalla caduta di una mela».) Newton continuò mostrando che, secondo la sua legge, era la gravità a far muovere la Luna in un'orbita ellittica attorno alla Terra e a determinare le orbite ellittiche della Terra e dei pianeti attorno al Sole. Il modello copernicano gettava a mare le sfere celesti di Tolomeo e con esse l'idea che l'universo avesse un confine naturale. Poiché le «stelle fisse» non sembravano mutare la loro posizione in cielo, eccezion fatta per il moto diurno dell'intera sfera celeste causato dalla rotazione della Terra sul suo asse, divenne naturale supporre che le stelle fisse fossero oggetti simili al nostro Sole ma molto più lontani. Newton si rese conto che, secondo la sua teoria della gravita, le stelle avrebbero dovuto attrarsi fra loro, cosicché sembrava che non potessero restare essenzialmente immobili come apparivano. Esse avrebbero dovuto invece cadere tutte verso un qualche centro gravitazionale comune. In una lettera da lui scritta nel 1691 a Richard Bentley, un altro fra i principali pensatori del tempo, Newton sostenne che questo era per l'appunto quanto accadrebbe se esistesse solo un numero finito di stelle distribuite in una regione finita dello spazio. Egli affermò però che, se esistesse invece un numero infinito di stelle, distribuite in modo più o meno uniforme in uno spazio infinito, ciò non accadrebbe, perché in tal caso non esisterebbe un punto centrale verso cui cadere. Questo ragionamento è un esempio dei trabocchetti in cui si può cadere parlando dell'infinito. In un universo infinito ogni punto può essere
considerato il centro, avendo un numero infinito di stelle attorno a sé in ogni direzione. L'impostazione corretta, come ci si rese conto solo molto tempo dopo, è quella di considerare la situazione finita, in cui tutte le stelle cadono l'una verso l'altra, e poi di chiedersi come cambierebbero le cose se si aggiungessero altre stelle, distribuite in maniera grosso modo uniforme all'esterno di questa regione. Secondo la legge di Newton, le stelle aggiunte non farebbero alcuna differenza rispetto a quelle prese in considerazione in principio, cosicché queste continuerebbero a cadere le une verso le altre con la stessa velocità. Possiamo aggiungere quante stelle vogliamo, ma le nostre stelle della regione .finita iniziale continuerebbero a cadere verso un centro gravitazionale comune. Oggi sappiamo che è impossibile avere un modello statico infinito dell'universo in presenza di gravitazione che sia sempre attrattiva. E un indizio interessante sul clima di pensiero generale dominante prima del XX secolo che nessuno abbia mai suggerito che l'universo sia in espansione o in contrazione. Tutti accettavano l'idea che l'universo o fosse esistito da sempre in uno stato sempre uguale o che fosse stato creato, in un tempo finito in passato, più o meno come lo osserviamo oggi. In parte tale credenza in un universo immutabile era forse dovuta all'inclinazione della gente a credere in verità eterne, oltre che al conforto che si trovava nel pensare che, anche se le persone potevano invecchiare e morire, l'universo è eterno e immutabile. Persino chi si rendeva conto che — in un'applicazione rigorosa della teoria della gravitazione di Newton — l'universo non poteva essere statico era ben lontano dal pensare che esso potesse essere in espansione. Si tentava invece di modificare la teoria facendo l'ipotesi che, a distanze molto grandi, l'attrazione gravitazionale potesse trasformarsi in repulsione. Quest'ipotesi non incideva in modo significativo sulle predizioni dei moti dei pianeti, ma permetteva a una distribuzione infinita di stelle di restare in equilibrio, con le forze di attrazione fra stelle vicine controbilanciate dalle forze di repulsione fra quelle più lontane. Noi oggi crediamo però che un tale equilibrio sarebbe instabile: se le stelle in una qualche regione si avvicinassero anche solo di poco fra loro, le forze d'attrazione crescerebbero fino a diventare dominanti su quelle di repulsione, cosicché le stelle
continuerebbero a cadere l'una verso l'altra. D'altra parte, se le stelle si allontanassero un pochino l'una dall'altra, diventerebbero dominanti, in tale ipotesi, le forze di repulsione, le quali continuerebbero a farle allontanare sempre di più. Un'altra obiezione a un universo statico infinito viene normalmente attribuita al filosofo tedesco Heinrich Olbers, che pubblicò il suo «paradosso» nel 1823. In realtà il problema era stato già sollevato da vari contemporanei di Newton, e l'articolo di Olbers non fu neppure il primo a contenere argomenti plausibili in proposito. Esso fu, però, il primo a richiamare su di sé una grande attenzione. Il paradosso di Olbers consisteva nel fatto che, in un universo infinito statico, in qualsiasi direzione si volga lo sguardo la linea visuale finirebbe sulla superficie di una stella, cosicché l'intero cielo dovrebbe essere luminoso come il Sole, persino di notte. Olbers trovò la soluzione di questo paradosso nell'argomento che la luce proveniente da stelle molto lontane è presumibilmente attenuata dall'assorbimento per opera della materia interposta. Se così fosse, però, la materia interstellare si sarebbe col tempo riscaldata sino a diventare a sua volta luminosa come le stelle. L'unico modo per evitare la conclusione che l'intero cielo notturno dovesse essere altrettanto luminoso della superficie del Sole sarebbe stato quello di supporre che le stelle non esistono da sempre ma siano state «accese» in un qualche tempo finito in passato. In tal caso la materia assorbente poteva non essersi ancora riscaldata, oppure la luce proveniente dalle stelle più lontane poteva non essere ancora pervenuta sino a noi. Questo ragionamento ci porta però al problema di che cosa possa avere causato, a un certo punto, l'accensione delle stelle. L'inizio dell'universo fu, ovviamente, oggetto di riflessioni già da molto tempo prima di Olbers. Secondo varie cosmologie antiche e secondo la tradizione ebraico-cristiano-islamica, l'universo ebbe inizio in un tempo finito, e non molto lontano, in passato. Un argomento a favore di un tale inizio dell'universo nel tempo era la convinzione che, per spiegarne l'esistenza, fosse necessario postulare una «Causa prima». (All'interno dell'universo, ogni evento poteva sempre essere spiegato riconducendolo a un evento anteriore, ma l'esistenza dell'universo stesso poteva essere spiegata in questo modo solo ammettendo che esso avesse avuto un inizio.)
Un altro argomento fu addotto da sant'Agostino nel De civitate Dei {La città di Dio). Agostino sottolineò che la civiltà progredisce e che noi ricordiamo chi fece una certa cosa o sviluppò una certa tecnica. Perciò l'uomo — e quindi forse anche l'universo — non poteva esistere da un tempo molto lungo. Sant'Agostino accettò come data per la creazione dell'universo il 5000 a.C. circa, secondo calcoli fondati sul libro della Genesi. (E interessante osservare che tale data non è poi così lontana dalla fine dell'ultima epoca glaciale, databile attorno al 10.000 a.C., che segna secondo gli archeologi il vero inizio della civiltà.) Aristotele e la maggior parte degli altri filosofi greci, d'altra parte, non amavano l'idea di una creazione, poiché essa sapeva troppo di un intervento divino. Essi credevano, perciò, che il genere umano e il mondo intero esistessero da sempre, e che avrebbero continuato a esistere per sempre. Gli antichi avevano già considerato l'argomento del progresso ripreso poi da sant'Agostino, ma avevano risposto ad esso sostenendo che c'erano stati diluvi o altri disastri periodici, i quali avevano riportato ogni volta il genere umano a uno stato di barbarie da cui avrebbe avuto inizio ogni volta di nuovo la civiltà. I problemi se l'universo abbia avuto inizio nel tempo e se sia limitato nello spazio furono in seguito esaminati diffusamente dal filosofo Immanuel Kant nella monumentale (e difficilissima) Critica della ragion pura, la cui prima edizione uscì nel 1781. Kant chiamò questi problemi antinomie (ossia contraddizioni) della pura ragione, convinto com'era che esistessero argomenti altrettanto convincenti a sostegno della tesi, che l'universo avesse avuto un inizio nel tempo, e dell'antitesi, che esso esistesse da sempre. Il suo argomento a favore della tesi era che, se l'universo non avesse avuto un inizio, ci sarebbe stato un periodo di tempo infinito prima di ogni evento, cosa che egli considerava assurda. L'argomento a favore dell'antitesi era che, se l'universo avesse avuto un inizio, ci sarebbe stato un periodo di tempo infinito prima della sua esistenza, cosicché ci si potrebbe chiedere perché mai l'universo avrebbe dovuto avere inizio in un qualsiasi tempo particolare piuttosto che in un altro. In realtà le due argomentazioni, a favore sia della tesi sia dell'antitesi, si innestano sullo stesso ragionamento. Entrambe si fondano sull'assunto inespresso che il tempo continui a ritroso
per sempre, tanto nel caso che l'universo fosse o non fosse esistito dall'eternità. Come vedremo, però, prima dell'inizio dell'universo il concetto di tempo non ha alcun significato. Questa nozione fu proposta per la prima volta dallo stesso sant'Agostino. Alla domanda: «Che cosa faceva Dio prima di creare l'universo?» sant'Agostino non rispose, come un personaggio di epoca più recente: «Stava preparando l'inferno per le persone che fanno domande del genere». Egli disse invece che il tempo era una proprietà dell'universo creato da Dio, e che quindi prima dell'inizio dell'universo il tempo non esisteva. Quando la maggior parte delle persone credeva in un universo essenzialmente statico o immutabile, il problema se esso avesse o no avuto un inizio era in realtà una questione di competenza della metafisica o della teologia. Si poteva spiegare altrettanto bene ciò che si osservava sia con la teoria che l'universo esistesse da sempre sia con la teoria alternativa che esso fosse stato messo in movimento in un qualche tempo finito in passato, in modo tale da dare l'impressione che esso esistesse da sempre. Ma nel 1929 Edwin Hubble fece l'osservazione di importanza capitale che, in qualsiasi direzione si osservi, le galassie lontane presentano un moto di rapida recessione da noi. In altri termini, l'universo sta espandendosi. Ciò significa che, in passato, gli oggetti che lo compongono dovevano essere molto più vicini fra loro di quanto non siano oggi. Sembrava, in effetti, che ci fosse stato un tempo in passato, circa dieci o venti miliardi di anni fa, in cui tutti gli oggetti dovettero trovarsi esattamente nello stesso luogo e in cui, perciò, la densità dell'universo era infinita. Questa scoperta portò infine il problema dell'inizio dell'universo nell'ambito della scienza. Le osservazioni di Hubble suggerirono che doveva esserci stato un tempo, chiamato in seguito il big bang (la grande esplosione), in cui l'universo era infinitesimamente piccolo e infinitamente denso. In una tale condizione tutte le leggi della scienza, e perciò l'intera abilità di predire il futuro, venivano meno. Se prima di tale tempo ci furono altri eventi, essi non avrebbero potuto avere alcuna incidenza su ciò che accade oggi. La loro esistenza può essere tranquillamente ignorata perché non avrebbe alcuna conseguenza sul piano dell'osservazione. Si può dire quindi che il tempo ha avuto un inizio col big bang, nel senso che tempi anteriori non potrebbero
semplicemente essere definiti in alcun modo. E opportuno sottolineare che questo inizio nel tempo è molto diverso da quelli che erano stati presi in considerazione in precedenza. In un universo immutabile, un inizio nel tempo è qualcosa che dev'essere imposto da un qualche essere esterno all'universo, e non c'è alcuna necessità fisica di un inizio. Si può immaginare che Dio abbia creato l'universo letteralmente in un tempo qualsiasi in passato. D'altra parte, se l'universo è in espansione, potrebbero esserci ragioni fisiche per cui dovette esserci un inizio. Si potrebbe ancora immaginare che Dio creò l'universo nell'istante del big bang, o addirittura successivamente, in modo tale da dare l'apparenza che ci fosse stata una grande esplosione primigenia, mentre non avrebbe alcun senso supporre che l'universo sia stato creato prima del big bang. Un universo in espansione non preclude un creatore, ma pone dei limiti circa il tempo in cui egli potrebbe aver compiuto questo lavoro! Per poter parlare della natura dell'universo e discutere problemi come se ci sia stato un inizio o se ci sarà una fine, occorre avere ben chiaro che cosa sia una teoria scientifica. Io adotterò qui la concezione ingenua che una teoria sia solo un modello dell'universo, o di una sua parte limitata, e un insieme di regole che mettono in relazione le quantità presenti nel modello con le osservazioni che facciamo nella realtà. Il modello esiste solo nella nostra mente e non ha alcun'altra realtà (qualsiasi cosa questa affermazione possa significare). Una teoria, per essere una buona teoria scientifica, deve soddisfare due richieste: descrivere con precisione una grande classe di osservazioni sulla base di un modello contenente solo qualche elemento arbitrario, e fare predizioni ben definite sui risultati di future osservazioni. Per esempio, la teoria di Aristotele che ogni cosa fosse composta da quattro elementi — terra, acqua, aria e fuoco — era abbastanza semplice per poter essere presa in considerazione, ma non faceva alcuna predizione ben definita. D'altra parte la teoria della gravitazione di Newton si fondava su un modello ancora più semplice, in cui i corpi si attraevano l'un l'altro con una forza che era proporzionale a una quantità chiamata la loro massa e inversamente proporzionale al quadrato della distanza fra loro. Eppure questa teoria predice con un alto grado di precisione i moti del Sole, della Luna e dei pianeti.
Qualsiasi teoria fisica è sempre provvisoria, nel senso che è solo un'ipotesi: una teoria fisica non può cioè mai venire provata. Per quante volte i risultati di esperimenti siano stati in accordo con una teoria, non si può mai essere sicuri di non ottenere la prossima volta un risultato che la contraddica. D'altra parte si può confutare una teoria trovando anche una sola osservazione che sia in disaccordo con le sue predizioni. Come ha sottolineato il filosofo della scienza Karl Popper, una buona teoria fa un certo numero di predizioni suscettibili, in linea di principio, di essere confutate, o «falsificate», dall'osservazione. Ogni volta che nuovi esperimenti forniscono risultati in accordo con le predizioni, la teoria sopravvive e la nostra fiducia in essa aumenta; ma se troviamo una nuova osservazione che non si concilia con le predizioni, dobbiamo abbandonare o modificare la teoria. Questo, almeno, è quanto dovrebbe accadere, ma si può sempre mettere in discussione la competenza della persona che ha eseguito le osservazioni. In pratica, spesso accade che una nuova teoria sia in realtà solo un'estensione della teoria precedente. Per esempio, osservazioni molto precise del pianeta Mercurio rivelarono una piccola discrepanza fra il suo moto orbitale e le predizioni della teoria della gravitazione di Newton. La teoria generale della relatività di Einstein prediceva un moto leggermente diverso da quello predetto dalla teoria di Newton. Il fatto che le predizioni della teoria di Einstein fossero in accordo con le osservazioni, mentre quelle della teoria di Newton risultassero inesatte, fu una delle conferme cruciali della nuova teoria. Noi oggi continuiamo però a usare a fini pratici la teoria di Newton perché, nelle situazioni di cui ci occupiamo normalmente, la differenza fra le sue predizioni e quelle della relatività generale è trascurabile. (La teoria di Newton ha anche il grande vantaggio di richiedere calcoli molto meno complessi di quella di Einstein!) Il fine ultimo della scienza è quello di fornire una singola teoria in grado di descrivere l'intero universo. L'impostazione seguita in realtà dagli scienziati è invece quella di separare il problema in due parti. Da una parte ci sono le leggi che ci dicono in che modo l'universo cambia col tempo. (Se sappiamo che in ogni tempo l'universo è stato sempre uguale a com'è oggi, queste leggi fisiche ci dicono come sarà in qualsiasi altro tempo in futuro.) Dall'altra
c'è il problema dello stato iniziale dell'universo. Alcuni pensano che la scienza dovrebbe occuparsi solo della prima parte (quella delle leggi): essi considerano il problema dello stato iniziale un argomento da lasciare alla metafisica o alla religione. Secondo loro, Dio, essendo onnipotente, avrebbe potuto iniziare l'universo in qualsiasi modo a suo libito. E così potrebbe essere veramente, solo che in tal caso avrebbe potuto anche farlo sviluppare in un modo completamente arbitrario. Pare invece che egli abbia scelto di farlo evolvere in un modo molto regolare secondo certe leggi. Pare perciò altrettanto ragionevole supporre che anche lo stato iniziale debba essere governato da leggi. Risulta molto difficile escogitare una teoria in grado di descrivere l'intero funzionamento dell'universo. Abitualmente noi scomponiamo il problema in varie parti e inventiamo varie teorie parziali. Ognuna di queste teorie descrive e predice una certa classe limitata di osservazioni, trascurando gli effetti di altre quantità, o rappresentandole per mezzo di semplici insiemi di numeri. Può darsi che questa impostazione sia completamente sbagliata. Se ogni cosa nell'universo dipende in un modo fondamentale da ogni altra cosa, potrebbe essere impossibile approssimarsi a una soluzione completa investigando isolatamente le diverse parti del problema. Nondimeno, è certamente questo il modo in cui abbiamo proceduto in passato. L'esempio classico è, anche in questo caso, la teoria newtoniana della gravità, la quale ci dice che la forza gravitazionale che si esercita fra due corpi dipende solo da un numero associato a ciascun corpo, la sua massa, mentre è per altro verso indipendente dalla composizione del corpo. Non c'è quindi bisogno di possedere una teoria della struttura e della composizione del Sole e dei pianeti per poterne calcolare le orbite. Oggi gli scienziati descrivono l'universo nei termini di due teorie fondamentali parziali: la teoria generale della relatività e la meccanica quantistica. Queste due teorie sono le grandi conquiste intellettuali della prima metà di questo secolo. La teoria generale della relatività descrive la forza di gravità e la struttura dell'universo su scale molto grandi, comprese da pochi chilometri a milioni di miliardi di miliardi (1 seguito da ventiquattro zeri) di chilometri, che sono le dimensioni dell'universo osservabile. La meccanica quantistica si occupa invece di fenomeni su scale estremamente
piccole, come un milionesimo di milionesimo di centimetro. E noto però che queste due teorie sono purtroppo in disaccordo fra loro, e non possono quindi essere entrambe corrette. Una delle maggiori imprese della fisica di oggi — che è anche il tema principale di questo libro — è la ricerca di una nuova teoria che le includa entrambe: una teoria quantistica della gravità. Noi non possediamo ancora una tale teoria, e può darsi che debba passare ancora molto tempo prima di pervenire ad essa, ma conosciamo già parecchie delle proprietà che essa deve avere. E vedremo, in altri capitoli, che sappiamo già molto sulle predizioni che una teoria quantistica della gravità deve fare. Ora, se crediamo che l'universo non sia arbitrario ma sia invece governato da leggi ben definite, dovremo infine combinare le teorie parziali in una teoria unificata completa in grado di descrivere ogni cosa nell'universo. Nella ricerca di una tale teoria unificata c'è però un paradosso fondamentale. Le idee sulle teorie scientifiche che abbiamo abbozzato sopra prendono l'avvio dall'assunto che noi siamo esseri razionali liberi di osservare l'universo come più ci aggrada e di trarre deduzioni logiche da ciò che vediamo. In un tale schema è ragionevole supporre che noi potremmo progredire sino ad approssimarci sempre più alle leggi che governano il nostro universo. Ma, se esistesse in realtà una teoria unificata completa, essa dovrebbe presumibilmente determinare anche le nostre azioni. In tal modo sarebbe la teoria stessa a determinare l'esito della nostra ricerca di una tale teoria! E per quale motivo essa dovrebbe stabilire che, a partire dai materiali d'osservazione, noi dobbiamo pervenire alle, conclusioni giuste? Non potrebbe essa predire altrettanto bene che noi dovremmo trarre la conclusione sbagliata? O nessuna conclusione? L'unica risposta che io mi sento di dare a queste domande si fonda sul principio darwiniano della selezione naturale. L'idea è che, in ogni popolazione di organismi che si autoriproducono, ci saranno variazioni nel materiale genetico e nell'educazione dei diversi individui. In conseguenza di tali differenze alcuni individui saranno migliori di altri nel trarre le conclusioni giuste sul mondo che li circonda e nell'agire di conseguenza. Questi individui avranno maggiori probabilità di sopravvivere e di riprodursi, cosicché il loro modello di comportamento e di pensiero verrà a dominare. E
stato certamente vero in passato che l'intelligenza e la scoperta scientifica hanno fornito un vantaggio ai fini della sopravvivenza. Non è altrettanto chiaro che oggi sia ancora così: le nostre scoperte scientifiche potrebbero benissimo distruggere l'intero genere umano, e quand'anche così non fosse, una teoria unificata completa potrebbe non fare molta differenza per le nostre possibilità di sopravvivere. Nondimeno, purché l'universo si fosse evoluto in un modo regolare, potremmo attenderci che le capacità di ragionamento largiteci dalla selezione naturale conservassero la loro validità anche nella nostra ricerca di una teoria unificata completa, e non ci conducessero quindi a conclusioni sbagliate. Poiché le teorie parziali che possediamo ci consentono di fare predizioni precise, eccezion fatta solo per le situazioni più estreme, la ricerca della teoria ultima dell'universo sembra difficile da giustificare sul piano pratico. (Val però la pena di notare che argomentazioni simili avrebbero potuto essere usate tanto contro la teoria della relatività, quanto contro la meccanica quantistica: eppure queste teorie ci hanno dato sia l'energia nucleare sia la rivoluzione della microelettronica!) La scoperta di una teoria unificata completa, perciò, potrebbe non contribuire alla sopravvivenza della nostra specie. Essa potrebbe addirittura non incidere sul nostro stile di vita. Fin dall'alba della civiltà, però, l'uomo non si è mai accontentato di vedere gli eventi come non connessi fra loro e inesplicabili, ma si è sempre sforzato di pervenire a una comprensione dell'ordine che sta dietro le cose e gli eventi. Oggi noi desideriamo ancora sapere perché siamo qui e da dove veniamo. Il profondissimo desiderio di conoscenza dell'uomo è una giustificazione sufficiente per il persistere della nostra ricerca. E il nostro obiettivo non è niente di meno di una descrizione completa dell'universo in cui viviamo.
2 SPAZIO E TEMPO
Le nostre idee attuali sul moto dei corpi risalgono a Galileo e a Newton. Prima di allora la gente credeva in Aristotele, il quale aveva detto che lo stato naturale di un corpo era la quiete e che un corpo si muoveva solo in conseguenza di una forza o di una trazione. Ne seguiva che un corpo pesante (grave) doveva cadere più velocemente di un corpo leggero, essendo oggetto di una trazione più forte verso la Terra. La tradizione aristotelica riteneva anche che fosse possibile determinare tutte le leggi che governano l'universo per mezzo del puro pensiero: non era necessaria la loro verifica per mezzo dell'osservazione. Perciò nessuno, fino a Galileo, si preoccupò di accertare se corpi di peso diverso cadessero effettivamente a velocità diverse. Si racconta che Galileo dimostrò l'erroneità della teoria di Aristotele lasciando cadere oggetti di vario peso dal campanile pendente di Pisa. Questa storia è quasi certamente falsa, ma Galileo fece qualcosa di equivalente: fece rotolare delle palle di peso diverso lungo un piano inclinato ben levigato. La situazione è simile a quella di corpi gravi che cadano verticalmente, ma in questo caso l'osservazione è più facile perché le velocità sono minori. Le misurazioni di Galileo indicarono che ogni corpo aumentava la sua velocità nella stessa misura, qualunque fosse il suo peso. Per esempio, se si lascia discendere una palla su un piano inclinato che abbia una pendenza del 10 per cento, la palla si muoverà lungo il pendio alla velocità di un metro al secondo circa dopo un secondo, di due metri al secondo ogni due secondi e così via, per quanto pesante essa possa essere. E ovvio che un oggetto di piombo cadrebbe più velocemente di una piuma,
ma solo per il fatto che una piuma è rallentata dalla resistenza dell'aria. Se si lasciano cadere due corpi che non trovino molta resistenza nell'aria, come due oggetti di piombo di peso diverso, essi cadranno con la stessa velocità. Le misurazioni di Galileo furono usate da Newton come base delle proprie leggi del moto. Negli esperimenti di Galileo, quando un corpo rotolava lungo il piano inclinato, la forza che agiva su di esso era sempre la stessa (il suo peso), e l'effetto era un'accelerazione costante del moto. Ciò dimostrava che l'effetto reale di una forza è sempre quello di modificare la velocità di un corpo, e non di causarne semplicemente il movimento, come si pensava in precedenza. Ciò significava anche che, quando su un corpo non agisce alcuna forza, esso persiste nel suo movimento in linea retta con velocità uniforme. Quest'idea fu formulata per la prima volta esplicitamente da Newton nei Principia mathematica (1687) ed è nota come la prima legge di Newton. Quel che accade a un corpo quando una forza agisce su di esso è espresso nella seconda legge di Newton. Questa afferma che il corpo accelera, ossia modifica la sua velocità, in modo proporzionale alla forza. (Per esempio, nel caso che la forza applicata sia doppia anche l'accelerazione è doppia.) L'accelerazione è inoltre tanto minore quanto maggiore è la massa (o quantità di materia) del corpo. (La stessa forza, agendo su un corpo di massa doppia, produrrà un'accelerazione pari alla metà dell'accelerazione precedente.) Un esempio familiare ci viene fornito da un'automobile: quanto più il motore è potente, tanto maggiore è l'accelerazione, ma quanto più pesante è la macchina tanto minore è l'accelerazione per lo stesso motore. Oltre alle sue leggi del moto, Newton trovò anche una legge per descrivere la forza di gravità: questa legge dice che ogni corpo attrae ogni altro corpo con una forza che è proporzionale alla massa di ciascun corpo. Così la forza che si esercita fra due corpi si raddoppierebbe nel caso che si raddoppiasse la massa di uno dei corpi (per esempio A). Questa conclusione è del resto facilmente prevedibile; è infatti sufficiente pensare il nuovo corpo A come composto da due corpi ognuno dei quali avente una massa uguale a quella originaria. Ciascuno di questi due nuovi corpi attrarrebbe il corpo B con la forza originaria. Così la forza totale fra A e B sarebbe il doppio della forza originaria. E se, diciamo, uno dei due corpi avesse massa doppia, e l'altro
massa tripla, rispetto alle masse originarie, la forza sarebbe sei volte maggiore. Si può quindi vedere perché tutti i corpi cadano con la stessa velocità: un corpo di peso doppio sarà attratto con una forza doppia, ma avrà anche una massa doppia. Secondo la legge di Newton, questi due effetti si cancellano reciprocamente, cosicché l'accelerazione sarà la stessa in tutti i casi. La legge di gravità di Newton ci dice anche che la forza di attrazione sarà tanto minore quanto più i corpi saranno lontani fra loro. Essa dice, precisamente, che l'attrazione gravitazionale esercitata da una stella è esattamente quattro volte maggiore di quella di una stella simile che si trovi a una distanza doppia da noi. Questa legge ci consente di predire con grande precisione le orbite della Terra, della Luna e dei pianeti. Se l'attrazione gravitazionale di una stella diminuisse in proporzione diretta all'aumentare della sua distanza (anziché al quadrato della distanza), le orbite dei pianeti non sarebbero ellittiche, ma essi cadrebbero con un movimento a spirale nel Sole. Se la sua diminuzione fosse più lenta, le forze gravitazionali delle stelle lontane dominerebbero su quella terrestre. La grande differenza fra le idee di Aristotele da una parte e quelle di Galileo e di Newton dall'altra è che Aristotele credeva in uno stato privilegiato di quiete, stato in cui ogni corpo si troverebbe se non fosse spinto da una qualche forza o impulso. In particolare, Aristotele pensava che la Terra fosse in quiete. Dalle leggi di Newton segue però che non esiste un sistema di riferimento privilegiato per la quiete. Si potrebbe infatti dire altrettanto bene che il corpo A è in quiete e il corpo B in movimento con velocità costante rispetto al corpo A, o che in movimento è il corpo A e in quiete il corpo B. Per esempio, se ignoriamo per un momento la rotazione della Terra e il suo movimento di rivoluzione attorno al Sole, potremmo dire che la Terra è in quiete e che un treno sta viaggiando su di essa verso nord alla velocità di 150 chilometri all'ora o che il treno è in quiete e che è la Terra a muoversi verso sud alla velocità di 150 chilometri all'ora. Se si facessero degli esperimenti con degli oggetti in movimento sul treno, tutte le leggi di Newton conserverebbero la loro validità. Per esempio, giocando a ping-pong sul treno, troveremmo che la pallina continuerebbe a obbedire alle leggi di Newton, esattamente come su un tavolino accanto al binario. Non esiste
quindi alcun modo per dire se a muoversi sia il treno o la Terra. La mancanza di un sistema di riferimento assoluto per la quiete comporta l'impossibilità di stabilire se due eventi che ebbero luogo in tempi diversi si verificarono o no nella stessa posizione nello spazio. Per esempio supponiamo che la nostra pallina da ping-pong sul treno rimbalzi colpendo due volte il tavolo sullo stesso punto a un secondo di distanza. Per un osservatore che si trovasse sul binario, i due punti in cui la pallina tocca il tavolo sembrerebbero a quaranta metri di distanza l'uno dall'altro, perché fra un rimbalzo e l'altro della pallina il treno avrebbe percorso quella distanza sul binario. L'inesistenza della quiete assoluta significa perciò che, diversamente da quanto pensava Aristotele, non si potrebbe indicare la posizione assoluta di un evento nello spazio. Le posizioni di eventi e la distanza fra loro sarebbero diverse per una persona che si trovasse sul treno e per un osservatore sul binario, e non ci sarebbe alcuna ragione per preferire'le posizioni di una persona a quelle dell'altra. Newton si preoccupò molto per questa mancanza di una posizione assoluta, o di uno spazio assoluto, come veniva chiamato, perché essa non si accordava con la sua idea di un Dio assoluto. In realtà egli accettò l'esistenza di uno spazio assoluto, anche se distinse da esso uno spazio relativo, concepito come dimensione mobile o misura dello spazio assoluto. Egli fu aspramente criticato per questa sua convinzione irrazionale da molte persone, e in particolare dal vescovo Berkeley, il famoso filosofo idealista, il quale credeva che tutti gli oggetti materiali e lo spazio e il tempo fossero un'illusione. Quando al famoso filosofo dottor Johnson fu riferita l'opinione di Berkeley, esclamò: «Io la confuto così!», e colpì con una pedata una grossa pietra. Tanto Aristotele quanto Newton credettero nel tempo assoluto. Essi credettero cioè che si potesse misurare con precisione l'intervallo di tempo fra due eventi, e che questo tempo sarebbe stato lo stesso chiunque lo avesse misurato, purché si fosse usato un buon orologio. Il tempo era completamente separato dallo spazio e da esso indipendente. Questa era la concezione del tempo che chiunque avrebbe ritenuto ovvia. Le idee sullo spazio e sul tempo erano però destinate a mutare in modo radicale. Benché le nozioni del senso comune funzionino perfettamente quando ci si deve
occupare di cose come mele o pianeti, che si muovono con relativa lentezza, non funzionano affatto per cose che si muovano alla velocità della luce o a una velocità prossima ad essa. Il fatto che la luce si propaghi a una velocità finita, anche se grandissima, fu scoperto per la prima volta nel 1675 dall'astronomo danese Ole Christensen Römer. Egli notò che le epoche di eclisse dei satelliti di Giove erano diverse da quelle che ci si doveva attendere nell'ipotesi che essi orbitassero attorno a Giove a velocità costanti. Poiché tanto la Terra quanto Giove orbitano attorno al Sole, la distanza fra loro presenta variazioni enormi. Römer osservò che i ritardi con cui si osservavano le eclissi dei satelliti di Giove erano connessi al variare della distanza di Giove dalla Terra. Egli sostenne che tali ritardi erano dovuti al tempo maggiore impiegato dalla luce proveniente dal sistema di Giove per pervenire fino a noi quando la Terra e Giove si trovano alla loro distanza massima (quando Giove è in prossimità della congiunzione col Sole) che non quando Giove si trova in opposizione al Sole o a distanze intermedie. Le misurazioni a opera di Römer della distanza Terra-Giove non furono però molto precise, e il valore da lui ottenuto per la velocità della luce fu di circa 225.000 chilometri al secondo, in luogo del valore moderno di circa 300.000 chilometri al secondo. Il risultato conseguito da Römer, non solo nel dimostrare che la luce si propaga a una velocità finita, ma anche nel misurare tale velocità, fu nondimeno considerevole, venendo ben undici anni prima della pubblicazione dei Principia mathematica di Newton. Una teoria adeguata della propagazione della luce non si ebbe fino al 1865, quando il fisico britannico James Clerk Maxwell riuscì a unificare le teorie parziali che erano state usate fino allora per descrivere le forze dell'elettricità e del magnetismo. Le equazioni di Maxwell predicevano che nel campo elettromagnetico combinato potevano verificarsi perturbazioni simili a onde e che queste perturbazioni si sarebbero propagate a una velocità fissa, come onde provocate sulla superficie di uno stagno gettandovi un sasso. Se la lunghezza d'onda (la distanza fra una cresta dell'onda e la successiva) è di un metro o più, si hanno quelle che oggi chiamiamo onde radio. Le onde di lunghezza minore sono note come microonde (nel caso di onde della lunghezza di qualche centimetro) o raggi
infrarossi (di più di un decimillesimo di centimetro). La luce visibile ha una lunghezza d'onda compresa fra quaranta e ottanta milionesimi di centimetro. Le onde di lunghezza ancora minore sono note come ultravioletto, raggi X e raggi gamma. La teoria di Maxwell prediceva che le onde radio o le onde luminose debbano propagarsi a una certa velocità fissa. Ma la teoria di Newton aveva rifiutato l'idea di una quiete assoluta, cosicché, se la luce doveva viaggiare a una velocità fissa, si sarebbe dovuto dire relativamente a che cosa si doveva misurare tale velocità fissa. Fu perciò formulata l'ipotesi che esistesse una sostanza chiamata «etere», la quale sarebbe stata presente dappertutto, persino nello spazio «vuoto». Le onde luminose dovevano propagarsi attraverso l'etere nello stesso modo in cui le onde sonore si propagano attraverso l'aria, e la loro velocità doveva perciò essere relativa all'etere. Diversi osservatori, muovendosi relativamente all'etere, vedrebbero la luce venir loro incontro a velocità diverse, ma la velocità della luce relativamente all'etere resterebbe fissa. In particolare, muovendosi la Terra attraverso l'etere nella sua rivoluzione annua attorno al Sole, la velocità della luce misurata nella direzione del moto della Terra attraverso l'etere (quando il movimento fosse stato verso la sorgente di luce) avrebbe dovuto essere maggiore della velocità della luce in direzione ortogonale rispetto a tale moto (quando il movimento non fosse stato verso la sorgente di luce). Nel 1887 Albert Michelson (che sarebbe stato in seguito il primo americano a ricevere un Premio Nobel per la fisica) ed Edward Morley eseguirono un esperimento molto accurato alla Case School of Applied Science di Cleveland. Essi confrontarono la velocità della luce nella direzione del moto della Terra con quella ad angoli retti rispetto a tale moto. Con loro grande sorpresa, trovarono che la velocità nelle due direzioni era esattamente la stessa! Fra il 1887 e il 1905 ci furono vari tentativi, fra cui particolarmente notevole quello del fisico olandese Hendrick Lorentz, di spiegare il risultato dell'esperimento di Michelson e Morley nei termini di oggetti che si contraevano e di orologi che rallentavano mentre si muovevano attraverso l'etere. In un articolo famoso, pubblicato nel 1905, un giovane fisico fino allora sconosciuto che lavorava come impiegato all'Ufficio Brevetti svizzero,
Albert Einstein, sottolineò che l'intera idea di un etere era inutile, purché si fosse stati disposti ad abbandonare l'idea del tempo assoluto. Un'osservazione simile fu fatta qualche settimana dopo da un autorevole matematico francese, Henri Poincaré. Gli argomenti di Einstein erano più vicini alla fisica di quelli di Poincaré, che considerò questo problema esclusivamente da un punto di vista matematico. Il merito per la nuova teoria viene di solito riconosciuto a Einstein, ma il contributo di Poincaré viene ricordato associando il suo nome a una parte importante della teoria stessa. Il postulato fondamentale della teoria della relatività, come fu chiamata, era che le leggi della scienza dovrebbero valere nello stesso modo per tutti gli osservatori liberamente in movimento, quale che fosse la loro velocità. Questo valeva per le leggi del moto di Newton, ma ora l'idea fu estesa a includere la teoria di Maxwell e la velocità della luce: tutti gli osservatori dovevano misurare la stessa velocità della luce, per quanto elevata fosse la loro velocità. Questa semplice idea ha alcune conseguenze notevoli. Quelle forse più note sono l'equivalenza di massa ed energia, compendiata nella famosa equazione di Einstein E = me2 (dove E è l'energia, m la massa e c la velocità della luce), e la legge che nulla può muoversi a una velocità superiore a quella della luce. A causa dell'equivalenza di energia e massa, l'energia che un oggetto ha in conseguenza del suo movimento andrà a sommarsi alla sua massa. Questo fatto renderà più difficile aumentarne la velocità. Questo effetto diventa peraltro realmente significativo solo per oggetti che si muovano a velocità prossime a quella della luce. Per esempio, a una velocità pari al 10 per cento della velocità della luce la massa di un oggetto aumenta solo dello 0,5 per cento, mentre al 90 per cento della velocità della luce essa aumenta a più del 200 per cento. All'approssimarsi di un oggetto alla velocità della luce, la sua massa aumenta sempre più rapidamente, cosicché per accrescere la sua velocità si richiederà una quantità di energia sempre maggiore. Nessun oggetto potrà mai in effetti essere accelerato sino alla velocità della luce perché a quella velocità la sua massa diventerebbe infinita e quindi, per l'equivalenza fra massa ed energia, per fargli raggiungere tale velocità si richiederebbe una quantità di energia infinita. Per questa ragione un qualsiasi oggetto normale è confinato per
sempre dalla relatività a muoversi a velocità inferiori alla velocità della luce. Soltanto la luce, o altre onde che non posseggano una massa intrinseca, possono muoversi a tale velocità limite. Una conseguenza non meno notevole della relatività risiede nel modo in cui essa ha rivoluzionato le nostre idee di spazio e tempo. Nella teoria di Newton, se un impulso di luce viene trasmesso da un luogo a un altro, diversi osservatori sarebbero d'accordo sul tempo impiegato dalla luce a spostarsi da un punto all'altro (poiché il tempo è assoluto), ma non sempre sarebbero d'accordo sulla distanza percorsa dalla luce (nell'ipotesi che venisse usato lo spazio relativo). Poiché la velocità della luce è esattamente il quoziente della distanza percorsa divisa per il tempo impiegato a percorrerla, osservatori diversi misurerebbero per la luce velocità diverse. Nella relatività, invece, tutti gli osservatori devono essere d'accordo sulla velocità di propagazione della luce. Anche nella relatività, però, gli osservatori non sono d'accordo sulla distanza percorsa dalla luce, cosicché ora devono essere in disaccordo anche sul tempo impiegato. (Il tempo impiegato è, dopo tutto, solo il prodotto della velocità della luce — su cui tutti gli osservatori sono d'accordo — moltiplicata per la distanza percorsa dalla luce — ed è qui che l'accordo viene meno.) In altri termini, la teoria della relatività mise fine all'idea del tempo assoluto! Appariva chiaro che ogni osservatore doveva avere la sua propria misura del tempo, qual era registrato da un orologio che ciascuno di loro portava con sé, e che orologi identici trasportati dai vari osservatori non avrebbero necessariamente concordato. Ogni osservatore potrebbe usare un radar per dire dove e quando un evento ebbe luogo. Una parte degli impulsi di luce o di onde radio emessi dal radar, pervenuti sul luogo dell'evento, viene riflessa all'indietro e l'osservatore misura il tempo in cui riceve l'eco. Si dice allora che il tempo dell'evento è l'istante di mezzo dell'intervallo di tempo intercorso fra l'emissione degli impulsi e la ricezione del segnale riflesso: la distanza dell'evento è data dalla metà del tempo impiegato in questo viaggio di andata e ritorno moltiplicata per la velocità della luce. (Un evento, in questo senso, è qualcosa che ha luogo in un singolo punto nello spazio, in un punto specificato nel tempo.) Quest'idea è illustrata nella figura 2.1, in cui si fornisce un esempio di un
diagramma dello spazio-tempo. Usando questo procedimento, osservatori in movimento l'uno relativamente all'altro assegneranno a uno stesso evento tempi e posizioni diversi. Nessuna misurazione di un particolare osservatore può considerarsi più corretta di quelle di un qualsiasi altro osservatore, ma tutte le misurazioni hanno una relazione fra loro. Qualsiasi osservatore potrebbe calcolare esattamente quale tempo e quale posizione qualsiasi altro osservatore assegnerebbe a un evento, purché conoscesse la velocità relativa dell'altro osservatore. Oggi noi usiamo proprio questo metodo per misurare esattamente le distanze, essendo noi in grado di misurare con maggiore precisione il tempo che non la lunghezza. In effetti, il metro è definito come la distanza percorsa dalla luce in 0,000000003335640952 secondi, misurati da un orologio al cesio. (La ragione di questo numero particolare è che esso corrisponde alla definizione storica del metro, qual è precisata da due intagli su un particolare regolo di platino-iridio conservato a Parigi.) Oggi possiamo usare anche una nuova unità di misura più comoda, detta il secondo-luce. Questa è definita semplicemente come la distanza percorsa
dalla luce in un secondo. Nella teoria della relatività, noi definiamo ora la distanza nei termini del tempo e della velocità della luce, cosicché ne segue automaticamente che la luce avrà la stessa velocità per ogni osservatore (per definizione, di 1 metro ogni 0,000000003335640952 secondi). Non c'è alcun bisogno di introdurre l'idea dell'etere, la cui esistenza non può in alcun caso essere rivelata, come dimostrò l'esperimento di Michelson e Morley. La teoria della relatività ci costringe però a modificare radicalmente le nostre idee dello spazio e del tempo. Noi dobbiamo accettare l'idea che il tempo non sia separato completamente dallo spazio e da esso indipendente, ma che sia combinato con esso a formare un'entità chiamata spazio-tempo. E un fatto di comune esperienza che si può descrivere la posizione di un punto nello spazio per mezzo di tre numeri, o coordinate. Per esempio, si può dire che un punto in una stanza si trova a due metri da una parete, a un metro dall'altra e a un metro e mezzo dal pavimento. Oppure si potrebbe specificare che un punto si trova a una certa latitudine e longitudine e a una certa altezza al di sopra del livello del mare. Si possono usare tre coordinate idonee qualsiasi, anche se esse hanno solo un ambito di validità limitato. Non sarebbe certo opportuno specificare la posizione della Luna in chilometri a nord e a ovest del Colosseo e in centimetri sopra il livello del mare. La si potrebbe invece descrivere nei termini di distanza dal Sole, di distanza dal piano delle orbite dei pianeti e dell'angolo formato dalla linea che congiunge la Luna al Sole con la linea che congiunge il Sole a una stella vicina, come Alpha Centauri. Persino queste coordinate non sarebbero di grande utilità per descrivere la posizione del Sole nella nostra galassia, o la posizione della nostra galassia nel cosiddetto Gruppo locale di galassie. Di fatto, si potrebbe descrivere l'intero universo nei termini di una serie di chiazze sovrapponentisi. In ogni chiazza si potrebbe usare un diverso insieme di tre coordinate per specificare la posizione di un punto. Un evento è qualcosa che accade in un particolare punto nello spazio e in un particolare tempo. E perciò possibile specificarlo per mezzo di quattro numeri o coordinate. Di nuovo, la scelta delle coordinate è arbitraria: si possono usare ogni volta un insieme qualsiasi di tre coordinate spaziali ben definite e una qualsiasi misura di tempo. Nella relatività non c'è alcuna distinzione reale fra le coordinate spaziali e la coordinata temporale, così
come non c'è alcuna reale differenza fra due coordinate spaziali quali si vogliano. Si potrebbe scegliere un nuovo insieme di coordinate in cui, diciamo, la prima coordinata spaziale fosse una combinazione delle vecchie prima e seconda coordinata spaziale. Per esempio, invece di misurare la posizione di un punto sulla Terra in chilometri a nord del Colosseo e in chilometri a ovest del Colosseo, si potrebbero usare chilometri a nordest del Colosseo e chilometri a nordovest del Colosseo. Similmente, nella teoria della relatività, si potrebbe usare una nuova coordinata temporale che fosse il vecchio tempo (in secondi) più la distanza (in secondi-luce) a nord del Colosseo. E spesso utile pensare le quattro coordinate di un evento come se ne specificassero la posizione in uno spazio quadridimensionale chiamato spazio-tempo. È però impossibile immaginare uno spazio quadridimensionale. Io, personalmente, trovo difficile persino visualizzare lo spazio tridimensionale! E invece facile disegnare diagrammi di spazi bidimensionali, come la superficie della Terra. (La superficie della Terra è bidimensionale perché la posizione di un punto su di essa può essere specificata per mezzo di due coordinate, latitudine e longitudine.) In generale userò diagrammi in cui il tempo cresce verso l'alto e una delle dimensioni spaziali è rappresentata da un asse orizzontale. Le altre due dimensioni spaziali vengono ignorate oppure, qualche volta, una di esse è indicata in prospettiva. (Questi diagrammi sono chiamati diagrammi spazio-temporali, come quello nella figura 2.1.) Nella figura 2.2, per esempio,
Il tempo viene misurato verso l'alto in anni e la distanza lungo la linea che congiunge il Sole con Alpha Centauri è misurata orizzontalmente in chilometri. Le traiettorie percorse dal Sole e da Alpha Centauri nello spazio-tempo sono illustrate dalle linee verticali a sinistra e a destra del diagramma. Un raggio di luce proveniente dal Sole segue la linea diagonale e impiega quattro anni per andare dal Sole ad Alpha Centauri. Come abbiamo visto, le equazioni di Maxwell predicevano che la velocità della luce doveva essere la stessa quale che fosse la velocità della sorgente, fatto che è stato confermato da precise misurazioni. Ne segue che, se un impulso di luce viene emesso in un tempo particolare in un particolare punto nello spazio, esso si propagherà poi verso l'esterno nella forma di una sfera di luce le cui dimensioni e posizione sono indipendenti dalla velocità della sorgente. Dopo un milionesimo di secondo la luce si sarà propagata a formare una sfera di 300 metri di raggio; dopo due milionesimi di secondo il raggio sarà cresciuto a 600 metri, e via dicendo. Si avrà un fenomeno simile a quello delle onde che si generano sulla superficie di uno stagno dopo che vi si sia gettato un sasso. Le onde si propagano sotto forma di cerchi che diventano sempre più grandi col passare del tempo. Se si pensa a un modello tridimensionale formato dalla superficie bidimensionale dello stagno e dalla dimensione unica del tempo, il cerchio in espansione formato dalle onde delimiterà un cono il cui vertice si trova nel punto dello spazio e del tempo in cui la pietra colpì l'acqua (fig. 2.3). Similmente, la luce che si diffonde da un evento verso l'esterno forma un cono tridimensionale nello spazio-tempo quadridimensionale. Questo cono è chiamato il cono di luce del futuro dell'evento. Nello stesso modo possiamo disegnare un altro cono, chiamato il cono di luce del passato, che è l'insieme di eventi da cui un impulso di luce può raggiungere l'evento dato (fig. 2.4).
I coni di luce del passato e del futuro di un evento P dividono lo spazio-tempo in tre regioni (fig. 2.5). Il futuro assoluto dell'evento è la regione all'interno del cono di luce del futuro di P. Esso è l'insieme di tutti gli eventi che potranno risentire di ciò che accade in P. Gli eventi esterni al cono di luce di P non possono essere raggiunti da segnali provenienti da P poiché nulla può viaggiare a una velocità superiore a quella della luce. Essi non possono perciò essere influenzati da ciò che accade in P. Il passato assoluto di P è la regione all'interno del cono di luce del passato. Esso è l'insieme di tutti gli eventi da cui possono giungere in P segnali che si propaghino alla velocità della luce o a una velocità inferiore. E perciò l'insieme di tutti gli eventi che possono influire su ciò che accade in P. Se si sa che cosa stia accadendo in un qualche tempo particolare nella regione dello spazio che si trova all'interno del cono di luce del passato di P si può predire che cosa accadrà in P. L'altrove è la regione dello spazio-tempo che non si trova nei coni di luce del futuro o del passato di P. Gli eventi che si verificano neh'altrove non possono influire sugli eventi in P, né possono risentirne l'influenza. Per esempio, se il Sole dovesse cessare di emettere luce in questo istante, esso non eserciterebbe alcuna influenza sulle cose sulla Terra nel tempo presente perché esse si troverebbero nell'altrove dell'evento nel momento in cui il Sole si spegne (fig. 2.6). Noi saremmo informati di questo fenomeno solo otto minuti dopo, il tempo che la luce impiega a percorrere la distanza Sole-Terra. Soltanto allora gli eventi sulla Terra rientreranno nel cono di luce del futuro dell'evento in cui il Sole si spense. Similmente, noi non sappiamo che cosa stia accadendo adesso in regioni dell'universo più lontane: la luce delle galassie remote che osserviamo oggi cominciò il suo viaggio milioni di anni fa. Perciò, quando noi osserviamo l'universo, lo vediamo non com'è oggi bensì com'era in un passato più o meno lontano. Se si trascurano gli effetti gravitazionali, come fecero nel 1905 Einstein e Poincaré, si ha la cosiddetta teoria speciale o ristretta della relatività. Per ogni evento nello spaziotempo possiamo costruire un cono di luce (l'insieme di tutte le traiettorie possibili nello spazio-tempo della luce emessa in quell'evento) e poiché la velocità della luce è la stessa in ogni evento e in ogni direzione, tutti i coni di luce saranno identici e saranno puntati tutti
nella stessa direzione. La teoria ci dice anche che niente può viaggiare a una velocità maggiore di quella della luce. Ciò significa che la traiettoria di un qualsiasi oggetto attraverso lo spazio e il tempo dev'essere rappresentata da una linea che si trova all'interno del cono di luce in ogni evento che lo riguardi (fig. 2.7).
La teoria speciale della relatività ebbe un grande successo nello spiegare che la velocità della luce appare la stessa a tutti gli osservatori (come aveva mostrato l'esperimento di Michelson e Morley) e nel descrivere che cosa accada quando le cose si muovono a velocità prossime a quella della luce. Essa era però in disaccordo con la teoria newtoniana della gravità, la quale diceva che gli oggetti si attraggono fra loro con una forza la cui grandezza dipende dalla distanza fra loro. Ciò significava che, se si spostava uno degli oggetti, la forza che si esercitava sull'altro mutava istantaneamente. O, in altri termini, che gli effetti gravitazionali dovevano propagarsi con una velocità infinita, anziché con la velocità della luce o con una velocità inferiore, come richiedeva la teoria della relatività speciale. Fra il 1908 e il 1914 Einstein fece vari tentativi, che non furono però coronati dal successo,
per trovare una teoria della gravità che fosse in accordo con la relatività speciale. Infine, nel 1915, propose quella che è nota oggi come teoria generale della relatività. Einstein fece il suggerimento rivoluzionario che la gravità non sia una forza come le altre, bensì una conseguenza del fatto che lo spazio-tempo non è piatto, come si era supposto in precedenza, bensì incurvato, o «distorto», dalla distribuzione della massa e dell'energia in esso presenti. I corpi come la Terra non sono fatti per muoversi su orbite incurvate da una forza chiamata gravità; essi seguono invece la cosa più vicina che esista a una traiettoria rettilinea in uno spazio curvo, ossia una geodetica. Una geodetica è la traiettoria più breve (o più lunga) fra due punti vicini. Per esempio, la superficie della Terra è uno spazio curvo bidimensionale. Una geodetica sulla Terra è chiamata un cerchio massimo, ed è la via più breve che esista fra due punti (fig. 2.8). Poiché la geodetica è la traiettoria più breve fra
due aeroporti, essa è la linea che l'ufficiale di rotta di una linea aerea dirà al pilota di seguire. Nella relatività generale, i corpi seguono sempre linee rette nello spazio-tempo quadridimensionale, ma nel nostro spazio tridimensionale ci appaiono sempre muoversi lungo traiettorie curve. (E un po' come osservare un aereo che voli al di sopra di una regione montuosa.
Benché esso segua una linea retta nello spazio tridimensionale, sul suolo bidimensionale la sua ombra segue una traiettoria incurvata.) La massa del Sole incurva lo spazio-tempo in modo tale che, benché la Terra segua una traiettoria rettilinea nello spazio quadridimensionale, nello spazio tridimensionale essa ci appare muoversi in un'orbita circolare. In realtà le orbite dei pianeti predette dalla relatività generale sono quasi esattamente identiche a quelle predette dalla teoria newtoniana della gravitazione. Nel caso di Mercurio, però, che essendo il pianeta più vicino al Sole sperimenta gli effetti gravitazionali più forti, e che ha un'orbita alquanto allungata, la relatività generale predice che l'asse maggiore dell'ellisse dovrebbe ruotare attorno al Sole spostandosi di un grado circa ogni diecimila anni. Per quanto piccolo sia questo effetto, esso era stato già osservato prima del 1915 e fornì una delle prime conferme della teoria di Einstein. In anni recenti gli scarti ancora più piccoli delle orbite degli altri pianeti rispetto alle traiettorie predette da Newton sono stati misurati col radar e trovati in accordo con le predizioni della relatività generale. Anche i raggi di luce devono seguire le geodetiche nello spazio-tempo. Di nuovo, il fatto che lo spazio sia incurvato ha come conseguenza che la luce non sembri propagarsi nello spazio in linea retta. Così la relatività generale predice che la traiettoria della luce dovrebbe essere incurvata dai campi gravitazionali. Per esempio, la teoria predice che i coni di luce di punti in prossimità del Sole dovrebbero essere leggermente incurvati verso l'interno, in conseguenza della massa del Sole. Ciò significa che i raggi di luce provenienti da una stella lontana che si trovassero a passare in prossimità del disco solare sarebbero deviati di un piccolo angolo e che in conseguenza di questa deflessione un osservatore sulla Terra vedrebbe la stella spostata in una posizione diversa (fig. 2.9). Ovviamente, se la luce proveniente dalla stella passasse sempre in prossimità del Sole, noi non saremmo in grado di dire se la sua luce sia veramente deviata, o se invece la stella si trovi realmente dove la vediamo. Mentre la Terra compie le sue rivoluzioni attorno al Sole, però, varie stelle vengono occultate dal Sole e la loro luce, nell'istante in cui sfiora il bordo del disco solare prima o dopo l'occultamento, subisce una deflessione. Esse mutano perciò la loro posizione apparente relativamente ad altre stelle.
Di solito è molto difficile osservare questo effetto, perché la luce proveniente dal Sole rende impossibile la visione di stelle che vengono a trovarsi in cielo in prossimità del disco solare. La situazione muta però radicalmente durante un'eclisse di Sole, quando il disco del Sole viene coperto dalla Luna e la luce solare non illumina più l'atmosfera terrestre. La predizione fatta da Einstein della deflessione della luce delle stelle non potè essere verificata immediatamente nel 1915, perché era allora in corso la prima guerra mondiale; nel 1919, però, una spedizione britannica recatasi nell'Africa occidentale per osservare un'eclisse, confermò che la luce delle stelle veniva effettivamente deflessa dal Sole nel modo predetto dalla teoria. Questa conferma di una teoria tedesca da parte di scienziati britannici fu salutata come un grande atto di riconciliazione fra i due paesi dopo la guerra. E perciò un'ironia della storia che un posteriore esame delle fotografie eseguite nel corso di quella spedizione abbia dimostrato errori dello stesso ordine di grandezza dell'effetto che si cercava di misurare. La misurazione si era rivelata un caso di mera fortuna, ovvero era stata influenzata dal fatto di conoscere già il risultato che si voleva ottenere, un fenomeno non inconsueto nella scienza. La deflessione della luce è però stata confermata con precisione da varie osservazioni posteriori. Un'altra predizione della relatività generale è che in prossimità di un corpo di massa relativamente grande come la Terra il tempo dovrebbe scorrere più
lentamente. Causa di questo fenomeno è la relazione esistente fra l'energia della luce e la sua frequenza (ossia il numero delle onde di luce al secondo): quanto maggiore è l'energia tanto più grande è la frequenza. Propagandosi verso l'alto nel campo gravitazionale terrestre, la luce perde energia e quindi la sua frequenza diminuisce. (Ciò significa che aumenta l'intervallo di tempo fra una cresta d'onda e la successiva.) Chi si trovasse più in alto vedrebbe tutti i fenomeni sulla superficie terrestre impiegare più tempo per verificarsi. Questa predizione fu verificata nel 1962 usando un paio di orologi molto esatti collocati sulla cima e alla base di un serbatoio d'acqua sopraelevato. L'orologio alla base, che era più vicino alla superficie terrestre, risultò funzionare più lentamente, in preciso accordo con la relatività generale. La differenza nel funzionamento degli orologi ad altitudini diverse al di sopra della Terra ha oggi un'importanza pratica considerevole, con l'avvento di sistemi di navigazione molto esatti fondati su segnali emessi da satelliti. Se si ignorassero le predizioni della relatività generale, le posizioni calcolate in volo potrebbero essere sbagliate di vari chilometri. Le leggi del moto di Newton misero fine all'idea di una posizione assoluta nello spazio. La teoria della relatività si è liberata anche del tempo assoluto. Consideriamo un paio di gemelli. Supponiamo che un gemello vada a vivere sulla cima di una montagna, mentre l'altro rimane al livello del mare. Il primo gemello invecchierà più rapidamente del secondo, cosicché, quando essi torneranno a incontrarsi, uno dei due sarà più vecchio dell'altro. In questo caso la differenza di età sarebbe molto piccola. Si avrebbe invece una differenza di età molto maggiore — questa volta in conseguenza della dilatazione relativistica del tempo alle alte velocità — se uno dei due gemelli partisse per un lungo viaggio su un'astronave lanciata nello spazio interstellare a una velocità prossima a quella della luce. Al suo ritorno, l'astronauta sarebbe molto più giovane del suo gemello rimasto sulla Terra. Questo caso è noto come il paradosso dei gemelli, ma è un paradosso solo se in fondo alla propria mente non si riesce ad andare oltre l'idea di un tempo assoluto. Nella teoria della relatività non esiste un tempo unico assoluto, ma ogni individuo ha la sua propria misura personale del tempo, che dipende da dove si trova e da come si sta muovendo. Prima del 1915 si pensava allo spazio e al tempo come a una scena fissa in
cui avevano luogo degli eventi, ma che non risentiva di ciò che accadeva su di essa. Ciò valeva persino per la teoria speciale della relatività. I corpi si muovevano, le forze attraevano e respingevano, ma il tempo e lo spazio continuavano semplicemente la loro esistenza, senza che nulla potesse influire su di essi. Era naturale pensare che spazio e tempo sarebbero durati per sempre. La situazione è però del tutto diversa nella teoria generale della relatività. Qui spazio e tempo sono quantità dinamiche: quando si muove un corpo, o agisce una forza, essi incidono sulla curvatura dello spazio e del tempo: e a loro volta la struttura dello spazio-tempo influisce sul modo in cui i corpi si muovono e le forze agiscono. Spazio e tempo non solo influiscono su ciò che accade nell'universo, ma risentono a loro volta di tutto ciò che accade nell'universo. Come non si può parlare di eventi che accadono nell'universo senza far ricorso alle nozioni di spazio e di tempo, così nella relatività generale ha perso ogni significato parlare di spazio e tempo fuori dei limiti dell'universo. Nei decenni seguenti questa nuova comprensione dello spazio e del tempo avrebbe rivoluzionato la nostra concezione dell'universo. La vecchia idea di un universo essenzialmente immutabile che potrebbe esistere da sempre, e che potrebbe continuare a esistere per sempre, fu sostituita dalla nozione di un universo dinamico, in espansione, che sembrava avere avuto inizio in un tempo finito in passato, e che potrebbe durare per un tempo finito in futuro. Questa rivoluzione forma l'argomento del prossimo capitolo. E vari anni dopo avrebbe fornito il punto di avvio al lavoro di fisica teorica in cui Roger Penrose e io abbiamo mostrato che la teoria generale della relatività di Einstein implicava che l'universo deve avere avuto un inizio e che dovrà forse avere una fine.
3 L'UNIVERSO IN ESPANSIONE
Se si osserva il cielo in una notte limpida senza Luna, gli oggetti più luminosi che attraggono il nostro sguardo sono di solito i pianeti Venere, Marte, Giove e Saturno. Ci sarà anche un numero grandissimo di stelle, le quali sono corpi celesti simili al nostro Sole, ma molto più lontani. Alcune di queste stelle cosiddette «fisse» risultano mutare di pochissimo la loro posizione l'una relativamente all'altra mentre la Terra orbita attorno al Sole: esse non occupano quindi affatto una posizione fissa sulla sfera celeste! I loro spostamenti sono dovuti al fatto che esse sono relativamente vicine a noi. Nel corso della rivoluzione annua della Terra attorno al Sole, noi le vediamo da posizioni diverse di contro allo scenario di fondo costituito da stelle più lontane. Grazie a quest'opportunità, noi possiamo misurare direttamente la loro distanza da noi: quanto più queste stelle sono vicine a noi, tanto maggiore ci appare il loro spostamento (la loro parallasse). La stella più vicina, la Proxima Centauri, risulta trovarsi a circa quattro anni-luce di distanza (la sua luce impiega circa quattro anni a raggiungere la Terra), ossia a circa 38 milioni di milioni di chilometri. La maggior parte delle altre stelle visibili a occhio nudo si trovano entro qualche centinaio di anni-luce da noi. Il Sole, per confronto, si trova a soli otto minuti-luce di distanza! Le stelle visibili appaiono distribuite sull'intero cielo notturno, ma sono particolarmente concentrate in una banda che chiamiamo la Via Lattea. Già attorno alla metà del Settecento qualcuno (fra cui Thomas Wright, 1734) aveva formulato l'ipotesi che si potesse spiegare l'aspetto della Via Lattea
supponendo che la maggior parte delle stelle visibili si trovino in una singola configurazione in forma di disco, un esempio di quelle che noi oggi chiamiamo galassie spirali. Solo qualche decennio dopo, il famoso astronomo sir William Herschel confermò l'idea di Wright catalogando minuziosamente posizioni e distanze di un gran numero di stelle. Nonostante le sue fatiche, l'idea della forma discoidale della nostra galassia acquistò piena accettazione solo all'inizio del nostro secolo. La nostra immagine moderna dell'universo risale solo al 1924, quando l'astronomo americano Edwin Hubble dimostrò che la nostra galassia non era l'unica, ma che in realtà ne esistono molte, separate da estensioni immense di spazio vuoto. Per poter dimostrare questo fatto, egli aveva bisogno di determinare le distanze di queste altre galassie, le quali sono così lontane che, a differenza delle stelle vicine, appaiono occupare realmente posizioni fisse sulla sfera celeste. Hubble fu perciò costretto, per misurarne le distanze, a far ricorso a metodi indiretti. Ora, la luminosità (o magnitudine) apparente di una stella dipende da due fattori: dalla quantità di luce che essa irraggia (la sua luminosità o magnitudine assoluta) e dalla sua distanza da noi. Per le stelle vicine siamo in grado di misurare indipendentemente la luminosità apparente e la distanza, cosicché possiamo calcolare la loro luminosità assoluta. Inversamente, se conoscessimo la luminosità assoluta di stelle appartenenti ad altre galassie, potremmo calcolare la loro distanza misurandone la luminosità apparente. Hubble notò che certi tipi di stelle, quando sono abbastanza vicine a noi da poterne determinare la distanza con metodi trigonometrici, presentano sempre la stessa luminosità assoluta; perciò, ragionò, se trovassimo tali tipi di stelle in un'altra galassia, potremmo supporre che esse abbiano questa stessa luminosità assoluta, e sulla base di quest'ipotesi potremmo calcolare la distanza di tale galassia. Se potessimo applicare questo procedimento per un certo numero di stelle appartenenti a una stessa galassia, e i nostri calcoli dessero sempre la stessa distanza, potremmo avere una certa fiducia nella nostra stima. In questo modo Hubble calcolò la distanza di nove galassie diverse. Noi oggi sappiamo che la nostra galassia è solo una delle centinaia di milioni di galassie che possiamo osservare con i moderni telescopi (contenenti ciascuna qualche centinaio di milioni di stelle). La figura 3.1 presenta
un'immagine di una galassia spirale dall'aspetto simile a quello che pensiamo dovrebbe avere la nostra per un osservatore che la contemplasse da un'altra galassia. Noi viviamo in una galassia — che chiamiamo semplicemente la Galassia — che ha un diametro di circa centomila anni-luce e che è impegnata in un lento movimento di rotazione; le stelle contenute nelle sue braccia di spirale orbitano attorno al suo centro, con un periodo di varie centinaia di milioni di anni. Il Sole è soltanto una comune stella gialla, di dimensioni medie, in prossimità del bordo interno di un braccio di spirale. Noi abbiamo certamente percorso un bel tratto di strada dal tempo di Aristotele e Tolomeo, quando si pensava che la Terra fosse il centro dell'universo! Le stelle sono così lontane da apparirci solo come puntini di luce. Noi non
riusciamo a scorgerne le dimensioni o la forma. Come possiamo dunque suddividere le stelle in diverse categorie? Per la grande maggioranza delle stelle c'è solo un carattere che possiamo osservare: il colore della loro luce. Newton scoprì che, se facciamo passare la luce proveniente dal Sole attraverso un pezzo di vetro di sezione triangolare, detto prisma, essa si scompone nei suoi colori componenti (il suo spettro), i quali formano una sorta di arcobaleno. Mettendo a fuoco l'immagine telescopica di una singola stella o di una singola galassia, possiamo similmente scomporne la luce, osservandone in tal modo lo spettro. Stelle diverse hanno spettri differenti, ma la luminosità relativa dei singoli colori è sempre esattamente quella che ci si attenderebbe di trovare nella luce emessa da un oggetto al calor rosso. (Di fatto la luce emessa da un qualsiasi oggetto opaco al calor rosso ha uno spettro caratteristico, che dipende solo dalla sua temperatura: uno spettro termico. Ciò significa che possiamo determinare quale sia la temperatura di una stella osservando lo spettro della sua luce.) Inoltre, troviamo che negli spettri stellari mancano certi colori molto specifici, i quali possono variare da una stella all'altra. Sapendo che ogni elemento chimico assorbe una serie caratteristica di colori molto specifici, confrontando queste cosiddette righe di assorbimento con quelle presenti nello spettro di una stella possiamo determinare con precisione quali elementi siano presenti nella sua atmosfera. Negli anni Venti, quando gli astronomi cominciarono a osservare gli spettri di stelle appartenenti ad altre galassie, trovarono qualcosa di estremamente peculiare: essi presentavano gli stessi insiemi caratteristici di righe di assorbimento che erano già stati osservati per stelle appartenenti alla Galassia, ma con una differenza: che erano tutti spostati di una medesima quantità relativa verso l'estremo rosso dello spettro. Per capire le implicazioni di questo fatto, dobbiamo prima comprendere l'effetto Doppler. Come abbiamo visto, la luce visibile consiste in fluttuazioni, o onde, in un campo elettromagnetico. La frequenza (o numero di onde per secondo) della luce è estremamente elevata, variando da quattrocento a settecento milioni di milioni di onde al secondo. L'occhio umano vede le diverse frequenze della luce come colori diversi, con le frequenze minori che si collocano all'estremo rosso dello spettro e le frequenze maggiori all'estremo
blu. Immaginiamo ora una sorgente di luce che si trovi a una distanza costante da noi, come una stella, e che emetta luce a una frequenza costante. E chiaro che la frequenza delle onde che noi riceviamo sarà la stessa alla quale la luce è stata emessa (il campo gravitazionale della galassia non sarà abbastanza grande da esercitare un effetto significativo sulla frequenza della luce). Supponiamo ora che la sorgente cominci a muoversi verso di noi. Quando la sorgente emette la cresta d'onda successiva, si troverà a una distanza minore da noi, cosicché il tempo che tale cresta d'onda impiegherà a giungere fino a noi sarà minore di quello che avrebbe impiegato se la stella fosse stata immobile. Ciò significa che l'intervallo di tempo fra le due creste d'onda che riceviamo sarà minore, e quindi il numero di onde che riceviamo ogni secondo (cioè la frequenza) sarà maggiore di quando la stella era stazionaria. Corrispondentemente, se la sorgente si allontana da noi, la frequenza delle onde che riceviamo sarà minore. Nel caso della luce, perciò, questo significa che le stelle che si allontanano da noi avranno il loro spettro spostato verso l'estremo rosso dello spettro (spostamento verso il rosso) e quelle che si muovono verso di noi avranno il loro spettro spostato verso il blu. Questo rapporto fra frequenza e velocità, che è chiamato effetto Doppler, è un'esperienza quotidiana. Ascoltiamo una macchina che passi accanto a noi su una strada di grande comunicazione: quando la vettura viene verso di noi il suo motore produce un suono più alto (corrispondente a una frequenza maggiore delle onde sonore), mentre quando ci ha superati e si allontana il suono del suo motore diventa più basso. Il comportamento delle onde luminose o delle onde radio è simile. In effetti, la polizia si serve dell'effetto Doppler per determinare la velocità di autovetture, misurando la frequenza degli impulsi di onde radio riflessi ricevuti di ritorno dalle proprie apparecchiature. Negli anni successivi alla sua dimostrazione dell'esistenza di altre galassie, Hubble spese il suo tempo nel catalogare le loro distanze e nell'osservare i loro spettri. A quel tempo la maggior parte delle persone si attendeva che le galassie si muovessero in modi casuali, cosicché ci si aspettava di osservare un ugual numero di spostamenti verso il rosso e verso il blu. Fu perciò una sorpresa trovare che la luce della maggior parte delle galassie appariva spostata verso il rosso: quasi tutte stavano allontanandosi da noi! Ancora
più sorprendente fu la scoperta che Hubble pubblicò nel 1929: l'entità dello spostamento verso il rosso della luce di una galassia non era casuale, bensì era direttamente proporzionale alla distanza della galassia da noi. O, in altri termini, quanto più una galassia è lontana da noi, tanto più grande è la sua velocità di recessione! Ciò significava che l'universo non poteva essere statico, come si era sempre creduto in precedenza, ma che in realità si sta espandendo: la distanza fra le diverse galassie sta crescendo di continuo. La scoperta che l'universo è in espansione fu una delle grandi rivoluzioni intellettuali del XX secolo. Col senno di poi è facile chiedersi perché nessuno ci avesse mai pensato prima. Newton e altri avrebbero dovuto rendersi conto che un universo statico avrebbe cominciato a contrarsi immediatamente sotto l'influenza della gravità. Supponiamo invece che l'universo sia in espansione: se l'espansione fosse abbastanza lenta, la forza di gravità la farebbe rallentare sempre più fino a causarne a un certo punto l'arresto, dando poi l'avvio a una fase successiva di contrazione. Se invece la velocità di espansione dell'universo fosse superiore a una certa velocità critica, la gravità non sarebbe mai abbastanza forte da metter fine all'espansione e l'universo continuerebbe a espandersi per sempre. La situazione è simile a quella di un razzo lanciato verso l'alto dalla superficie della Terra. Se esso ha una velocità inferiore a una certa velocità critica (la cosiddetta «velocità di fuga», di circa 11,2 km/sec), la gravità finirà col mettere fine al movimento ascensionale del razzo, che ricadrà al suolo. Se esso avrà invece una velocità superiore a tale valore critico, la gravità non sarà sufficiente a farlo tornare indietro, cosicché esso continuerà ad allontanarsi per sempre dalla Terra. Questo carattere dinamico dell'universo avrebbe potuto essere predetto, sulla base della teoria della gravità di Newton, in un qualsiasi periodo nell'Ottocento, nel Settecento o persino alla fine del Seicento. Eppure la fede in un universo statico era così forte da persistere addirittura sino al Novecento inoltrato. Persino Einstein, quando formulò la teoria generale della relatività nel 1915, era così sicuro che l'universo fosse stazionario, da modificare la sua teoria per adeguarla a questa situazione, introducendo nelle sue equazioni la cosiddetta costante cosmologica. Con questa costante Einstein introdusse una nuova forza «antigravitazionale», la quale, a differenza di altre forze, non proveniva da
alcuna particolare sorgente, ma era incorporata nel tessuto stesso dello spaziotempo. Einstein sostenne che lo spazio-tempo aveva una tendenza intrinseca a espandersi, e che questa tendenza poteva essere tale da controbilanciare esattamente l'attrazione di tutta la materia nell'universo, in modo da ottenere un universo statico. Soltanto un uomo, a quanto pare, fu disposto a considerare la relatività generale nel suo valore nominale, e mentre Einstein e altri fisici stavano cercando modi per evitare la predizione in essa implicita di un universo non statico, il fisico e matematico russo Aleksandr Aleksandrovic Fridman cercò invece di spiegarla. Fridman fece due assunti molto semplici sull'universo: che esso appaia uguale in qualsiasi direzione lo si osservi, e che ciò varrebbe anche se noi lo osservassimo da qualsiasi altra posizione. Sulla base di queste due sole idee, Fridman mostrò che non dovremmo attenderci che l'universo sia statico. In verità nel 1922, vari anni prima della scoperta di Edwin Hubble, Fridman predisse esattamente ciò che sarebbe stato trovato dall'astronomo americano! L'assunto che l'universo appaia uguale in qualsiasi direzione lo si osservi è in chiaro contrasto con la realtà. Per esempio, come abbiamo visto, le altre stelle presenti nella nostra galassia formano una banda di luce ben definita che attraversa il cielo notturno, la Via Lattea. Se però osserviamo le galassie lontane, esse sembrano essere distribuite in modo più o meno uniforme sull'intera sfera celeste. L'universo sembrerebbe essere quindi più o meno uniforme in qualsiasi direzione, purché lo si consideri a una scala abbastanza grande rispetto alla distanza fra le galassie e purché si ignorino le differenze su scale minori. Per molto tempo questa fu una giustificazione sufficiente per l'assunto di Fridman, come rozza approssimazione all'universo reale. Più recentemente, però, un caso fortunato permise di rendersi conto che l'assunto di Fridman è in realtà una descrizione notevolmente esatta del nostro universo. Nel 1965 due fisici americani che lavoravano nei Bell Telephone Laboratories nel New Jersey, Arno Penzias e Robert Wilson, stavano provando un rivelatore di microonde molto sensibile. (Le microonde sono molto simili alle onde luminose, con la sola differenza che hanno una frequenza molto minore, dell'ordine di solo dieci miliardi di onde al secondo.) Penzias e
Wilson, quando si accorsero che il loro rivelatore stava raccogliendo più rumore di quanto avrebbe dovuto, si preoccuparono. Il rumore non sembrava provenire da una direzione particolare. In principio scoprirono nel rivelatore degli escrementi di uccello e cercarono di verificare altri possibili difetti di funzionamento, ma ben presto giunsero a escludere queste eventualità. Essi sapevano che qualsiasi rumore che avesse avuto origine nell'atmosfera sarebbe stato più forte quando il rivelatore non fosse stato puntato direttamente verso l'alto, perché il rumore avrebbe dovuto presentare un'intensità proporzionale alla profondità dell'atmosfera nella direzione in cui esso era puntato. Il rumore extra risultò essere lo stesso in qualsiasi direzione il rivelatore venisse puntato, cosicché doveva provenire dall’esterno dell'atmosfera. Esso era inoltre sempre uguale, giorno e notte e nel corso di tutto l'anno, anche se la Terra ha un movimento di rotazione sul suo asse e un movimento di rivoluzione attorno al Sole. Ciò dimostrava che la radiazione doveva provenire da fuori del sistema solare, e persino da fuori della Galassia, giacché in questo caso avrebbe presentato variazioni a seconda delle direzioni in cui il ricevitore veniva puntato. Noi sappiamo in effetti che la radiazione dev'essere giunta fino a noi percorrendo la maggior parte dell'universo osservabile e che, apparendoci essa uguale in direzioni diverse, anche l'universo dev'essere omogeneo, anche se solo a una scala molto grande. Oggi sappiamo che, in qualsiasi direzione osserviamo, questo rumore non varia mai di più di una parte su diecimila: Penzias e Wilson si erano quindi imbattuti senza rendersene conto in una conferma abbastanza esatta del primo assunto di Fridman. Press'a poco nello stesso tempo stavano prendendo interesse alle microonde anche due fisici americani della vicina Princeton University, cioè Bob Dicke e Jim Peebles. Essi stavano lavorando a un suggerimento fatto da George Gamow (già allievo di Aleksandr Fridman), che l'universo nelle sue fasi iniziali dovesse essere stato molto caldo e denso, emanando una luce assai intensa. Dicke e Peebles sostennero che noi dovremmo essere ancora in grado di vedere lo splendore dell'universo primitivo perché la radiazione emessa in parti molto lontane di esso dovrebbe raggiungerci solo ora. In conseguenza dell'espansione dell'universo, però, questa luce dovrebbe essere così spostata verso il rosso da pervenirci nella forma di una
radiazione a microonde. Dicke e Peebles stavano accingendosi a cercare questa radiazione quando Penzias e Wilson sentirono parlare della loro ricerca e si resero conto di averla già trovata. Per questo risultato Penzias e Wilson ricevettero nel 1978 il Premio Nobel (cosa che sembra un po' ingiusta nei confronti di Dicke e Peebles, per non parlare di Gamow!). Ora, a prima vista, tutte queste prove del fatto che l'universo ha lo stesso aspetto in qualsiasi direzione possiamo osservarlo, sembra suggerire che nel nostro posto nell'universo ci sia qualcosa di speciale. In particolare può sembrare che, se vediamo tutte le altre galassie allontanarsi da noi, dobbiamo trovarci al centro dell'universo. Esiste, però, una spiegazione alternativa: l'universo potrebbe sembrare uguale in tutte le direzioni anche visto da qualsiasi altra galassia. Questo, come abbiamo visto, fu il secondo assunto di Fridman. Noi non abbiamo alcuna prova scientifica prò, o contro, questo assunto. Lo accettiamo solo per ragioni di modestia: sarebbe stranissimo se l'universo avesse lo stesso aspetto in ogni direzione attorno a noi, e non attorno ad altri punti nell'universo stesso! Nel modello di Fridman tutte le galassie si allontanano direttamente l'una dall'altra. La situazione assomiglia un po' a quella di un palloncino di gomma su cui siano dipinti dei pallini, il quale venga gonfiato costantemente. Quando il palloncino si dilata, la distanza fra due pallini scelti a piacere aumenta, ma non c'è alcun pallino che possa essere considerato al centro dell'espansione. Inoltre, quanto più i pallini sono lontani fra loro, tanto maggiore sarà la loro velocità di allontanamento reciproca. Similmente, nel modello di Fridman la velocità a cui due galassie quali si vogliano si stanno allontanando è proporzionale alla distanza esistente fra loro. Esso prediceva perciò che lo spostamento verso il rosso della luce di una galassia doveva essere direttamente proporzionale alla sua distanza da noi, esattamente come trovò Hubble. Nonostante la validità del suo modello, e il fatto che esso predicesse i risultati poi trovati da Hubble, l'opera di Fridman rimase in gran parte ignorata in Occidente fino a quando modelli simili non furono scoperti nel 1935 dal fisico americano Howard Robertson e dal matematico britannico Arthur Walker in risposta alla scoperta dell'espansione uniforme dell'universo per opera di Hubble. Benché Fridman ne abbia trovato uno solo, ci sono in realtà tre tipi diversi di
modello che obbediscono ai suoi due assunti fondamentali. Nel primo tipo (quello trovato da Fridman) l'espansione dell'universo è abbastanza lenta perché l'attrazione gravitazionale fra le diverse galassie possa causare un rallentamento e infine l'arresto dell'espansione. Poi le galassie cominceranno a muoversi l'una verso l'altra e l'universo entrerà in una fase di contrazione. La figura 3.2 mostra come la distanza fra due galassie vicine muti al passare del tempo. In principio la distanza fra loro è zero, poi cresce fino a un massimo e infine torna a diminuire fino a zero. Nel secondo tipo di soluzione l'universo si espande così rapidamente che l'attrazione gravitazionale non riuscirà mai ad arrestare l'espansione, anche se riesce in qualche misura a rallentarla. La figura 3.3 illustra la separazione fra galassie vicine in questo modello. In principio la distanza è zero e infine le galassie si separano a una velocità costante. C'è poi un terzo tipo di soluzione, in cui l'universo si espande alla velocità esattamente richiesta per evitare la successiva ricontrazione. In questo caso la separazione, illustrata nella figura 3.4, comincia come negli altri casi a zero e aumenta per sempre. Le velocità a cui le galassie si allontanano diventano in questo caso sempre più piccole, anche se non giungono mai a zero.
Un carattere notevole del primo tipo di modello di Fridman è che in esso l'universo non è infinito nello spazio, ma che ciò nonostante lo spazio non ha alcun limite. La gravità è così forte che lo spazio si incurva su se stesso, venendo ad assomigliare in qualche misura alla superficie della Terra. Se si continua a viaggiare lungo una certa direzione sulla superficie della Terra, non ci si imbatte mai in una barriera invalicabile né si cade giù da un margine, ma si finisce poi al punto di partenza. Nel primo modello di Fridman lo spazio è esattamente così, ma con tre dimensioni in luogo delle due della superficie terrestre. Anche la quarta dimensione, il tempo, ha un'estensione finita, ma è come una linea con due estremi o due limiti, un inizio e una fine. Vedremo in seguito che, quando si combini la relatività generale col principio di indeterminazione della meccanica quantistica, tanto lo spazio quanto il tempo possono essere finiti ma illimitati. L'idea che si potrebbe percorrere in linea retta l'intero universo e ritrovarsi al punto di partenza è corretta dal punto di vista scientifico ma non ha molta importanza pratica, potendosi dimostrare che l'universo si sarà ricontratto in un punto di dimensioni zero prima che se ne possa fare il giro. Per potersi ritrovare al punto di partenza prima della fine dell'universo si dovrebbe viaggiare a una velocità superiore a quella della luce, cosa che non è permessa! Nel primo tipo di modello di Fridman, in cui la fase di espansione sarà seguita da una fase di collasso, lo spazio è richiuso su se stesso, come la superficie della Terra. Esso ha perciò un'estensione finita. Nel secondo tipo di modello, in cui l'espansione dura per sempre, lo spazio è incurvato nel modo opposto, come la superficie di una sella. In questo caso, quindi lo spazio è infinito. Infine, nel terzo tipo di modello di Fridman, in cui l'espansione ha esattamente la velocità minima che si richiede per evitare il collasso, lo spazio è piatto (e perciò anche in questo caso infinito). Ma quale dei modelli di Fridman descrive il nostro universo? L'universo smetterà infine di espandersi e comincerà a contrarsi, oppure si espanderà per sempre? Per rispondere a questa domanda abbiamo bisogno di conoscere l'attuale velocità di espansione dell'universo e la sua attuale densità media. Se la densità è inferiore a un certo valore critico, che è
determinato dalla velocità di espansione, l'attrazione gravitazionale sarà troppo debole per arrestare l'espansione. Se la densità è superiore al valore critico, verrà un momento in futuro in cui la gravità arresterà l'espansione e causerà il successivo collasso dell'universo nella sua condizione di concentrazione iniziale. Noi possiamo determinare la presente rapidità di espansione misurando, per mezzo dell'effetto Doppler, le velocità con cui le altre galassie stanno allontanandosi da noi. Questa misurazione può essere eseguita in modo molto accurato. Le distanze delle galassie non sono però molto ben note, giacché noi possiamo misurarle solo indirettamente. Così tutto ciò che sappiamo è che l'universo sta espandendosi di una quantità compresa fra il 5 e il 10 per cento ogni miliardo di anni. La nostra incertezza circa la presente densità media dell'universo è ancora maggiore. Se sommiamo la massa di tutte le stelle che possiamo vedere nella nostra Galassia e in altre galassie, il totale che otteniamo è di meno di un centesimo della quantità che si richiede per arrestare l'espansione dell'universo, persino adottando la stima più bassa della rapidità dell'espansione. La nostra galassia e le altre galassie, però, devono contenere una grande quantità di «materia oscura» che noi non riusciamo a vedere direttamente, come dimostrano le influenze gravitazionali osservate della materia oscura sulle orbite di stelle e gas nelle galassie. Inoltre la maggior parte delle galassie fanno parte di ammassi, e noi possiamo similmente inferire la presenza di altra materia oscura negli spazi intergalattici all'interno di tali ammassi dall'effetto che essa esercita sul moto delle galassie. Anche una volta sommata tutta questa materia oscura, però, otteniamo solo un decimo circa della quantità di materia che si richiederebbe per arrestare l'espansione. Non possiamo però escludere la possibilità che possa esserci una qualche altra forma di materia, distribuita in modo quasi uniforme in tutto l'universo, che noi non abbiamo ancora scoperto e che potrebbe far salire la densità media dell'universo sino al valore critico che si richiede per arrestare l'espansione. I dati attualmente disponibili suggeriscono perciò che probabilmente l'universo si espanderà per sempre, ma tutto ciò di cui possiamo essere veramente sicuri è che, quand'anche dovesse tornare a contrarsi, non lo farà per almeno altri dieci miliardi di anni, dal momento che l'espansione dell'universo è già durata
almeno per altrettanto tempo. Questa prospettiva non dovrebbe preoccuparci eccessivamente: a quel tempo, se la nostra civiltà non sarà già andata a colonizzare regioni esterne al sistema solare, l'umanità sarà già scomparsa da molto tempo, estinta assieme al nostro Sole! Tutte le soluzioni di Fridman hanno in comune il carattere che in qualche periodo in passato (fra dieci e venti miliardi di anni fa) la distanza fra galassie vicine dev'essere stata nulla. A quel tempo, che noi chiamiamo il big bang, la densità dell'universo e la curvatura dello spazio-tempo devono essere state infinite. Poiché la matematica non può trattare in realtà numeri infiniti, ciò significa che la teoria generale della relatività (su cui si fondano le soluzioni di Fridman) predice che nella storia dell'universo c'è un punto in cui la teoria stessa viene meno. Un tale punto è un esempio di quella che i matematici chiamano una singolarità. In verità tutte le nostre teorie scientifiche sono formulate sulla base dell'assunto che lo spazio-tempo sia regolare e quasi piatto, cosicché esse cessano di essere valide in presenza della singolarità del big bang, dove la curvatura dello spaziotempo è infinita. Ciò significa che, quand'anche ci fossero stati degli eventi prima del big bang, non li si potrebbe usare per determinare che cosa sarebbe accaduto dopo, poiché la predicibilità verrebbe meno proprio in corrispondenza del big bang. Analogamente, se — come si dà il caso — noi conoscessimo solo ciò che è accaduto dopo il big bang, non potremmo determinare che cosa è accaduto prima. Per quanto ci riguarda, gli eventi anteriori al big bang non possono avere conseguenze, cosicché non dovrebbero formare parte di un modello scientifico dell'universo. Noi dovremmo perciò escluderli dal modello, e dire che il tempo ebbe un inizio col big bang. A molte persone l'idea che il tempo abbia avuto un inizio non piace, probabilmente perché questa nozione sa un po' di intervento divino. (La Chiesa cattolica, d'altra parte, si impadronì del modello del big bang e nel 1951 dichiarò ufficialmente che esso è in accordo con la Bibbia.) Ci furono perciò vari tentativi di evitare la conclusione che c'era stato un big bang. La proposta che godette di maggior favore fu la cosiddetta teoria dello stato stazionario. Essa fu avanzata nel 1948 in Inghilterra da due profughi dall'Austria occupata dai nazisti, Hermann Bondi e Thomas Gold, assieme a un britannico, Fred Hoyle, che durante la guerra aveva lavorato con loro allo
sviluppo del radar. L'idea era che, man mano che le galassie andavano allontanandosi l'una dall'altra, nuove galassie si formassero di continuo negli spazi intergalattici, da nuova materia che vi veniva creata costantemente. L'universo doveva perciò apparire grosso modo sempre uguale, in qualsiasi tempo e da qualsiasi punto nello spazio lo si osservasse. La teoria dello stato stazionario richiedeva una modificazione della relatività generale per spiegare la creazione continua di materia, ma il ritmo a cui tale creazione doveva aver luogo era così basso (circa una particella per chilometro cubico per anno) che essa non era in conflitto con l'osservazione. Questa teoria era una buona teoria scientifica, nel senso descritto nel capitolo 1 : essa era semplice e faceva predizioni ben precise che potevano essere verificate per mezzo dell'osservazione. Una di queste predizioni era che il numero di galassie o di oggetti simili in ogni volume dato di spazio doveva essere lo stesso dovunque e in qualsiasi tempo noi avessimo compiuto osservazioni nell'universo. Verso la fine degli anni Cinquanta e all'inizio degli anni Sessanta una rassegna delle sorgenti di onde radio nello spazio cosmico fu eseguita a Cambridge da un gruppo di astronomi diretti da Martin Ryle (che aveva lavorato anche lui con Bondi, Gold e Hoyle allo sviluppo del radar durante la guerra). Il gruppo di Cambridge dimostrò che la maggior parte di queste radiosorgenti dovevano trovarsi fuori della nostra galassia (molte di esse poterono in effetti essere identificate con altre galassie) e anche che il numero delle sorgenti deboli era molto maggiore di quello delle sorgenti intense. Essi interpretarono le sorgenti deboli come quelle più lontane e quelle più intense come quelle più vicine. Risultò allora che, per volume unitario di spazio, il numero delle sorgenti vicine è minore di quello delle sorgenti lontane. Ciò poteva significare che noi ci troviamo al centro di una grande regione nell'universo in cui le sorgenti sono presenti in minor numero che altrove. Oppure poteva significare che le sorgenti erano più numerose in passato, al tempo in cui le onde radio iniziarono il loro viaggio verso di noi, di quanto non lo siano oggi. Ognuna delle due spiegazioni contraddiceva in ogni caso le predizioni della teoria dello stato stazionario. Inoltre, anche la scoperta della radiazione a microonde di Penzias e di Wilson nel 1965 indicava che l'universo doveva essere stato molto più denso in passato. Perciò la teoria dello stato stazionario dovette
essere abbandonata. Un altro tentativo per evitare la conclusione che doveva esserci stato un big bang, e perciò un inizio del tempo, fu compiuto da due scienziati russi, Evgenij Lifsitz e Isaac Khalatnikov, nel 1963. Essi suggerirono che il big bang poteva essere una peculiarità dei soli modelli di Fridman, i quali, dopo tutto, erano solo approssimazioni all'universo reale. Forse, di tutti i modelli che erano grosso modo simili all'universo reale, solo quelli di Fridman contenevano una singolarità del big bang. Nei modelli di Fridman le galassie si allontanavano tutte direttamente l'una dall'altra, cosicché non sorprende che in qualche tempo in passato esse si trovassero tutte riunite assieme in uno stesso posto. Nell'universo reale, però, le galassie non si allontanano solo l'una dall'altra, ma hanno anche piccole velocità laterali. In realtà, perciò, esse non devono mai essersi trovate esattamente nello stesso posto, ma solo molto vicine. Forse l'attuale universo in espansione potrebbe essere derivato, quindi, non da una singolarità del big bang, bensì da una fase di contrazione anteriore; nella fase di massimo collasso, le particelle presenti nell'universo potrebbero non essere entrate tutte in collisione, ma alcune potrebbero essere volate via senza scontrarsi, producendo la presente espansione dell'universo. Come potremmo quindi dire se l'universo reale abbia avuto veramente origine da un big bangi Ciò che fecero Lifsitz e Khalatnikov fu di studiare modelli dell'universo che erano grosso modo simili ai modelli di Fridman, tenendo però conto delle irregolarità e delle velocità casuali delle galassie nell'universo reale. Essi dimostrarono che tali modelli potevano cominciare con un big bang anche se le galassie non si allontanavano più direttamente l'una dall'altra, ma sostenevano che ciò era possibile solo in certi modelli eccezionali in cui le galassie si muovessero tutte nel modo giusto. Essi sostennero che, poiché i modelli simili a quelli di Fridman ma senza una singolarità del big bang sembravano essere in numero infinitamente maggiore di quelli con tale singolarità, dovremmo concludere che in realtà non c'era stato un big bang. Essi si resero però conto, in seguito, che esiste una classe molto più generale di modelli simili a quelli di Fridman che presentava delle singolarità, e in cui le galassie non dovevano muoversi in alcun modo speciale. Essi ritirarono perciò la loro proposta nel 1970.
L'opera di Lifsitz e di Khalatnikov fu preziosa perché dimostrò che, se la teoria generale della relatività era giusta, l'universo poteva avere avuto una singolarità, un big bang. Essa non risolse però il problema cruciale: la relatività generale predice che il nostro universo dovrebbe avere avuto un big bang, un inizio del tempo? La risposta venne da un approccio completamente diverso introdotto da un matematico e fisico britannico, Roger Penrose, nel 1965. Servendosi del modo in cui i coni di luce si comportano nella relatività generale, e del fatto che la gravità è sempre attrattiva, egli dimostrò che una stella soggetta al collasso gravitazionale viene intrappolata in una regione la cui superficie si contrae infine a dimensioni nulle. E, se la superficie di tale regione si contrae a zero, lo stesso deve valere anche per il suo volume. Tutta la materia presente nella stella sarà compressa in una regione di volume zero, cosicché la densità della materia e la curvatura dello spazio-tempo diventano infinite. In altri termini, si ha una singolarità contenuta in una regione di spazio-tempo nota come un buco nero. A prima vista il risultato di Penrose si applicava solo a stelle; esso non aveva nulla da dire sul problema se l'intero universo avesse o no avuto una singolarità di big bang nel suo passato. All'epoca in cui Penrose elaborò il suo teorema, io ero studente ricercatore e avevo un bisogno disperato di un tema con cui completare la mia tesi (Ph. D.). Due anni prima mi era stato diagnosticato il morbo di Lou Gehrig, una malattia dei motoneuroni, e mi si era lasciato intendere che mi restavano solo uno o due anni di vita. In queste circostanze apparentemente non aveva senso che lavorassi alla mia tesi per il Ph. D.: non mi aspettavo di sopravvivere così a lungo. Erano però passati due anni e non sembrava che io stessi molto peggio. In effetti le cose andavano abbastanza bene per me, tanto che mi ero addirittura fidanzato con una ragazza molto carina, Jane Wilde. Per sposarmi, però, avevo bisogno di un lavoro, e per trovare un lavoro mi serviva il diploma. Nel 1965 venni a conoscenza del teorema di Penrose che ogni corpo che avesse subito il collasso gravitazionale avrebbe infine formato una singolarità. Mi resi conto ben presto che, se si fosse rovesciata la direzione del tempo nel teorema di Penrose, così che il collasso fosse diventato un'espansione, le condizioni del suo teorema sarebbero rimaste ancora
valide, purché l'universo fosse stato grosso modo simile a un modello di Fridman su grandi scale al tempo presente. Il teorema di Penrose aveva dimostrato che ogni stella soggetta al collasso doveva terminare in una singolarità; il ragionamento con la direzione del tempo rovesciata dimostrava che ogni universo in espansione simile ai modelli di Fridman doveva essere cominciato con una singolarità. Per ragioni tecniche, il teorema di Penrose richiedeva che l'universo fosse infinito nello spazio. Così io potei in effetti servirmene per dimostrare che una singolarità era inevitabile solo se l'universo stava espandendosi con una velocità sufficiente a evitare un nuovo collasso (giacché solo i modelli di Fridman che prevedevano un'espansione non seguita da un collasso erano infiniti nello spazio). Negli anni seguenti sviluppai nuove tecniche matematiche per eliminare questa e altre condizioni tecniche dai teoremi da cui risultava che dovevano aver luogo delle singolarità. Il risultato finale fu un articolo congiunto di Penrose e del sottoscritto, uscito nel 1970, in cui si dimostrava infine che doveva esserci stata una singolarità del big bang, a condizione che la relatività generale sia corretta e che l'universo contenga quanta materia ne osserviamo. Ci furono molte opposizioni al nostro lavoro, sia da parte dei russi in conseguenza della loro fede marxista nel determinismo scientifico, sia da parte di persone che pensavano che l'idea di singolarità fosse ripugnante e che deturpasse la bellezza della teoria di Einstein. In realtà, però, non è possibile opporsi veramente a un teorema matematico, cosicché infine il nostro lavoro fu generalmente accettato e oggi quasi tutti ammettono l'ipotesi che l'universo abbia avuto inizio con la singolarità del big bang. È forse un'ironia che, avendo cambiato parere, io cerchi ora di convincere altri fisici che in realtà non ci fu alcuna singolarità all'inizio dell'universo: come vedremo tale singolarità potrà sparire qualora si tenga conto di effetti quantistici. In questo capitolo abbiamo visto come si sia trasformata, in meno di mezzo secolo, la concezione che l'uomo ha dell'universo, formatasi nel corso di millenni. La scoperta di Hubble che l'universo si sta espandendo, e la presa di coscienza dell'insignificanza del nostro pianeta nella vastità dell'universo, furono solo il punto di partenza. All'aumentare delle prove sperimentali e
teoriche, divenne sempre più chiaro che l'universo doveva avere avuto un inizio nel tempo, fino a quando questa tesi fu finalmente dimostrata, nel 1970, da Penrose e da me sulla base della teoria generale della relatività di Einstein. Tale dimostrazione mostrò che la relatività generale è solo una teoria incompleta: essa non è in grado di dirci in che modo l'universo ebbe inizio, in quanto predice che ogni teoria fisica, compresa se stessa, fallisca nel tentativo di spiegazione dell'inizio dell'universo. La relatività generale afferma però di essere solo una teoria parziale, cosicché ciò che i teoremi della singolarità realmente ci mostrano è che dev'esserci stato un tempo, nella fase iniziale della vita dell'universo, in cui l'universo era così piccolo che in relazione ad esso non si possono più ignorare gli effetti su piccola scala dell'altra grande teoria parziale del XX secolo, la meccanica quantistica. All'inizio degli anni Settanta, quindi, noi fummo costretti a spostare la nostra ricerca per una comprensione dell'universo dalla nostra teoria dello straordinariamente grande alla nostra teoria dello straordinariamente piccolo. Alla descrizione di questa teoria, la meccanica quantistica, passeremo nel capitolo seguente, prima di volgerci agli sforzi per combinare le due teorie parziali in una singola teoria quantistica della gravità.
4 IL PRINCIPIO DI INDETERMINAZIONE
Il successo delle teorie scientifiche, in particolare della teoria della gravità di Newton, indusse lo scienziato francese Pierre-Simon de Laplace, all'inizio dell'Ottocento, a sostenere che l'universo è completamente deterministico. Laplace suggerì che doveva esserci un insieme di leggi scientifiche tale da consentirci di predire qualsiasi accadimento futuro nell'universo purché avessimo conosciuto compiutamente lo stato dell'universo in un tempo dato. Per esempio, conoscendo le posizioni e le velocità del Sole e dei pianeti in un tempo dato, sarebbe stato possibile usare le leggi di Newton per calcolare lo stato del sistema solare in un qualsiasi altro tempo. Il determinismo sembra in questo caso abbastanza ovvio, ma Laplace si spinse oltre postulando l'esistenza di altre leggi simili che dovevano governare qualsiasi altra cosa, compreso il comportamento umano. La dottrina del determinismo scientifico suscitò forti resistenze in molte persone, le quali pensavano che esso violasse la libertà di Dio di intervenire nel mondo, ma essa rimase l'assunto standard della scienza sino ai primi anni di questo secolo. Una delle prime indicazioni che questa convinzione sarebbe stata abbandonata venne quando calcoli eseguiti dagli scienziati britannici lord Rayleigh e sir James Jeans suggerirono che un oggetto, o un corpo, caldissimo, come una stella, avrebbe dovuto irraggiare energia a un ritmo infinito. Secondo le leggi in cui si credeva a quel tempo, un corpo caldo doveva emettere onde elettromagnetiche (come onde radio, luce visibile o raggi X) con una distribuzione uguale in tutte le frequenze. Per
esempio, un corpo caldissimo doveva irraggiare la stessa quantità di energia in onde con frequenze comprese fra uno e due milioni di cicli al secondo e in onde con frequenze comprese fra due e tre milioni di cicli al secondo. Ora, poiché il numero di onde per secondo è illimitato, ciò significava che l'energia totale irradiata doveva essere infinita. Per evitare questo risultato chiaramente ridicolo, il fisico tedesco Max Planck suggerì nel 1900 che la luce, i raggi X e altre onde non potessero essere emessi a un ritmo arbitrario, ma solo sotto forma di certi pacchetti di onde, da lui chiamati quanti. Ogni quanto possedeva inoltre una certa quantità di energia, la quale era tanto maggiore quanto più elevata era la frequenza delle onde, cosicché a una frequenza sufficientemente alta l'emissione di un singolo quanto avrebbe richiesto una quantità di energia più grande di quella disponibile. Perciò ad alte frequenze la radiazione si sarebbe ridotta e quindi il corpo avrebbe perso energia a uri ritmo finito. L'ipotesi quantistica spiegava molto bene il ritmo di emissione osservato nella radiazione di corpi caldi, ma non ci si rese conto di quali fossero le sue implicazioni per il determinismo fino al 1926, quando un altro fisico tedesco, Werner Heisenberg, formulò il suo famoso principio di indeterminazione. Per poter predire posizione e velocità di una particella in un certo tempo futuro, si doveva essere in grado di misurarne con esattezza posizione e velocità presenti. Il modo ovvio per conseguire questo risultato è quello di proiettare un fascio di luce sulla particella. Una parte delle onde di luce saranno diffuse dalla particella, e questo fenomeno ci consentirà di conoscerne la posizione. Questa non potrà però essere determinata con una precisione migliore della distanza compresa fra due creste d'onda successive, cosicché, per misurare con esattezza la posizione della particella, si dovrà usare luce della lunghezza d'onda più piccola possibile. Ora, per l'ipotesi quantistica di Planck, non si può usare una quantità di luce piccola a piacere, ma se ne deve usare almeno un quanto. Questo quanto perturberà la particella e ne modificherà la velocità in un modo che non può essere predetto. Inoltre, quanto più esattamente si misura la posizione, tanto più piccola dev'essere la lunghezza d'onda della luce usata e quindi tanto maggiore l'energia di un singolo quanto. La velocità della particella ne risulta quindi perturbata di una quantità considerevole. In altri termini, con quanta
maggior precisione si tenta di misurare la posizione di una particella, tanto meno esattamente se ne potrà misurare la velocità, e viceversa. Heisenberg dimostrò che il prodotto dell'incertezza nella posizione della particella per l'incertezza nella sua velocità per la massa della particella non può mai essere inferiore a una certa quantità, che è nota come «costante di Planck». Questo limite, inoltre, non dipende dal modo in cui si cerca di misurare la posizione o la velocità della particella, o dal tipo di particella: il principio di indeterminazione di Heisenberg è una proprietà fondamentale, ineliminabile, del mondo. Il principio di indeterminazione ebbe implicazioni profonde per il modo in cui vediamo il mondo. Ancora a distanza di più di cinquant'anni queste non sono state apprezzate appieno da molti filosofi e sono tutt'ora oggetto di molte controversie. Il principio di indeterminazione segnò la fine del sogno di Laplace di una certa teoria della scienza, di un modello dell'universo completamente deterministico: non si possono certamente predire con esattezza gli eventi futuri se non si può misurare con precisione neppure lo stato presente dell'universo! Potremmo immaginare nondimeno che ci sia un insieme di leggi che determinano in modo completo gli eventi per un qualche essere soprannaturale che fosse in grado di osservare lo stato presente dell'universo senza perturbarlo. Modelli del genere non potrebbero in ogni caso rivestire un grande interesse per noi comuni mortali. Sembra meglio usare il principio di economia noto come il rasoio di Occam ed eliminare tutti gli elementi della teoria non verificabili per mezzo dell'osservazione. Questo approccio condusse negli anni Venti Heisenberg, Erwin Schrödinger e Paul Dirac a riformulare la meccanica in una nuova teoria detta meccanica quantistica, fondata sul principio di indeterminazione. In questa teoria le particelle non avevano più posizioni e velocità separate, ben definite, che non potevano essere osservate. Esse venivano invece ad avere uno stato quantico, che era una combinazione di posizione e velocità. In generale, la meccanica quantistica non predice un singolo risultato ben definito per l'osservazione. Essa predice invece vari esiti diversi possibili e ci dice quanto probabile sia ciascuno di essi. In altri termini, se si eseguisse la stessa misurazione su un gran numero di sistemi simili, cominciati tutti nello
stesso modo, si troverebbe che il risultato della misurazione sarebbe A in un certo numero di casi, B in un diverso numero di casi e via dicendo. Si potrebbe predire il numero approssimato di volte in cui il risultato sarebbe A o B, ma non si potrebbe predire il risultato specifico di una singola misurazione. La meccanica quantistica introduce perciò un elemento ineliminabile di impredicibilità o di casualità nella scienza. Einstein obiettò molto vigorosamente contro queste conclusioni, nonostante il ruolo importante svolto da lui stesso nello sviluppo di queste idee, tanto da meritarsi un Premio Nobel proprio per il suo contributo alla teoria quantistica. Egli non accettò però mai che l'universo fosse governato dal caso e compendiò il suo pensiero in proposito nella famosa asserzione: «Dio non gioca a dadi». La maggior parte degli altri scienziati accettarono invece di buon grado la meccanica quantistica, in quanto si accordava perfettamente con l'esperimento. In effetti la teoria ha avuto un successo straordinario ed è alla base di quasi tutta la scienza e tecnologia moderne. Essa governa il comportamento di transistor e circuiti integrati, che sono componenti essenziali di dispositivi elettronici come televisori e computer, ed è anche a fondamento della chimica e della biologia moderne. Le uniche aree della scienza fisica in cui la meccanica quantistica non è stata ancora incorporata in modo appropriato sono la gravità e la struttura su vasta scala dell'universo. Benché la luce sia composta da onde, l'ipotesi quantistica di Planck ci dice che, sotto qualche aspetto essa si comporta come se fosse composta da particelle: essa può infatti essere emessa o assorbita solo in pacchetti o quanti. Il principio di indeterminazione di Heisenberg implica inoltre che le particelle si comportino sotto certi aspetti come onde: esse non hanno una posizione definita ma si «spandono» con una certa distribuzione probabilistica. La teoria della meccanica quantistica si fonda su un tipo del tutto nuovo di matematica che non descrive più il mondo reale nei termini di particelle e di onde; sono solo le osservazioni del mondo a poter essere descritte in quei termini. Nella meccanica quantistica c'è quindi una dualità fra onde e particelle: a qualche scopo è utile pensare le particelle come onde, mentre ad altri fini è utile pensare alle onde come particelle. Una conseguenza importante di questo stato di cose è la possibilità di osservare
quella che è nota come interferenza fra due insiemi di onde o di particelle. In altri termini, le creste di un treno di onde possono coincidere con i ventri dell'altro treno d'onde. I due treni d'onde allora si cancellano anziché sommarsi a formare un'onda più intensa come ci si potrebbe aspettare (fig. 4.1). Un esempio familiare di interferenza nel caso della luce sono i colori che si osservano spesso in bolle di sapone. Essi sono causati dalla riflessione della luce dalle due superfici della sottile pellicola d'acqua che forma la bolla. La luce bianca è formata da onde luminose di varie lunghezze d'onda, o da vari colori diversi. Per certe lunghezze d'onda le creste delle onde riflesse da un lato della pellicola di sapone coincidono con i ventri riflessi dall'altro lato. I colori corrispondenti a queste lunghezze d'onda sono assenti dalla luce riflessa, che perciò appare colorata.
L'interferenza può verificarsi anche per particelle, a causa della dualità introdotta dalla meccanica quantistica. Un esempio famoso è il cosiddetto esperimento delle due fenditure (fig. 4.2). Consideriamo una parete divisoria in cui siano state praticate due strette fenditure parallele. Da un lato del divisorio si dispone una sorgente di luce di un particolare colore (ossia di una particolare lunghezza d'onda). La maggior parte della luce colpirà il divisorio, ma solo una piccola parte passerà attraverso le fenditure. Supponiamo ora di sistemare uno schermo oltre la parte divisoria. Ogni punto sullo schermo riceverà onde dalle due fenditure. In generale, però, la distanza che la luce dovrà percorrere dalla sorgente allo schermo, passando
attraverso le due fenditure, sarà diversa. Una conseguenza di questo stato di cose è che, quando le onde provenienti dalle fenditure colpiranno lo schermo, non saranno in fase fra loro: in alcuni, punti le onde si cancelleranno reciprocamente, mentre in altri si rinforzeranno. Ne risulterà una configurazione caratteristica di frange chiare e scure.
La cosa notevole è che si ottiene esattamente lo stesso tipo di frange sostituendo la sorgente di luce con una sorgente di particelle come elettroni, dotati di una velocità ben definita (ciò significa che le onde corrispondenti hanno una lunghezza definita). Questa cosa sembra tanto più peculiare in quanto, se si ha una sola fenditura, non si ottengono frange, ma solo una distribuzione uniforme di elettroni sullo schermo. Si potrebbe pensare
perciò che l'apertura di un'altra fenditura non faccia altro che aumentare il numero degli elettroni che colpiscono ogni punto dello schermo, ma che, a causa dell'interferenza, in qualche punto tale numero in realtà diminuisca. Se si fanno passare degli elettroni attraverso le fenditure uno per volta, ci si attenderebbe che ogni elettrone passasse per l'una o per l'altra fenditura, e si comportasse quindi come se fosse presente ogni volta una sola fenditura, dando una distribuzione uniforme sullo schermo. In realtà, invece, persino quando gli elettroni vengono emessi uno per volta, appaiono ancora frange di interferenza. Ogni elettrone, perciò, deve passare attraverso entrambe le fenditure nello stesso tempo! Il fenomeno dell'interferenza fra particelle è stato cruciale per la nostra comprensione della struttura degli atomi, le unità basilari della chimica e della biologia, che sono anche i componenti da cui siamo formati noi e da cui è formato tutto ciò che ci circonda. All'inizio di questo secolo si pensava che gli atomi fossero simili al sistema solare, con gli elettroni orbitanti attorno a un nucleo centrale come i pianeti che orbitano attorno al Sole. Si supponeva che l'elettricità di segno diverso — negativa quella degli elettroni e positiva quella del nucleo — fornisse un'attrazione simile all'attrazione gravitazionale che mantiene i pianeti nelle loro orbite attorno al Sole. La difficoltà consisteva nel fatto che, prima della nascita della meccanica quantistica, le leggi della meccanica e dell'elettricità predicevano che gli elettroni avrebbero perso energia e sarebbero quindi scesi a spirale verso il nucleo fino a entrare in collisione con esso. Ciò significava che l'atomo, e in effetti tutta la materia, avrebbe finito col subire un collasso fino a trovarsi ben presto in uno stato di densità elevatissima. Una soluzione parziale di questo problema fu trovata nel 1913 dal fisico danese Niels Bohr. Egli suggerì che forse gli elettroni non orbitano a distanze indifferenti dal nucleo centrale, ma solo a certe distanze specificate. Quand'anche si fosse supposto che solo uno o due elettroni potessero orbitare a ciascuna di queste distanze, si sarebbe evitato il problema del collasso dell'atomo, perché gli elettroni non avrebbero più potuto scendere a spirale se non sino a riempire le orbite di distanza ed energia minime e non oltre. Questo modello spiegava abbastanza bene la struttura dell'atomo più semplice, quello dell'idrogeno, che aveva un solo elettrone orbitante
attorno al nucleo. Non era chiaro però in che modo si potesse estendere questo modello ad atomi più complicati. Inoltre, l'idea di un insieme limitato di orbite consentite sembrava molto arbitrario. La nuova teoria della meccanica quantistica risolse questa difficoltà. Essa rivelò che un elettrone orbitante attorno al nucleo poteva essere concepito come un'onda, con una lunghezza d'onda dipendente dalla sua velocità. Per certe orbite, la lunghezza dell'orbita corrispondeva a un numero intero (in contrapposizione a un numero frazionario) di lunghezze d'onda dell'elettrone. Per queste orbite la cresta dell'onda veniva a trovarsi nella stessa posizione a ogni rotazione, cosicché le onde si sommavano: queste orbite corrispondevano alle orbite consentite di Bohr. Nel caso di orbite la cui lunghezza non era un multiplo intero della lunghezza d'onda, durante le successive rotazioni dell'elettrone ogni cresta d'onda finiva invece con l'essere cancellata da un ventre; queste orbite non erano permesse. Un bel modo per visualizzare la dualità onda-particella è quello escogitato dal fisico americano Richard Feynman. Anziché supporre che la particella abbia una singola storia o una singola traiettoria nello spazio-tempo, come nella teoria classica, non quantistica, si suppone che essa vada da A a B percorrendo ogni traiettoria possibile. A ogni traiettoria è associata una coppia di numeri: uno rappresenta le dimensioni di un'onda e l'altro la posizione nel ciclo (ossia se essa si trovi in una cresta o in un ventre). La probabilità di passare da A a B si trova sommando le onde per tutte le traiettorie. In generale, se si confronta un insieme di traiettorie vicine, le fasi o posizioni nel ciclo differiranno grandemente fra loro. Ciò significa che le onde associate a queste traiettorie si cancelleranno quasi esattamente fra loro. Per qualche insieme di traiettorie vicine, la fase non varierà molto fra una traiettoria e l'altra. Le onde per queste traiettorie non si cancelleranno. Tali traiettorie corrispondono alle orbite permesse di Bohr. Con queste idee, in concreta forma matematica, era relativamente facile calcolare le orbite permesse in atomi più complicati e persino in molecole, le quali sono composte da un certo numero di atomi tenuti assieme da elettroni in orbite che corrono attorno a più di un nucleo. Poiché la struttura di molecole e le loro reazioni reciproche determinano tutta la chimica e la biologia," la meccanica quantistica ci consente, in linea di principio, di
predire quasi tutto ciò che vediamo attorno a noi, entro i limiti fissati dal principio di indeterminazione. (In pratica, però, i calcoli richiesti per sistemi contenenti più di qualche elettrone sono così complicati che noi non siamo in grado di eseguirli.) La teoria della relatività generale di Einstein sembra governare la struttura su vasta scala dell'universo. Essa è una cosiddetta teoria classica; ciò significa che non tiene conto del principio di indeterminazione della meccanica quantistica, come dovrebbe per coerenza con altre teorie. La ragione per cui questo fatto non conduce ad alcuna discrepanza con l'osservazione è che tutti i campi gravitazionali da noi sperimentati abitualmente sono molto deboli. I teoremi della singolarità di cui ci siamo occupati in precedenza indicano però che il campo gravitazionale dovrebbe raggiungere livelli di grande intensità in almeno due situazioni, i buchi neri e il big bang. In campi di tale intensità gli effetti della meccanica quantistica dovrebbero essere considerevoli. Così, in un certo senso, la relatività generale classica, predicendo punti di densità infinita, predisse al tempo stesso il proprio crollo, esattamente come prediceva il proprio crollo la meccanica classica (cioè non quantistica) suggerendo che gli atomi dovessero subire il collasso fino a raggiungere una densità infinita. Noi non possediamo ancora una teoria coerente completa che unifichi la relatività generale e la meccanica quantistica, ma conosciamo un certo numero di caratteri che essa dovrebbe possedere. Delle conseguenze che questi caratteri dovrebbero avere per i buchi neri e per il big bang ci occuperemo in altri capitoli. Per il momento, però, passeremo a considerare i tentativi compiuti recentemente per raccogliere la nostra comprensione delle altre forze della natura in una singola teoria quantistica unificata.
5 LE PARTICELLE ELEMENTARI E LE FORZE DELLA NATURA
Aristotele credeva che tutta la materia contenuta nell'universo fosse composta da quattro elementi fondamentali: terra, acqua, aria e fuoco. Su questi elementi agivano due forze: la gravità, ossia la tendenza della terra e dell'acqua a muoversi verso il basso, e la leggerezza, ossia la tendenza dell'aria e del fuoco a muoversi verso l'alto. Questa divisione del contenuto fisico dell'universo in materia e forze viene usata ancor oggi. Egli pensava che la materia fosse continua, ossia che fosse possibile suddividere indefinitamente un pezzo di materia in particelle sempre più piccole, senza che si giungesse mai a un granello di materia che non potesse essere suddiviso ulteriormente. Qualche altro filosofo greco, però, come Democrito, ritenne che la materia fosse intrinsecamente discontinua e che ogni cosa fosse composta da un gran numero di vari tipi diversi di atomi. (In greco, la parola atomo significa «indivisibile».) Per secoli la discussione continuò senza che venisse addotta alcuna prova reale per nessuna delle due parti; infine, nel 1803 il chimico e fisico britannico John Dalton sottolineò che il fatto che i composti chimici si combinino sempre in certe proporzioni poteva essere spiegato per mezzo del raggruppamento di atomi a formare unità chiamate molecole. La controversia fra le due scuole di pensiero non fu però definitivamente risolta a favore degli atomisti sino ai primi anni del nostro secolo. Una delle prove più importanti fu fornita da Einstein. In un articolo scritto nel 1905, alcune settimane prima del famoso articolo sulla relatività speciale, Einstein sottolineò che il cosiddetto moto
browniano — il moto irregolare, casuale, di piccole particelle di polvere sospese in un liquido — poteva essere spiegato come l'effetto delle collisioni di atomi del liquido con particelle di polvere. A quell'epoca qualcuno sospettava già che questi atomi non fossero, dopo tutto, indivisibili. Vari anni prima un professore del Trinity College a Cambridge, J.J. Thomson, aveva dimostrato l'esistenza di una particella materiale, detta elettrone, di massa inferiore a un millesimo di quella dell'atomo più leggero. Thomson usò un dispositivo simile al moderno tubo catodico della televisione: un filamento di metallo portato al calor rosso emetteva elettroni, e poiché questi hanno carica elettrica negativa, si poteva usare un campo elettrico per accelerarli verso uno schermo rivestito di fosforo. Quando essi colpivano lo schermo, si generavano lampi di luce. Ben presto ci si rese conto che questi elettroni dovevano provenire dagli atomi stessi, e nel 1911 il fisico britannico di origine neozelandese Ernest Rutherford mostrò infine che gli atomi hanno una struttura interna: essi sono composti da un nucleo estremamente piccolo, dotato di carica elettrica positiva, attorno al quale orbitano un certo numero di elettroni: egli dedusse questo fatto dal modo in cui particelle a, che sono particelle di carica positiva emesse da atomi radioattivi, vengono deflesse quando entrano in collisione con atomi. Dapprima si pensò che il nucleo dell'atomo fosse composto da elettroni e da un numero diverso di particelle di carica positiva chiamate protoni, da una parola greca che significa «primo», in quanto si credeva che essa fosse l'unità fondamentale di cui si compone la materia. Nel 1932, però, un collega di Rutherford a Cambridge, James Chadwick, scoprì che il nucleo conteneva un'altra particella, chiamata neutrone, che aveva quasi la stessa massa del protone ma che era priva di carica elettrica. Per questa scoperta, Chadwick ricevette il Premio Nobel e fu eletto master al Gonville and Caius College, a Cambridge (il college di cui io sono ora fellow). In seguito egli si dimise da master a causa di divergenze d'opinione con i fellows. Nel college c'era stata un'aspra controversia quando un gruppo di giovani fellows, tornati dopo la guerra, aveva deciso con i propri voti l'esclusione di molti fellows anziani dalle mansioni che avevano svolto per molto tempo nel college. Questi fatti erano avvenuti nel college prima del mio tempo;
quando vi arrivai io nel 1965, queste vicende erano ormai pressoché concluse, anche se disaccordi simili stavano costringendo proprio in quel periodo a dimettersi un altro master, il Premio Nobel sir Neville Mott. Fino a una ventina di anni fa circa si pensava che protoni e neutroni fossero particelle «elementari», ma esperimenti condotti con i grandi acceleratori di particelle, nel corso dei quali furono prodotte collisioni ad alte velocità fra protoni e altri protoni o fra protoni ed elettroni, indicarono che essi sono in realtà composti da altre particelle più piccole. Queste particelle furono chiamate quark dal fisico del California Institute of Technology (Caltech) Murray Geli-Mann, che nel 1969 vinse il Premio Nobel proprio per la sua ricerca su di essi. L'origine del nome si trova in un brano enigmatico di Finnegans Wake di James Joyce: «Three quarks for Muster Mark!». La parola quark dovrebbe essere pronunciata come quart (quo.t), con una k in fondo invece di una t, ma di solito è pronunciata in modo da rimare con lark (la:k). Esistono un certo numero di varietà diverse di quark: si pensa che ce ne siano almeno sei «sapori», che chiamiamo su, giù, strano, incantato, fondo e cima. Ogni sapore può presentare tre diversi «colori»: rosso, verde e blu. (E opportuno sottolineare che questi termini non sono altro che etichette di comodo; i quark sono molto più piccoli della lunghezza d'onda della luce visibile e non hanno quindi alcun colore nel senso normale del termine. Quest'uso linguistico dipende solo dal fatto che i fisici moderni sembrano avere un'immaginazione più ricca di quella dei loro colleghi anteriori nel trovare nomi per nuove particelle e nuovi fenomeni: non si limitano più a cercare i nomi nella lingua greca!) Un protone o un neutrone è composto da tre quark, uno di ciascun colore. Un protone contiene due quark su e un quark giù; un neutrone contiene due quark giù e un quark su. Possiamo creare particelle composte con gli altri quark (strani, incantati, fondo e cima), ma questi hanno una massa molto maggiore e decadono molto rapidamente in protoni e neutroni. Oggi sappiamo che né gli atomi né i protoni e i neutroni nel loro nucleo sono indivisibili. La domanda è quindi: quali sono le particelle veramente elementari, i mattoni fondamentali da cui è composta ogni cosa? Poiché la lunghezza d'onda della luce è molto maggiore delle dimensioni dell'atomo, non è lecito sperare di poter «vedere» le parti di un atomo nel senso
comune della parola «vedere». Abbiamo bisogno di usare qualcosa di lunghezza d'onda molto minore. Come abbiamo visto nel capitolo precedente, la meccanica quantistica ci dice che tutte le particelle sono in realtà onde e che, quanto maggiore è l'energia di una particella, tanto minore è la lunghezza d'onda dell'onda corrispondente. Così la risposta migliore che possiamo dare alla nostra domanda dipende dal livello dell'energia delle particelle a nostra disposizione, giacché è questa a determinare a quale scala di grandezza possiamo osservare (quanto maggiore è l'energia, o la frequenza, tanto minore sarà la scala di grandezza a cui potremo estendere la nostra osservazione). Queste energie delle particelle vengono misurate di solito in unità chiamate elettronvolt. (Negli esperimenti di Thomson con elettroni, abbiamo visto che per accelerare gli elettroni Thomson si servì di un campo elettrico. L'energia che un elettrone riceve da un campo elettrico di un volt è di un elettronvolt.) Nell'Ottocento, quando le uniche energie di particelle che si sapevano usare erano le basse energie di pochi elettronvolt generate da reazioni chimiche come la combustione, si pensava che gli atomi fossero l'unità più piccola. Nell'esperimento di Rutherford, le particelle a avevano energie di milioni di elettronvolt. Più recentemente abbiamo imparato a usare campi elettromagnetici per impartire alle particelle energie dapprima di milioni e poi di miliardi di elettronvolt. Così sappiamo che particelle che venti anni fa venivano considerate «elementari» sono composte in realtà da particelle più piccole. E possibile che, passando in futuro a energie ancora maggiori, anche queste possano risultare composte da particelle ancora più piccole? Una tale evenienza è senza dubbio possibile, ma abbiamo qualche ragione teorica per pensare di possedere oggi — o di essere molto vicini a possedere — una conoscenza dei mattoni ultimi della natura. Usando la dualità onda-particella di cui abbiamo parlato nel capitolo precedente, è possibile descrivere nei termini di particelle tutto ciò che esiste nell'universo, comprese la luce e la gravità. Queste particelle hanno una proprietà chiamata spin. Un modo per pensare allo spin consiste nell'immaginare le particelle come piccole trottole che ruotano attorno a un asse. Quest'immagine può però essere sviante poiché la meccanica quantistica ci dice che le particelle non hanno un asse ben definito. Che cosa
ci dice realmente lo spin di una particella è quale aspetto essa abbia vista da direzioni diverse. Una particella di spin 0 è come un punto: essa appare sempre uguale da qualsiasi direzione la si guardi (fig. 5.la). Una particella di spin 1 è invece come una freccia: essa ci presenta aspetti diversi se guardata da direzioni diverse (fig. 5.1 è). La particella riprenderà lo stesso aspetto solo dopo una rivoluzione completa (di 360 gradi). Una particella di spin 2 è come una freccia con due punte, una a ciascuna estremità (fig. 5. le): essa
riprenderà lo stesso aspetto solo dopo aver compiuto una semirivoluzione (180 gradi). Similmente, particelle di spin maggiore riprenderanno lo stesso aspetto dopo una frazione minore di una rivoluzione completa. Tutto questo sembra abbastanza semplice, ma il fatto notevole è che ci sono particelle che non tornano ad avere lo stesso aspetto dopo una rivoluzione completa, bensì solo dopo due rivoluzioni complete. Queste particelle si dice che hanno uno spin di 1/2 (o spin semintero). , Tutte le particelle note nell'universo possono essere suddivise in due gruppi: particelle di spin 1/2, che compongono tutta la materia nell'universo, e particelle di spin 0, 1 e 2, che, come vedremo, danno origine alle forze che si esercitano fra le particelle di materia. Le particelle di materia obbediscono al cosiddetto principio di esclusione di Pauli. Questo principio fu scoperto nel
1925 dal fisico austriaco Wolfgang Pauli, che per questa scoperta ricevette il Premio Nobel nel 1945. Pauli fu l'archetipo del fisico teorico: di lui si racconta che persino la sua presenza in una città era sufficiente per far fallire gli esperimenti! Il principio di esclusione di Pauli dice che due particelle simili non possono esistere nello stesso stato, ossia che non possono avere entrambe la stessa posizione e la stessa velocità, entro i limiti dati dal principio di indeterminazione. Il principio di esclusione è cruciale perché spiega per quale motivo le particelle non si contraggano in uno stato di densità elevatissima sotto l'influenza delle forze prodotte dalle particelle di spin 0, 1 e 2: se le particelle di materia hanno una posizione quasi identica, devono avere velocità diverse, cosa che significa che non rimarranno molto a lungo nella stessa posizione. Se il mondo fosse stato creato senza il principio di esclusione, i quark non formerebbero protoni e neutroni separati, ben definiti. Né questi, assieme agli elettroni, formerebbero atomi separati, ben definiti. Tutte queste particelle si contrarrebbero tutte a formare un «brodo» denso, grosso modo uniforme. Una comprensione adeguata dell'elettrone e di altre particelle di spin 1/2 non venne fino al 1928, quando una teoria fu proposta da Paul Dirac, al quale sarebbe stata in seguito assegnata la cattedra lucasiana di matematica a Cambridge (la stessa che fu un tempo occupata da Newton e che è occupata oggi dal sottoscritto). La teoria di Dirac fu la prima del suo genere in accordo sia con la meccanica quantistica sia con la teoria speciale della relatività. Essa spiegava matematicamente perché l'elettrone avesse spin 1/2, ossia perché esso non riprendesse lo stesso aspetto dopo una rivoluzione completa ma solo dopo due. Essa prediceva anche che l'elettrone doveva avere un partner, ossia un antielettrone o positone. La scoperta del positone, avvenuta nel 1932, confermò la teoria di Dirac e condusse ad assegnargli — in compartecipazione con Schrödinger — il Premio Nobel per la fisica nel 1933. Oggi sappiamo che ogni particella ha un'antiparticella, nell'incontro con la quale può annichilarsi. (Nel caso delle particelle portatrici di forze, le antiparticelle sono identiche con le particelle stesse.) Potrebbero esistere interi antimondi e antipersone composti da antiparticelle. Se però incontri il tuo antiio non stringergli la mano! Svanireste infatti entrambi in un grande lampo di luce. Il problema del
perché attorno a noi il numero delle particelle sembri immensamente maggiore di quello delle antiparticelle è estremamente importante, e io tornerò su di esso più avanti nel corso di questo stesso capitolo. Nella meccanica quantistica le forze o interazioni fra particelle materiali dovrebbero essere trasportate da particelle di spin intero: 0, 1 o 2. Quel che accade in un caso del genere è che una particella materiale, come un elettrone o un quark, emette una particella che trasporta una forza. Il rinculo dovuto a quest'emissione modifica la velocità della particella di materia. La particella portatrice della forza entra allora in collisione con un'altra particella materiale e ne viene assorbita. Questa collisione modifica la velocità della seconda particella, come se fra le due particelle di materia si fosse esercitata una forza. Una proprietà importante delle particelle portatrici di forza è che esse non obbediscono al principio di esclusione. Ciò significa che non c'è limite al numero che ne può essere scambiato, cosicché esse possono dare origine a una forza forte. Se però le particelle portatrici di forza hanno una massa elevata, sarà difficile produrle e scambiarle su una grande distanza. Perciò le forze da loro trasportate avranno solo un breve raggio d'azione. Se invece le particelle portatrici di forza non hanno una massa propria, le forze potranno esercitarsi su grandi distanze. Le particelle portatrici di forze scambiate fra particelle materiali vengono dette particelle virtuali in quanto, a differenza delle particelle «reali», non possono essere scoperte direttamente da un rivelatore di particelle. Sappiamo però che esistono, avendo esse un effetto misurabile: esse danno origine a forze fra particelle materiali. Particelle di spin 0,1 o 2 esistono in alcune circostanze anche come particelle reali, in cui possono essere rivelate direttamente. Esse ci appaiono allora nella forma di quelle che i fisici classici chiamerebbero onde, come onde di luce o onde gravitazionali. Esse possono essere emesse talvolta mentre particelle di materia interagiscono fra loro scambiandosi particelle virtuali portatrici di forze. (Per esempio, la forza elettrica repulsiva fra due elettroni è dovuta allo scambio di fotoni virtuali, i quali non possono mai essere scoperti direttamente; ma se un elettrone passa accanto a un altro, possono essere emessi fotoni reali, da noi percepibili come onde luminose.) Le particelle portatrici di forze possono essere raggruppate in quattro
categorie a seconda dell'intensità della forza che trasportano e delle particelle con cui interagiscono. Si dovrebbe sottolineare che la divisione in quattro classi è frutto di una decisione arbitraria; essa risulta comoda per la costruzione di teorie parziali, ma potrebbe non corrispondere a niente di più profondo. In definitiva, la maggior parte dei fisici sperano di trovare una teoria unificata che spieghi tutt'e quattro le forze come aspetti diversi di una singola forza. Molti direbbero addirittura che questo sia il primo obiettivo della fisica di oggi. Recentemente sono stati compiuti tentativi riusciti di unificare tre delle quattro categorie di forza, tentativi che descriverò in questo capitolo. Rimanderemo invece a più avanti il tentativo dell'unificazione della categoria restante, la gravità. La prima categoria è la forza gravitazionale. Questa forza è universale: in altri termini, ogni particella risente della forza di gravità, secondo la sua massa o energia. La gravità è di gran lunga la più debole fra le quattro forze; essa è così debole che non la percepiremmo affatto se non fosse per due proprietà speciali che possiede: la capacità di agire su grandi distanze e il fatto di manifestarsi sempre sotto forma di un'attrazione. Ciò significa che le debolissime forze gravitazionali che si esercitano fra le singole particelle in due corpi di grande massa, come la Terra e il Sole, possono sommarsi sino a produrre una forza significativa. Le altre tre forze o hanno un breve raggio d'azione, o sono a volte attrattive e altre volte repulsive, così che tendono a cancellarsi. Nel modo proprio della meccanica quantistica di considerare il campo gravitazionale, si dice che la forza che si esercita fra due particelle di materia viene trasportata da una particella spin 2 detta gravitone. Questa particella non è dotata di massa, cosicché la forza che essa trasporta ha un grande raggio d'azione. La forza gravitazionale che si esercita fra il Sole e la Terra viene attribuita allo scambio di gravitoni fra le particelle che compongono questi due corpi. Benché le particelle scambiate siano virtuali, producono senza dubbio un effetto misurabile: si deve infatti ad esse la rivoluzione orbitale della Terra attorno al Sole! I gravitoni reali formano quelle che i fisici classici chiamerebbero onde gravitazionali, le quali sono molto deboli, e così difficili da rivelare che non sono ancora mai state osservate. La categoria successiva è quella della forza elettromagnetica, la quale
interagisce con particelle dotate di carica elettrica come elettroni e quark, ma non con particelle prive di carica come i gravitoni. Essa è molto più intensa della forza gravitazionale: la forza elettromagnetica che si esercita fra due elettroni è di circa un milione di milioni di milioni di milioni di milioni di milioni di milioni (1 seguito da quarantadue zeri) di volte maggiore della forza gravitazionale. Esistono però due tipi di carica elettrica: positiva e negativa. La forza che si esercita fra due cariche positive è repulsiva, così come quella che si esercita fra due cariche negative, mentre è attrattiva la forza fra una carica positiva e una negativa. Un corpo di dimensioni molto grandi, come la Terra o il Sole, contiene un numero quasi uguale di cariche positive e negative. Perciò le forze attrattive e repulsive che si esercitano fra le singole particelle si cancellano quasi per intero, e rimane ben poca forza elettromagnetica netta. Alle piccole scale degli atomi e delle molecole, però, le forze elettromagnetiche dominano. L'attrazione elettromagnetica fra elettroni, di carica negativa, e protoni, di carica positiva nel nucleo determina il moto orbitale degli elettroni attorno al nucleo dell'atomo, esattamente come l'attrazione gravitazionale determina il moto di rivoluzione della Terra attorno al Sole. L'attrazione elettromagnetica viene attribuita allo scambio di un gran numero di particelle virtuali prive di massa di spin 1, chiamate fotoni. Di nuovo, i fotoni che vengono scambiati sono particelle virtuali. Quando però un elettrone passa da un'orbita permessa a un'altra orbita più vicina al nucleo, si libera energia e viene emesso un vero fotone, che può essere osservato come luce visibile dall'occhio umano, se ha la lunghezza d'onda giusta, o da un rivelatore di fotoni, come una pellicola fotografica. Analogamente, se un fotone reale entra in collisione con un atomo, può fare spostare un elettrone da un'orbita più vicina al nucleo a una più lontana. Questo spostamento utilizza l'energia del fotone, che viene perciò assorbito. La terza categoria è chiamata la forza nucleare debole, la quale è responsabile della radioattività e agisce su tutte le particelle di materia di spin 1/2, ma non su particelle di spin 0, 1 o 2, come fotoni o gravitoni. La forza nucleare debole non fu ben compresa sino al 1967, quando Abdus Salam all'Imperial College di Londra e Steven Weinberg a Harvard proposero due teorie che unificavano quest'interazione con la forza elettromagnetica,
esattamente come Maxwell aveva unificato elettricità e magnetismo un centinaio di anni prima. Essi suggerirono che, oltre al fotone, dovevano esistere altre tre particelle di spin 1, note collettivamente come bosoni vettoriali dotati di massa, portatrici della forza debole. Questi furono chiamati W + , W- e Z° e ciascuno di loro ha una massa di circa 100 GeV (GeV sta per gigaelettronvolt, ossia un miliardo di elettronvolt). La teoria di Weinberg-Salam presenta una proprietà nota come rottura spontanea della simmetria. Ciò significa che quelle che alle basse energie sembrano varie particelle completamente diverse, risultano essere invece lo stesso tipo di particelle, solo in stati diversi. Alle alte energie tutte queste particelle si comportano in modo simile. L'effetto assomiglia al comportamento di una pallina da roulette mentre la ruota gira. Ad alte energie (quando la ruota viene fatta ruotare velocemente) la pallina si comporta essenzialmente in un unico modo: corre di continuo alla periferia della ruota. Quando però la ruota rallenta, l'energia della pallina diminuisce ed essa va infine a cadere in uno dei trentasette scomparti della ruota. In altri termini, a basse energie ci sono trentasette stati diversi in cui la pallina può esistere. Se, per qualche ragione, noi potessimo osservare la pallina solo alle basse energie, penseremmo che esistono trentasette tipi diversi di pallina! Nella teoria di Weinberg e Salam, a energie molto superiori a 100 GeV, le tre nuove particelle e il fotone si comporterebbero tutte in un modo simile. Ma alle energie più basse che si presentano nella maggior parte delle situazioni normali, questa simmetria fra le particelle sarebbe distrutta. I bosoni W + , W- e Z° acquisterebbero una grande massa, cosicché le forze da loro trasportate verrebbero ad avere un raggio d'azione piccolissimo. Al tempo in cui Salam e Weinberg proposero la loro teoria, poche persone gli credettero, e gli acceleratori di particelle non erano abbastanza potenti per raggiungere le energie di 100 GeV che si richiedevano per produrre particelle reali W + , W- e Z°. In capo a una decina d'anni, però, le altre predizioni fatte dalla teoria per energie inferiori erano venute a concordare così bene con l'esperimento che, nel 1979, Salam e Weinberg ricevettero il Premio Nobel per la fisica, assieme a Sheldon Lee Glashow, anche lui a Harvard, che aveva suggerito teorie unificate simili per le forze elettromagnetica e nucleare debole. Al comitato del Nobel fu risparmiato il possibile imbarazzo di aver
compiuto un errore grazie alla scoperta, nel 1983 al CERN (Organizzazione Europea per la Ricerca Nucleare), dei tre compagni del fotone dotati di massa, le cui masse e altre proprietà erano state predette correttamente. Carlo Rubbia, che diresse Véquipe di varie centinaia di fisici che fecero la scoperta, ricevette il Premio Nobel nel 1984, unitamente a Simon Van der Meer, l'ingegnere del CERN che sviluppò il dispositivo di raccolta e raffreddamento dell'antimateria usato. (Di questi tempi è molto difficile compiere un progresso importante in fisica sperimentale se non ci si trova già al vertice!) La quarta categoria è la forza nucleare forte, che tiene assieme i quark nel protone e nel neutrone, e che lega assieme i protoni e i neutroni nel nucleo dell'atomo. Si ritiene che questa forza sia trasportata da un'altra particella di spin 1, chiamata gluone, la quale interagisce solo con se stessa e con i quark. La forza nucleare forte ha una curiosa proprietà chiamata confinamento: essa lega sempre assieme delle particelle in combinazioni che non hanno alcun colore. Non si può avere un singolo quark isolato perché esso avrebbe un colore (rosso, verde o blu). Invece, un quark rosso dev'essere unito a un quark verde e a un quark blu da una sequenza di gluoni (rosso + verde + blu = bianco). Una tale tripletta costituisce un protone o un neutrone. Un'altra possibilità è una coppia formata da un quark e da un antiquark (rosso + antirosso, o verde + antiverde o blu + antiblu = bianco). Tali combinazioni compongono le particelle note come mesoni, le quali sono instabili perché quark e antiquark possono annichilarsi fra loro, producendo elettroni e altre particelle. Similmente, il confinamento impedisce che si possa avere un singolo gluone a sé, perché anche i gluoni hanno un colore. Si deve avere invece una collezione di gluoni i cui colori si sommino a dare il bianco. Una tale collezione forma una particella instabile detta gluepalla. Il fatto che il confinamento impedisca di osservare un quark o un gluone isolati può dare l'impressione che l'intera nozione dei quark e gluoni come particelle sia un po' metafisica. C'è però un'altra proprietà della forza nucleare forte, chiamata libertà asintotica, la quale rende ben definito il concetto di quark e gluoni. A energie normali, la forza nucleare forte è davvero forte, e lega strettamente assieme i quark. Esperimenti compiuti con i grandi acceleratori di particelle indicano però che ad alte energie la
forza forte diventa molto più debole, e che i quark e i gluoni finiscono col comportarsi quasi come particelle libere. La figura 5.2 presenta una fotografia di una collisione fra un protone e un antiprotone ad alta energia. Nella collisione si produssero vari quark quasi liberi, i quali diedero origine ai «getti» di tracce visibili nella figura.
Il successo dell'unificazione della forza elettromagnetica con la forza nucleare debole condusse a vari tentativi di combinare queste due forze con la forza nucleare forte in una cosiddetta grande teoria unificata (o GTU, GUT in inglese). In realtà queste teorie non sono del tutto unificate e non comprendono la gravità, né sono veramente complete, in quanto includono un certo numero di parametri i cui valori non possono essere predetti dalla teoria, ma devono essere scelti appositamente in modo tale da ottenere una corrispondenza con l'esperimento. Esse potrebbero rappresentare
purtuttavia un passo avanti verso una teoria completa, pienamente unificata. L'idea fondamentale di una GTU è la seguente: come abbiamo menzionato in precedenza, ad alte energie la forza nucleare forte diventa più debole. In tale ambito energetico la forza elettromagnetica e la forza debole, che non hanno la libertà asintotica, diventano invece più forti. Accade così che, in corrispondenza di una qualche energia molto elevata, chiamata l'energia della grande unificazione, queste tre forze verrebbero ad avere tutt'e tre la stessa intensità, e potrebbero quindi essere solo aspetti diversi di una singola forza. La GTU predice anche che, a questa energia, pure le diverse particelle di materia con spin 1/2, come i quark e gli elettroni, sarebbero essenzialmente uguali, conseguendo in tal modo un'altra unificazione. Il valore dell'energia della grande unificazione non è noto molto bene, ma dovrebbe essere con ogni probabilità di almeno di un miliardo di milioni di GeV. La presente generazione di acceleratori di particelle può far collidere particelle a energie di circa un centinaio di GeV, e si stanno progettando macchine in grado di portare quest'energia a qualche migliaio di GeV. Ma una macchina abbastanza potente per accelerare particelle sino all'energia della grande unificazione dovrebbe essere grande quanto il sistema solare, e sarebbe difficile trovare finanziamenti adeguati nel clima economico presente. E quindi impossibile verificare grandi teorie unificate direttamente in laboratorio. Ma, proprio come nel caso della teoria unificata elettromagnetica e debole, esistono conseguenze della teoria a energia minore che possono essere verificate. La più interessante fra queste conseguenze è la predizione che i protoni, i quali costituiscono gran parte della massa della materia comune, possono decadere spontaneamente in particelle più leggere come gli antielettroni. La ragione di questa possibilità consiste nel fatto che, all'energia della grande unificazione, non c'è alcuna differenza essenziale fra un quark e un antielettrone. I tre quark presenti all'interno di un protone non hanno normalmente abbastanza energia per trasformarsi in antielettroni, ma molto occasionalmente uno di loro può acquistare abbastanza energia per compiere la transizione, poiché il principio di indeterminazione comporta che l'energia dei quark all'interno del protone non possa essere fissata esattamente. Il protone quindi decadrebbe. La probabilità che un quark
acquisti energia sufficiente è così piccola che in media si dovrebbe presumibilmente attendere almeno un milione di milioni di milioni di milioni di milioni di anni (1 seguito da trenta zeri). Questo periodo è molto più lungo del tempo trascorso dopo il big bang, che è di soli dieci miliardi di anni circa (1 seguito da dieci zeri). Si potrebbe quindi pensare che non esista la possibilità di verificare sperimentalmente la decadenza del protone. Si possono però accrescere le proprie probabilità di scoprire un tale decadimento osservando una grande quantità di materia contenente un numero grandissimo di protoni. (Se, per esempio, si osservasse un numero di protoni pari a 1 seguito da trentuno zeri per un periodo di un anno, ci si attenderebbe, secondo la GTU più semplice, di osservare più di un decadimento di un protone.) Sono stati eseguiti un certo numero di tali esperimenti, ma nessuno di essi ha fornito prove certe del decadimento del protone o del neutrone. In un esperimento, compiuto nella miniera di sale della società Morton, nell'Ohio, furono usate ottomila tonnellate d'acqua (per evitare che venissero registrati altri eventi, causati da raggi cosmici, che potessero essere confusi col decadimento del protone). Poiché nel corso dell'esperimento non fu osservato alcun decadimento spontaneo di protoni, si può calcolare che la vita probabile del protone debba essere di più di dieci milioni di milioni di milioni di milioni di milioni di anni (1 seguito da trentuno zeri). Questo periodo di tempo è più lungo della vita predetta dalla più semplice fra le grandi teorie unificate, ma ci sono teorie più complesse in cui la durata di vita predetta del protone è più lunga. Per verificarla occorreranno esperimenti ancor più sensibili implicanti quantità di materia ancora maggiori. Benché sia molto difficile osservare il decadimento spontaneo del protone, può anche darsi che la nostra stessa esistenza sia una conseguenza del processo inverso, la produzione di protoni, o più semplicemente di quark, da una situazione iniziale in cui non c'erano più quark di antiquark, che è il modo più naturale per immaginare l'inizio dell'universo. La materia sulla Terra è composta principalmente da protoni e neutroni, i quali sono composti a loro volta da quark. Non esistono antiprotoni o antineutroni, composti da antiquark, eccezion fatta per i pochi che i fisici producono nei
grandi acceleratori di particelle. Abbiamo prove, dai raggi cosmici, che lo stesso vale per tutta la materia nella nostra galassia: non vi esistono antiprotoni o anti-neutroni se si prescinde dai pochissimi che vengono prodotti sotto forma di coppie di particelle-antiparticelle in collisioni ad alte energie. Se nella nostra galassia ci fossero regioni estese di antimateria, dovremmo attenderci di osservare grandi quantità di radiazione dai confini fra le regioni di materia e di antimateria, dove le collisioni fra particelle e antiparticelle produrrebbero, in conseguenza della loro reciproca annichilazione, emissioni di radiazione ad alta energia. Non abbiamo prove dirette del fatto che la materia in altre galassie sia composta da protoni e neutroni o da antiprotoni e antineutroni, ma in ogni caso dev'essere composta o dagli uni o dagli altri: in una singola galassia non può esserci un misto di materia e antimateria, giacché in tal caso dovremmo osservare una grande quantità di radiazione prodotta da annichilazioni. Noi crediamo perciò che tutte le galassie siano composte da quark piuttosto che da antiquark; pare infatti assai poco plausibile che alcune galassie debbano essere composte da materia e altre da antimateria. Perché mai i quark dovrebbero essere in numero maggiore rispetto agli antiquark? Perché non sono in numero eguale? E senza dubbio una fortuna per noi che essi siano in numero molto diseguale poiché, se così non fosse, quasi tutti i quark e gli antiquark si sarebbero annichilati a vicenda nell'universo primordiale e sarebbe rimasto un universo ricco di radiazione ma assai povero di materia. Non ci sarebbero stati galassie, stelle o pianeti su cui potesse svilupparsi la vita umana. Per fortuna le grandi teorie unificate possono fornire una spiegazione del perché l'universo dovrebbe oggi contenere più quark che antiquark, anche ammesso che avesse avuto inizio con un numero uguale degli uni e degli altri. Come abbiamo visto, le GTU consentono ai quark, a energie elevate, di trasmutarsi in antielettroni. Esse permettono anche i processi inversi, la trasformazione di antiquark in elettroni, e di elettroni e antielettroni in antiquark e quark. Ci fu un tempo, nella primissima fase della vita dell'universo, in cui questo fu così caldo che l'energia delle particelle sarebbe stata abbastanza alta per consentire il verificarsi di queste trasformazioni. Ma perché mai questa situazione avrebbe dovuto condurre a un numero maggiore di quark che di antiquark?
La ragione è che le leggi della fisica non sono del tutto uguali per particelle e antiparticelle. Fino al 1956 si credette che le leggi della fisica obbedissero a ciascuna di tre simmetrie separate chiamate C, P e T. La simmetria C significa che le leggi sono uguali per particelle e antiparticelle. La simmetria P significa che le leggi sono uguali per ogni situazione e per la sua immagine speculare (l'immagine speculare di una particella con spin destrorso è una particella con spin sinistrorso). La simmetria T significa che, se si inverte la direzione del moto di tutte le particelle e antiparticelle, il sistema dovrebbe tornare a ciò che era ai primordi dell'universo; in altri termini, che le leggi sono le stesse nelle direzioni in avanti e ali'indietro del tempo. Nel 1956 due fisici americani di origine cinese, Tsung-Dao Lee e Chen Ning Yang, suggerirono che la forza debole non obbedisca in realtà alla simmetria P. In altri termini, la forza debole farebbe sviluppare l'universo in un modo diverso da quello in cui si svilupperebbe la sua immagine speculare. Lo stesso anno una loro collega, Chien-Shiung Wu, dimostrò che la loro predizione era corretta. Essa ottenne questo risultato allineando i nuclei di atomi radioattivi in un campo magnetico, così che avessero tutti lo spin orientato in una certa direzione, e mostrò che gli elettroni venivano emessi più in una direzione che in un'altra. L'anno seguente Lee e Yang ricevettero per la loro idea il Premio Nobel. Si trovò inoltre che la forza debole non obbediva alla simmetria C. In conseguenza di questo fatto un universo composto da antiparticelle si comporterebbe in modo differente dal nostro universo. Nondimeno, sembrava che la forza debole obbedisse alla simmetria combinata CP. In altri termini, l'universo si sarebbe sviluppato nello stesso modo della sua immagine speculare se, inoltre, ogni particella fosse stata scambiata con la sua antiparticella! Nel 1964, però, altri due americani J.W. Cronin e Val Fitch, scoprirono che persino la simmetria CP veniva violata nel decadimento di certe particelle chiamate mesoni K. Cronin e Fitch ricevettero infine il Premio Nobel per le loro ricerche nel 1980. (Una quantità di premi sono stati assegnati ai fisici che hanno dimostrato che l'universo non è così semplice come si sarebbe potuto pensare!) C'è un teorema matematico il quale dice che qualsiasi teoria che obbedisca alla meccanica quantistica e alla gravità deve sempre obbedire anche alla
simmetria combinata CPT. In altri termini, l'universo si comporterebbe nello stesso modo se si sostituissero le particelle con antiparticelle, se si prendesse l'immagine speculare e si rovesciasse inoltre la direzione del tempo. Cronin e Fitch dimostrarono però che, se si sostituiscono le particelle con antiparticelle e si prende l'immagine speculare, senza però rovesciare la direzione del tempo, l'universo non si comporta nello stesso modo. Le leggi della fisica, perciò, devono mutare se si rovescia la direzione del tempo: esse non obbediscono alla simmetria T. Senza dubbio l'universo primordiale non obbedì alla simmetria T: al passare del tempo esso si espanse: se il tempo andasse all'indietro, l'universo si contrarrebbe. E poiché ci sono forze che non obbediscono alla simmetria T, ne segue che, mentre l'universo si espande, tali forze potrebbero causare la trasformazione di più antielettroni in quark che di elettroni in antiquark. Quindi, nel corso dell'espansione e del raffreddamento dell'universo, gli antiquark dovettero annichilarsi con i quark, ma poiché c'erano più quark di antiquark rimase un piccolo eccesso dei primi. Sono i quark a comporre la materia che noi vediamo oggi e dalla quale siamo composti noi stessi. Così la nostra stessa esistenza potrebbe essere considerata una conferma delle grandi teorie unificate, anche se una conferma solo qualitativa; le incertezze sono tali che non si può predire il numero di quark che rimarrà dopo l'annichilazione, e neppure se le particelle che rimarranno saranno quark o antiquark. (Se ci fosse stato un eccesso di antiquark anziché di quark, noi avremmo semplicemente chiamato gli antiquark quark, e i quark antiquark.) Le grandi teorie unificate non comprendono la forza di gravità. Questo fatto non ha molta importanza, poiché la gravità è una forza così debole da poter essere in effetti di solito trascurata quando ci occupiamo di particelle elementari o atomi. Il fatto però che essa abbia un grande raggio d'azione e che sia sempre attrattiva comporta che tutti i suoi effetti si sommino. Così, in presenza di un numero abbastanza grande di particelle di materia, le forze gravitazionali possono dominare su tutte le altre forze. Ecco perché è la gravità a determinare l'evoluzione dell'universo. Persino nel caso di oggetti di dimensioni stellari, la forza attrattiva della gravità può sopraffare tutte le altre forze e causare il collasso gravitazionale. Le mie ricerche, negli anni Settanta, si concentrarono sui buchi neri che possono avere origine da un
tale collasso stellare e sugli intensi campi gravitazionali attorno ad essi. Da qui emersero i primi indizi sul modo in cui le teorie della meccanica quantistica e la relatività generale possono influire l'una sull'altra: un barlume della forma di una futura teoria quantistica della gravità.
6 I BUCHI NERI
Il termine buco nero (black hole) è di origine molto recente. Esso fu coniato nel 1969 dal fisico americano John Wheeler come descrizione efficace di un'idea risalente ad almeno due secoli prima, epoca in cui c'erano due teorie della luce: una — quella preferita da Newton — diceva che la luce era composta da particelle, mentre secondo l'altra essa era costituita da onde. Noi oggi sappiamo che in realtà entrambe le teorie sono corrette. In virtù della dualità onda-particella della meccanica quantistica, la luce può essere considerata come formata sia da onde sia da particelle. Nella teoria ondulatoria non era chiaro in che modo la luce rispondesse alla gravità. Se però la luce è composta da particelle, ci si poteva attendere che essa risentisse della gravità nello stesso modo in cui ne risentono palle di cannone, razzi e pianeti. Dapprima si ritenne che la luce avesse una velocità di propagazione infinitamente grande, cosicché la gravità non fosse in grado di rallentarla, ma la scoperta, per opera di Römer, che la luce si propaga a velocità finita comportava che la gravità potesse avere un effetto importante. Sulla base di questo assunto, un docente di Cambridge, John Michell, pubblicò nel 1783 nelle «Philosophical Transactions of the Royal Society of London» un saggio in cui sottolineava che una stella di massa e densità sufficientemente grandi avrebbe avuto un campo gravitazionale così forte che la luce non avrebbe potuto sfuggirne; qualsiasi raggio di luce emesso dalla superficie della stella sarebbe stato trascinato all'indietro
dall'attrazione gravitazionale della stella prima di potersi spingere molto lontano. Michell suggerì che poteva esistere un gran numero di stelle con tali caratteristiche. Pur non essendo in grado di vederle, poiché la luce che ne emana non potrebbe giungere fino a noi, potremmo però ancora percepirne l'attrazione gravitazionale. Noi chiamiamo oggi tali oggetti celesti buchi neri, poiché proprio questo essi sono: vuoti neri nello spazio. Un suggerimento simile fu fatto qualche anno dopo dallo scienziato francese Pierre-Simon de Laplace, a quanto pare indipendentemente da Michell. Fatto abbastanza interessante, Laplace lo incluse solo nella prima e nella seconda edizione della Exposition du système du monde, lasciandolo fuori dalle edizioni successive, forse per essersi convinto che era un'idea assurda. (Si deve aggiungere che nel corso dell'Ottocento la teoria corpuscolare della luce cadde in discredito; sembrava che la teoria ondulatoria potesse spiegare tutto, e nella teoria ondulatoria non era affatto chiaro che la luce dovesse risentire dell'azione della forza di gravità.) In realtà nella teoria della gravità di Newton è un po' contraddittorio trattare la luce a somiglianza di palle di cannone, poiché la velocità della luce è fissa. (Una palla di cannone sparata dalla Terra verso l'alto sarà rallentata dalla gravità e infine si arresterà e invertirà il suo moto, mentre un fotone continuerebbe a muoversi verso l'alto a velocità costante. In che modo, quindi, la gravità newtoniana potrebbe incidere sulla luce?) Una teoria coerente del modo in cui la gravità incide sulla luce si ebbe solo quando Einstein propose la relatività generale nel 1915. E anche dopo di allora dovette passare molto tempo prima che si comprendessero le implicazioni della teoria per le stelle di grande massa. Per capire in che modo potrebbe formarsi un buco nero, dobbiamo innanzitutto capire il ciclo di vita di una stella. Una stella si forma quando una grande quantità di gas (per lo più idrogeno) comincia a contrarsi in conseguenza della sua attrazione gravitazionale. Nel corso del collasso gli atomi di gas entrano in collisione fra loro sempre più frequentemente e a velocità sempre maggiori: il gas si riscalda. Infine, la temperatura sarà così elevata che quando gli atomi di idrogeno si urtano non rimbalzano più ma si fondono assieme a formare elio. Al calore liberato in questa reazione, che è simile a un'esplosione di una bomba a idrogeno controllata, si deve lo
splendore della stella. Anche questo calore aggiuntivo aumenta la pressione del gas finché questa è sufficiente a controbilanciare l'attrazione gravitazionale, e il gas smette di contrarsi. E un po' come nel caso di un palloncino: c'è un equilibrio fra la pressione dell'aria al suo interno, la quale cerca di farlo espandere, e la tensione nella gomma, la quale cerca di rimpicciolirlo. Grazie a un meccanismo simile a questo, le stelle rimangono stabili per molto tempo, ossia fino a quando il calore generato dalle reazioni nucleari al loro interno controbilanciano l'attrazione gravitazionale. Infine, però, la stella esaurirà la sua riserva di idrogeno e di altri combustibili nucleari. Paradossalmente, quanto maggiore è la scorta di combustibile con cui una stella comincia la sua evoluzione, tanto prima lo esaurirà. Questo perché quanto maggiore è la massa di una stella tanto più elevata dev'essere la sua temperatura per controbilanciare la sua attrazione gravitazionale. E quanto più calda è una stella tanto più rapidamente consumerà il suo combustibile. Il Sole ha probabilmente abbastanza combustibile per alimentare le sue reazioni nucleari per altri cinque miliardi di anni circa, ma stelle di massa maggiore possono dar fondo a tutto il loro combustibile in soli cento milioni di anni, un periodo molto minore dell'età attuale dell'universo. Quando una stella esaurisce il suo combustibile, comincia a raffreddarsi e a contrarsi. Si cominciò a capire che cosa potrebbe accaderle solo alla fine degli anni Venti. Nel 1928 uno studente universitario indiano, Subrahmanyan Chandrasekhar, partì per l'Inghilterra per andare a studiare a Cambridge con l'astronomo britannico sir Arthur Eddington, un esperto sulla relatività generale. (Secondo una testimonianza, all'inizio degli anni Venti un giornalista disse a Eddington di aver sentito dire che al mondo c'erano solo tre persone che capivano la relatività generale. Eddington rimase un istante sovrappensiero, e poi rispose: «Sto cercando di immaginare chi possa essere la terza».) Durante il viaggio dall'India alla Gran Bretagna, Chandrasekhar calcolò quale massa avrebbe dovuto avere una stella per poter resistere al collasso gravitazionale dopo aver consumato tutto il suo combustibile. L'idea era questa: quando la stella si contrae, le particelle di materia vengono a trovarsi molto vicine 1' una all'altra; perciò, secondo il principio di esclusione di Pauli, devono avere velocità diverse. In conseguenza di questo
fatto esse si allontanano l'una dall'altra, cosicché la stella tende a espandersi. Una stella può perciò mantenersi a un raggio costante in virtù di un equilibrio fra l'attrazione gravitazionale e la repulsione derivante dal principio di esclusione, esattamente come, nella prima parte della sua vita, la gravità era controbilanciata dal calore. Chandrasekhar si rese conto però che c'è un limite alla repulsione prevista dal principio di esclusione." La teoria della relatività limita la differenza massima nelle velocità delle particelle materiali nella stella alla velocità della luce. Ciò significa che, quando la stella diventa abbastanza densa, la repulsione causata dal principio di esclusione sarebbe meno intensa dell'attrazione gravitazionale. Chandrasekhar calcolò che una stella fredda di massa superiore a circa una volta e mezza la massa del Sole non sarebbe in grado di sostenersi contro la propria gravità. (Questa massa è nota oggi come il limite di Chandrasekhar.) Una scoperta simile fu compiuta press'a poco nello stesso tempo dallo scienziato russo Lev Davidovič Landau. Questo fatto aveva gravi implicazioni per la sorte ultima di stelle di grande massa. Se la massa di una stella è inferiore al limite di Chandrasekhar, la stella può infine cessare di contrarsi e stabilizzarsi in un possibile stato finale sotto forma di una «nana bianca» con un raggio di alcune migliaia di chilometri e una densità di centinaia di tonnellate per centimetro cubico. Una nana bianca è sostenuta contro il collasso gravitazionale dalla repulsione prevista dal principio di esclusione fra gli elettroni nella sua materia. Noi osserviamo un gran numero di queste nane bianche. Una delle prime a essere scoperta fu una nana bianca che orbita attorno a Sirio, la stella più luminosa nel cielo notturno. Landau sottolineò che c'era un altro stato finale possibile per una stella con una massa limite di circa una o due masse solari, contratta però sino a dimensioni molto più piccole di quelle di una nana bianca. Anche queste stelle sarebbero state sostenute dalla repulsione prevista dal principio di esclusione di Pauli, in questo caso operante però fra neutroni e protoni anziché fra elettroni. Queste stelle furono chiamate perciò stelle di neutroni. Esse dovevano avere un raggio di soli quindici chilometri circa e una densità di centinaia di milioni di tonnellate per centimetro cubico. All'epoca in cui fu predetta per la prima volta la loro esistenza non c'era alcun modo per
osservarle. Esse furono in effetti scoperte solo molto tempo dopo. Le stelle con massa superiore al limite di Chandrasekhar, d'altra parte, quando pervengono a esaurire il loro combustibile si trovano ad affrontare un grave problema. In alcuni casi esse possono esplodere, o riuscire a proiettare all'intorno una quantità di materia bastante a ridurre la loro massa al di sotto di quel limite — evitando in tal modo un collasso gravitazionale catastrofico —, ma sarebbe difficile credere che ciò possa accadere sempre per quanto grande sia la stella. In che modo, del resto, la stella potrebbe sapere di dover perdere peso? E quand'anche ogni stella riuscisse a perdere abbastanza massa da evitare il collasso, che cosa accadrebbe se si aggiungesse altra massa a una nana bianca o a una stella di neutroni, in modo da far loro superare il limite? Si contrarrebbero fino a raggiungere una densità infinita? Eddington fu impressionato da questa implicazione e si rifiutò di credere al risultato di Chandrasekhar. Egli pensava semplicemente che una stella non potesse contrarsi fino a un punto privo di dimensioni. Questa era l'opinione della maggior parte degli scienziati: lo stesso Einstein scrisse un articolo in cui sostenne che una stella non si sarebbe contratta sino a dimensioni zero. L'ostilità di altri scienziati, e in particolare di Eddington, suo ex-maestro e principale autorità sulla struttura delle stelle, convinse Chandrasekhar ad abbandonare questa linea di ricerca e a rivolgersi invece allo studio di altri problemi in astronomia, come il moto degli ammassi stellari. Quando però ricevette il Premio Nobel, nel 1983, fu, almeno in parte, per le sue prime ricerche sulla massa limite delle stelle fredde. Chandrasekhar aveva mostrato che il principio di esclusione non poteva arrestare il collasso gravitazionale di una stella di massa superiore al limite da lui calcolato, ma il problema di capire che cosa sarebbe accaduto a una stella del genere, secondo la relatività generale, fu risolto per la prima volta da un giovane americano, Robert Oppenheimer, nel 1939. Il suo risultato suggeriva, però, che non ci sarebbero state conseguenze d'osservazione accessibili ai telescopi del tempo. Scoppiata la seconda guerra mondiale, lo stesso Oppenheimer fu strettamente coinvolto nel progetto della bomba atomica. Dopo la guerra il problema del collasso gravitazionale fu in gran parte dimenticato poiché l'interesse della maggior parte degli scienziati fu
assorbito da ciò che accade alla scala dell'atomo e del suo nucleo. Negli anni Sessanta, però, problemi di grande scala di astronomia e di cosmologia tornarono al centro dell'attenzione in conseguenza di un grande aumento del numero e della varietà delle osservazioni astronomiche determinato dall'applicazione della moderna tecnologia. Il contributo di Oppenheimer fu allora riscoperto ed esteso da vari scienziati. Il quadro fornitoci dalla ricerca di Oppenheimer è il seguente: il campo gravitazionale della stella modifica la traiettoria dei raggi di luce nello spazio-tempo rispetto a quella che sarebbe stata in assenza della stella. I coni di luce, che indicano le traiettorie seguite nello spazio e nel tempo dai lampi di luce emessi dal loro vertice, passando in prossimità della superficie della stella vengono deflessi leggermente verso l'interno. Questo fenomeno della deflessione della luce proveniente da stelle lontane può essere osservato durante un'eclisse di Sole. Man mano che la stella si contrae, il campo gravitazionale alla sua superficie diventa più intenso e i coni di luce si incurvano sempre più verso l'interno. Ciò rende più difficile alla luce della stella di allontanarsene, e la sua radiazione appare quindi sempre più debole e rossa a un osservatore lontano. Infine, quando la stella si è contratta sino a un certo raggio critico, il campo gravitazionale alla sua superficie diventa così intenso che i coni di luce vengono piegati verso l'interno a tal punto che la luce non può più evadere nello spazio (fig. 6.1). Secondo la teoria della relatività, nulla può viaggiare a una velocità superiore a quella della luce. Se quindi la luce non può sottrarsi a un buco nero, non ci riuscirà alcun'altra cosa; tutto viene trascinato all'indietro dal possente campo gravitazionale. Si ha dunque un insieme di eventi, una regione dello spazio-tempo, da cui non è possibile sfuggire per raggiungere un osservatore lontano. Questa regione è ciò che noi oggi chiamiamo un buco nero. Il suo confine è noto come l'orizzonte degli eventi e coincide con le traiettorie di raggi di luce che sono quasi sul punto di riuscire a fuggire dal buco nero.
Per capire che cosa vedremmo se potessimo osservare il collasso di una stella avviata a diventare un buco nero, dobbiamo ricordare che nella teoria della relatività non esiste un tempo assoluto. Ogni osservatore ha la sua propria misura del tempo. Il tempo, per chi si trovasse su una stella, sarebbe diverso che per un osservatore lontano, a causa del campo gravitazionale della stella stessa. Supponiamo che un intrepido astronauta sulla superficie della stella che sta subendo il collasso gravitazionale, precipitando all'interno con i materiali dell'astro in contrazione, inviasse un segnale ogni secondo, misurando il tempo col suo orologio, alla sua nave spaziale orbitante attorno alla stella. A una certa ora sul suo orologio, diciamo alle 11:00, la stella si contrae al di sotto del raggio critico in corrispondenza del quale il campo gravitazionale diventa così intenso che nulla può sfuggirne, e i suoi segnali non riescono più a lasciare la stella e raggiungere l'astronave. All'approssimarsi delle 11:00 i suoi compagni sull' astronave troverebbero che gli intervalli di tempo fra i singoli segnali diventano sempre più lunghi, ma quest'effetto sarebbe ancora molto piccolo prima delle 10:59:59. Essi dovrebbero attendere solo poco più di un secondo fra il segnale delle 10:59:58 e quello inviato dall'astronauta quando il suo orologio segnava le 10:59:59, ma dovrebbero attendere per tutta l'eternità per ricevere il segnale delle 11:00. Le onde luminose emesse dalla superficie della stella fra le 10:59:59 e le 11:00, secondo l'orologio dell'astronauta, si disperderebbero su un periodo di tempo infinito, secondo il punto d'osservazione dell'astronave. L'intervallo di tempo fra l'arrivo all'astronave di onde successive crescerebbe sempre più cosicché la luce proveniente dalla stella apparirebbe sempre più rossa e sempre più debole. Infine la stella sarebbe così debole da non essere più osservabile dall'astronave: tutto ciò che resterebbe sarebbe un buco nero nello spazio. La stella continuerebbe però a esercitare la stessa attrazione gravitazionale sulla nave spaziale, la quale continuerebbe a orbitare attorno al buco nero. Questo modo di presentare le cose non è però del tutto realistico a causa del problema seguente. La gravità si indebolisce sempre più quanto più ci si allontana dalla stella, cosicché la forza gravitazionale che si esercita sui piedi del nostro intrepido astronauta sarebbe sempre maggiore di quella che si esercita sulla sua testa. La differenza fra le forze è tale da stirare il nostro
astronauta come una fettuccina o da strapparlo in due o più parti prima che la stella si sia contratta fino al raggio critico a cui si forma l'orizzonte degli eventi! Noi crediamo però che nell'universo ci siano oggetti molto più grandi, come le regioni centrali di galassie, che possono subire anch'essi il collasso gravitazionale per produrre buchi neri; un astronauta che si trovasse in una di queste regioni non sarebbe lacerato prima della formazione del buco nero. Egli non sentirebbe in effetti niente di speciale nel raggiungere il raggio critico, e potrebbe superare il punto di non ritorno senza neppure accorgersene. In capo a poche ore, però, al continuare del collasso gravitazionale della regione, la differenza nelle forze gravitazionali che si esercitano sulla sua testa e sui suoi piedi diventerebbe così grande da farlo di nuovo a pezzi. Le ricerche compiute fra il 1965 e il 1970 da Roger Penrose e da me dimostrarono che, secondo la relatività generale, in un buco nero dev'esserci una singolarità di densità e di curvatura dello spazio-tempo infinite. Un buco nero è un po' come il big bang all'inizio del tempo, solo che sarebbe una fine del tempo per il corpo che subisce il collasso e per l'astronauta. In questa singolarità le leggi della scienza e la nostra capacità di predire il futuro verrebbero meno. Un osservatore che si trovasse fuori del buco nero non risentirebbe però di questo venir meno della predicibilità, poiché dalla singolarità non potrebbero giungergli né la luce né alcun altro segnale. Questo fatto notevole condusse Roger Penrose a proporre l'ipotesi della censura cosmica, che potrebbe essere parafrasata con la frase seguente: «Dio aborre una singolarità nuda». In altri termini, le singolarità prodotte dal collasso gravitazionale si verificano solo in luoghi — come i buchi neri — dove sono pudicamente nascoste a ogni osservatore esterno da un orizzonte degli eventi. A rigore, questa teoria è nota come ipotesi debole della censura cosmica: essa protegge gli osservatori che rimangono all'esterno del buco nero dalle conseguenze del venir meno della predicibilità che si verifica nella singolarità, ma non comporta nessun beneficio del genere per lo sventurato astronauta che cade dentro il buco. Ci sono alcune soluzioni delle equazioni della relatività generale in cui per il nostro astronauta è possibile vedere una singolarità nuda: potrebbe accadere che egli riuscisse a evitare di colpire la singolarità e precipitasse
invece in un «cunicolo» (wormhole) per andare a uscire in un'altra regione dell'universo. Questo fatto offrirebbe grandi possibilità per i viaggi nello spazio e nel tempo, ma purtroppo pare che debba trattarsi in ogni caso di soluzioni altamente instabili; il minimo disturbo, come la presenza di un astronauta, potrebbe modificarle, così che l'astronauta potrebbe non vedere la singolarità finché non fosse in contatto con essa, nel qual caso il suo tempo finirebbe. In altri termini la singolarità sarebbe sempre nel suo futuro e mai nel suo passato. La versione forte dell'ipotesi della censura cosmica afferma che, in una soluzione realistica, le singolarità si troverebbero sempre o interamente nel futuro (come le singolarità del collasso gravitazionale) o interamente nel passato (come il big bang). Si deve sperare che una qualche versione dell'ipotesi della censura si riveli valida perché vicino a singolarità nude potrebbe essere possibile compiere viaggi nel passato. Anche se questa potrebbe essere una bella cosa per gli scrittori di fantascienza, significherebbe però anche che non sarebbe mai sicura la vita di nessuno: qualcuno potrebbe infatti andare nel passato e uccidere tuo padre o tua madre prima che tu fossi concepito! L'orizzonte degli eventi, la regione di confine dello spazio-tempo da cui non è possibile evadere, agisce un po' come una membrana unidirezionale attorno al buco nero: qualche oggetto, come astronauti imprudenti, potrebbe cadere attraverso l'orizzonte degli eventi nel buco nero, ma nulla potrebbe mai valicare lo stesso confine in uscita dal buco nero. (Si ricordi che l'orizzonte degli eventi è il percorso nello spazio-tempo di luce che cerca invano di evadere dal buco nero, e nulla può viaggiare più veloce della luce.) Si potrebbero ben dire dell'orizzonte degli eventi le parole che Dante vide scritte sopra la porta dell'Inferno: «Lasciate ogni speranza, voi ch'entrate» [I, 3:3]. Qualunque cosa o chiunque cadesse attraverso l'orizzonte degli eventi raggiungerebbe ben presto la regione di densità infinita e la fine del tempo. La relatività generale predice che oggetti pesanti in movimento causeranno l'emissione di onde gravitazionali, increspature nella curvatura dello spazio che viaggiano alla velocità della luce. Queste onde sono simili alle onde luminose, le quali sono increspature del campo elettromagnetico, ma sono molto più difficili da scoprire. Come la luce, le onde gravitazionali trasportano via energia dagli oggetti che le emettono. Ci si attenderebbe
perciò che un sistema di oggetti dotati di massa venisse infine a stabilizzarsi in uno stato stazionario, perché in ogni momento verrebbe trasportata via energia attraverso l'emissione di onde gravitazionali. (E un po' come quando si lascia cadere in acqua un turacciolo: dapprima esso oscilla su e giù per un po' di tempo, ma poiché le onde trasportano via la sua energia, esso si fermerà infine in uno stato stazionario.) Per esempio, il movimento della Terra nella sua orbita attorno al Sole produce onde gravitazionali. La perdita continua di energia avrà l'effetto di modificare l'orbita della Terra così che gradualmente essa si avvicinerà sempre più al Sole, fino a entrare in collisione con esso e stabilizzarsi in uno stato stazionario. Il ritmo della perdita di energia nel caso della Terra e del Sole è molto basso: grosso modo sufficiente ad alimentare un piccolo scaldino elettrico. Ciò significa che la Terra impiegherà circa mille milioni di milioni di milioni di milioni di anni per precipitare nel Sole, cosicché non c'è alcuna ragione immediata di preoccuparsi! Il mutamento nell'orbita della Terra in conseguenza di questa perdita di energia gravitazionale è troppo piccolo per essere osservabile, ma nel corso degli ultimi anni questo stesso effetto è stato osservato nel sistema chiamato PSR 1913 + 16 (qui PSR sta per «pulsar», un tipo speciale di stella di neutroni che emette impulsi regolari di radioonde). Questo sistema contiene due stelle di neutroni che orbitano l'una attorno all'altra, e l'energia che esse perdono per mezzo dell'emissione di onde gravitazionali determina il movimento a spirale di avvicinamento l'una all'altra che esse presentano. Durante il collasso gravitazionale di una stella avviata a formare un buco nero, i movimenti sarebbero molto più rapidi, cosicché il ritmo di perdita di energia sarebbe molto maggiore. La stella impiegherebbe perciò un tempo non molto lungo prima di stabilizzarsi in uno stato stazionario. Come sarebbe questo stadio finale? Si potrebbe supporre che esso dipenda da tutti i caratteri complessi della stella che gli hanno dato origine: non solo la sua massa e la sua rapidità di rotazione, ma anche le diverse densità delle sue varie parti, e i complicati movimenti dei gas al suo interno. E se i buchi neri fossero così diversi fra loro come gli oggetti dal cui collasso traggono origine, potrebbe essere molto difficile fare predizioni sui buchi neri in generale.
Nel 1967, però, lo studio dei buchi neri fu rivoluzionato da Werner Israel, uno scienziato canadese (che, nato a Berlino, era stato allevato in Sudafrica e aveva preso la laurea in Irlanda). Israel mostrò che, secondo la relatività generale, i buchi neri non rotanti dovrebbero essere molto semplici, perfettamente sferici e le loro dimensioni dovrebbero dipendere solo dalla loro massa, tanto che due buchi neri non rotanti con la stessa massa sarebbero identici. Essi potrebbero essere descritti in effetti da una particolare soluzione delle equazioni di Einstein che era stata nota sin dal 1917, essendo stata trovata da Karl Schwarzschild poco tempo dopo la scoperta della relatività generale. Dapprima molte persone, fra cui lo stesso Israel, sostennero che, dato che i buchi neri dovevano essere perfettamente sferici, un buco nero poteva formarsi solo dal collasso di un oggetto perfettamente sferico. Poiché nessuna stella sarebbe mai perfettamente sferica, qualsiasi stella reale potrebbe contrarsi solo a formare una singolarità nuda. Ci fu però un'interpretazione diversa del risultato di Israel, propugnata in particolare da Roger Penrose e da John Wheeler. Essi sostennero che, in conseguenza dei rapidi movimenti associati al collasso di una stella, le onde gravitazionali da essa emesse tenderebbero a conferirle una forma sempre più sferica e che, una volta che essa si fosse stabilizzata nello stato stazionario, sarebbe esattamente sferica. Secondo quest'opinione qualsiasi stella non rotante, per quanto complicate potessero essere la sua forma e la sua struttura interna, diventerebbero infine, dopo il collasso gravitazionale, un buco nero perfettamente sferico, le cui dimensioni dipenderebbero solo dalla sua massa. Altri calcoli corroborarono quest'opinione che fu ben presto adottata universalmente. Il risultato di Israel concerneva il caso di buchi neri formati esclusivamente da corpi non rotanti. Nel 1963 il neozelandese Roy Kerr trovò un insieme di soluzioni delle equazioni della relatività generale che descrivevano buchi neri rotanti. Questi buchi neri «di Kerr» ruotano a una velocità costante, e le loro dimensioni e forma dipendono solo dalla loro massa e velocità di rotazione. Se la rotazione è zero, il buco nero è perfettamente sferico e la soluzione è identica a quella di Schwarzschild. Se la rotazione è diversa da zero, il buco nero presenta un rigonfiamento equatoriale (proprio come la
Terra e il Sole in conseguenza della loro rotazione), e quanto più veloce è la sua rotazione tanto più pronunciato è il suo rigonfiamento. Così, per estendere il risultato di Israel a comprendere i corpi rotanti, si congetturò che qualsiasi corpo rotante che si fosse contratto a formare un buco nero si sarebbe infine stabilizzato in uno stato stazionario descritto dalla soluzione di Kerr. Nel 1970 un mio collega e allievo a Cambridge, Brandon Carter, fece il primo passo verso la dimostrazione di questa congettura. Egli mostrò che, purché un buco nero stazionario rotante avesse avuto un asse di simmetria, come per esempio una trottola, le sue dimensioni e la sua forma sarebbero dipese solo dalla sua massa e dalla sua velocità di rotazione. Poi, nel 1971, io dimostrai che qualsiasi corpo nero stazionario rotante avrebbe posseduto in effetti un tale asse di simmetria. Nel 1973, infine, David Robinson al Kings College a Londra usò i risultati di Carter e i miei per mostrare che la congettura era corretta: un tale buco nero doveva essere in effetti la soluzione di Kerr. Così, dopo il collasso gravitazionale un buco nero doveva stabilizzarsi in uno stato in cui poteva ruotare ma non pulsare. Inoltre, le sue dimensioni e la sua forma sarebbero dipese solo dalla sua massa e dalla sua velocità di rotazione e non dalla natura del corpo dal cui collasso gravitazionale aveva avuto origine. Questo risultato ha una grande importanza pratica in quanto limita grandemente i tipi possibili di buchi neri. E perciò possibile costruire modelli dettagliati di oggetti che potrebbero contenere buchi neri e confrontare le predizioni dei modelli con le osservazioni. Ciò significa anche che, quando si forma un buco nero, una grandissima quantità di informazioni sul corpo che ha subito il collasso deve andare inevitabilmente perduta, poiché tutto ciò che da quel momento in poi potremo misurare sul corpo saranno la sua massa e la sua velocità di rotazione. Vedremo il significato di tutto nel capitolo seguente. I buchi neri sono uno dei casi piuttosto rari nella storia della scienza in cui una teoria fu sviluppata con una certa minuziosità come modello matematico prima che le osservazioni potessero offrire qualche prova della sua correttezza. Proprio questo fu, in effetti, il principale argomento degli oppositori dei buchi neri: come si poteva credere nell'esistenza di oggetti a favore dei quali c'erano solo calcoli fondati sulla dubbia teoria della
relatività generale? Nel 1963, però, Maarten Schmidt, astronomo all'osservatorio di Palomar, in California, misurò lo spostamento verso il rosso di un debole oggetto di aspetto stellare, in direzione della radiosorgente 3C273 (ossia della sorgente elencata al numero 273 del terzo catalogo di radiosorgenti di Cambridge). Egli trovò che lo spostamento verso il rosso era troppo grande per poter essere causato da un campo gravitazionale: se si fosse trattato di un red shift di origine gravitazionale, l'oggetto avrebbe dovuto avere una massa così grande, e trovarsi a una distanza da noi così piccola, da perturbare le orbite dei pianeti del sistema solare. Era ovvio concluderne che, nel caso in questione, lo spostamento verso il rosso fosse causato invece dall'espansione dell'universo, cosa che comportava, a sua volta, che l'oggetto dovesse essere molto, molto lontano. E, per essere visibile a una distanza tanto grande, doveva essere molto luminoso, ossia, in altri termini, doveva emettere una quantità enorme di energia. L'unico meccanismo concepibile in grado di produrre quantità di energia tanto grandi sembrava essere il collasso gravitazionale non solo di una stella bensì di un'intera regione centrale di una galassia. Vari altri oggetti simili, «quasi stellari», o quasar, sono stati scoperti nel frattempo, e le loro emissioni presentavano invariabilmente grandi spostamenti verso il rosso. Essi sono però tutti troppo lontani, e perciò troppo difficili da osservare, per poter fornire prove conclusive dell'esistenza dei buchi neri. Altri indizi a sostegno dell'esistenza dei buchi neri vennero nel 1967 con la scoperta — per opera di una studentessa ricercatrice a Cambridge, Jocelyn Bell — di oggetti celesti che emettevano impulsi regolari di onde radio. In un primo tempo Bell e il suo supervisore, il professor Antony Hewish, pensarono addirittura alla possibilità di avere stabilito un contatto con una civiltà extraterrestre nella Galassia! Ricordo in effetti che, al seminario in cui annunciarono la loro scoperta, essi chiamarono le prime quattro sorgenti scoperte LGM 1-4, dove LGM stava per «Little Green Men», «omini verdi». Infine però gli scopritori, come tutti gli altri, vennero alla conclusione meno romantica che tali oggetti, cui venne dato il nome di pulsar, erano in realtà stelle di neutroni in rapidissima rotazione, i quali emettevano impulsi in frequenze radio in conseguenza di una complicata interazione fra i loro campi magnetici e la materia circostante. Queste erano cattive notizie per
gli autori di western dello spazio, ma suscitarono grandi speranze nel piccolo numero di coloro che a quel tempo credevano nei buchi neri: quella era infatti la prima prova concreta dell'esistenza di stelle di neutroni. Una stella di neutroni ha un raggio di circa 15 chilometri, ossia solo di poco superiore al raggio critico in corrispondenza del quale una stella diventa un buco nero. Se una stella, in seguito al collasso gravitazionale, aveva potuto contrarsi sino a raggiungere dimensioni così piccole, non era irragionevole attendersi che altre stelle potessero contrarsi sino a dimensioni ancora più piccole e diventare buchi neri. Come potevamo sperare di scoprire un buco nero se questi oggetti, per definizione, non emettono luce? Potrebbe sembrare un'impresa simile a quella di cercare un gatto nero in una carbonaia. Per fortuna c'è un modo. Come sottolineò nel 1783 John Michell in un articolo pionieristico, un buco nero esercita ancora una forza gravitazionale sugli oggetti vicini. Gli astronomi hanno osservato molti sistemi in cui due stelle orbitano attorno a un baricentro comune, attratte l'una dalla forza di gravità dell'altra. Essi hanno osservato anche sistemi in cui c'è una sola stella visibile che orbita attorno a una compagna invisibile. Non si può, ovviamente, saltare subito alla conclusione che la compagna è un buco nero; potrebbe essere infatti una stella troppo debole per risultare visibile. Alcuni di questi sistemi, come quello chiamato Cygnus X-l (fig. 6.2), sono però anche intense sorgenti di raggi X. La spiegazione migliore di questo fenomeno è che dalla superficie della stella visibile sia stata soffiata via della materia. Cadendo verso la compagna invisibile, questa materia sviluppa un movimento a spirale (simile a quello dell'acqua di una vasca da bagno quando si sta svuotando) e diventa molto calda, emettendo raggi X (fig. 6.3). Perché questo meccanismo funzioni, l'oggetto invisibile dev'essere molto piccolo, come una nana bianca, una stella di neutroni o un buco nero. Sulla base dell'orbita osservata della stella visibile si può determinare la massa minima possibile dell'oggetto che si sottrae all'osservazione. Nel caso di Cygnus X-l questa massa è circa sei volte maggiore della massa del Sole; si tratta dunque di una massa troppo grande, secondo i valori fissati da Chandrasekhar, perché l'oggetto invisibile possa essere una nana bianca. Essa è troppo grande anche perché possa trattarsi di una stella di neutroni. Pare, perciò, che ci
troviamo veramente in presenza di un buco nero. Ci sono altri modelli che spiegano la sorgente Cygnus X-1 senza far ricorso ai buchi neri, ma sono tutti piuttosto forzati. Pare dunque che un buco nero sia l'unica spiegazione veramente naturale delle osservazioni. Nonostante ciò ho scommesso con Kip Thorne, del California Institute of Technology, che in realtà il sistema Cygnus X-1 non contiene un buco nero! Questa è per me una sorta di polizza di assicurazione. Io ho lavorato molto sui buchi neri e sarebbe tutto tempo sprecato se risultasse che i buchi neri non esistono. In tal caso avrei però la consolazione di aver vinto la scommessa, cosa che mi porterebbe quattro anni di abbonamento alla rivista «Private Eye». Se i buchi neri esistono, Kip avrà invece un abbonamento per un anno a «Penthouse». Quando facemmo la scommessa, nel 1975, eravamo certi all'80 per cento che Cygnus X-l fosse un buco nero. Oggi direi che siamo
sicuri al 95 per cento, ma la scommessa non si può ancora dire decisa. Al presente abbiamo prove anche dell'esistenza di vari altri buchi neri in sistemi simili a Cygnus X-l nella nostra galassia e in due galassie vicine, le Nubi di Magellano. Il numero dei buchi neri è però quasi certamente molto più elevato; nella lunga storia dell'universo molte stelle devono avere esaurito tutto il loro combustibile nucleare ed essere quindi andate incontro all'inevitabile collasso. Il numero dei buchi neri potrebbe benissimo essere maggiore di quello delle stelle visibili, cosa che significherebbe un totale di cento miliardi di buchi neri nella sola Galassia. L'attrazione gravitazionale extra di un numero così grande di buchi neri potrebbe spiegare perché la nostra galassia abbia proprio la velocità di rotazione che ha. La massa delle stelle visibili è infatti insufficiente a renderne ragione. Possediamo anche qualche prova del fatto che al centro della nostra galassia c'è un buco nero molto maggiore, con una massa circa centomila volte maggiore di quella del Sole. Le stelle della Galassia che si avvicinano troppo a questo buco nero vengono lacerate dalla differenza fra le forze gravitazionali che sì esercitano sulla loro faccia vicina e su quella lontana. I resti di queste stelle, e i gas emessi da altre stelle, cadranno verso il buco nero. Come nel caso di Cygnus X-l, il gas scenderà spiraleggiando e si riscalderà, anche se in misura molto minore. Esso non si riscalderà infatti quanto basta per emettere raggi X, ma potrebbe spiegare la sorgente molto compatta di onde radio e di raggi infrarossi che si osserva nel centro galattico. Si pensa che buchi neri simili ma ancora più grandi, con massa cento milioni di volte maggiore della massa del Sole, si trovino al centro dei quasar. Solo la materia che cade in un buco nero di massa così enorme può fornire energia a sufficienza per spiegare la straordinaria intensità dell'emissione di questi oggetti. Scendendo a spirale nel buco nero, la materia determinerebbe anche la rotazione del buco nero nella stessa direzione, con lo sviluppo di un campo magnetico in qualche misura simile a quello della Terra. Particelle di energia elevatissima verrebbero generate in prossimità del buco nero dalla materia che cade in esso. Il campo magnetico sarebbe così forte da poter concentrare queste particelle in getti espulsi verso l'esterno lungo l'asse di rotazione del buco nero, ossia nella direzione dei suoi poli nord e sud. Getti con queste caratteristiche vengono effettivamente osservati in varie galassie
e quasar.
Si può considerare anche la possibilità che esistano buchi neri di massa molto minore di quella del Sole. Buchi neri di questo genere non potrebbero essersi formati in conseguenza del collasso gravitazionale, poiché la loro massa è inferiore alla massa critica di Chandrasekhar: stelle di massa così modesta potrebbero resistere contro l'azione della forza di gravità anche dopo avere esaurito il loro combustibile nucleare. Buchi neri di piccola massa potrebbero formarsi solo se della materia fosse compressa in densità enormi da pressioni esterne molto grandi. Condizioni del genere possono
darsi in una bomba a idrogeno molto grande: il fisico John Wheeler calcolò una volta che, se si estraesse tutta l'acqua pesante da tutti gli oceani del mondo, si potrebbe costruire una bomba a idrogeno in grado di comprimere la materia al suo centro in misura tale da creare un buco nero. (In tal caso, ovviamente, non resterebbe nessuno a osservarlo!) Una possibilità più pratica è che buchi neri di massa così piccola si siano formati nelle condizioni di temperatura e pressione elevatissime della primissima fase della vita dell'universo. In una tale situazione avrebbero potuto formarsi buchi neri solo se l'universo non fosse stato perfettamente omogeneo e uniforme, poiché solo una piccola regione più densa della media avrebbe potuto comprimersi in questo modo a formare un buco nero. Sappiamo però che deve esserci stata qualche irregolarità, poiché altrimenti la materia nell'universo dovrebbe essere distribuita ancor oggi in modo perfettamente uniforme, anziché essere aggregata in stelle e galassie. Se le irregolarità che si richiedono per spiegare la formazione di stelle e galassie possano aver condotto alla formazione di un numero significativo di buchi neri «primordiali» dipende dalle particolari condizioni vigenti nella fase iniziale dell'universo. Così, se fossimo in grado di determinare quanti buchi neri primordiali esistono oggi, potremmo apprendere moltissimo sui primi minuti della vita dell'universo. Buchi neri primordiali di massa pari a più di un miliardo di tonnellate (la massa di una grande montagna) potrebbero venire scoperti solo attraverso la loro influenza gravitazionale su altra materia, ossia su oggetti visibili, o sull'espansione dell'universo. Come apprenderemo però nel capitolo seguente, i buchi neri non sono dopo tutto così neri: essi risplendono come un corpo caldissimo, e quanto più piccoli sono tanto più risplendono. Così, paradossalmente, i buchi neri più piccoli potrebbero risultare in realtà più facili da scoprire di quelli più grandi!
7 I BUCHI NERI NON SONO POI COSÌ NERI
Prima del 1970 la mia ricerca sulla relatività generale si era concentrata principalmente sul problema se ci fosse stata o no una singolarità del big bang. Una sera di novembre di quell'anno, poco tempo dopo la nascita di mia figlia Lucy, cominciai però a riflettere sui buchi neri mentre mi preparavo per andare a letto. La mia invalidità rende le operazioni relative piuttosto lente, cosicché avevo molto tempo per pensare. A quell'epoca non c'era una definizione precisa di quali punti nello spazio-tempo siano all'interno di un buco nero e di quali si trovino invece all'esterno. Io avevo già discusso con Roger Penrose l'idea di definire un buco nero come l'insieme di eventi da cui non è possibile sfuggire sino a una grande distanza, che è la definizione oggi generalmente accettata. Essa significava che il confine del buco nero, l'orizzonte degli eventi, è formato dalle traiettorie nello spazio-tempo di raggi di luce che non riescono per un nonnulla a evadere dal buco nero, rimanendo per sempre per così dire sospesi esattamente al suo margine (fig. 7.1). È un po' come il caso di un borsaiolo che, correndo a perdifiato nel tentativo di sfuggire ai poliziotti, riesce a mantenere un distacco di pochi metri ma non ad allontanarsi e a far perdere le proprie tracce! D'improvviso mi resi conto che le traiettorie di questi raggi di luce non avrebbero mai potuto avvicinarsi l'una all'altra. Se lo avessero fatto, si sarebbero infine scontrate frontalmente. E un po' come se il nostro ladruncolo si imbattesse in un altro che tentasse di sfuggire alla polizia correndo in direzione opposta: sarebbero catturati entrambi! (O, in questo caso, i raggi di luce cadrebbero nel buco nero.) Ma se questi raggi di luce
venissero inghiottiti dal buco nero, non potrebbero essere stati sul confine del buco nero. Perciò i raggi di luce nell'orizzonte degli eventi dovrebbero sempre muoversi paralleli fra loro, oppure dovrebbero allontanarsi fra loro. Un altro modo di considerare questa situazione consiste nel vedere l'orizzonte degli eventi — il confine del buco nero — come il margine di un'ombra, il margine del destino incombente. Se si guarda l'ombra
proiettata da una sorgente lontana, come per esempio il Sole, si vedrà che i raggi al bordo non si avvicinano l'uno all'altro. Se i raggi di luce che formano l'orizzonte degli eventi non possono mai avvicinarsi l'uno all'altro, l'area dell'orizzonte degli eventi può rimanere la stessa o aumentare col tempo, ma mai diminuire, poiché ciò significherebbe che almeno una parte dei raggi di luce nel confine dovrebbero avvicinarsi l'uno all'altro. In effetti, tale area dovrebbe aumentare ogni volta che cadessero nel buco nero materia o energia (fig. 7.2). Inoltre, se due buchi neri entrassero in collisione e si fondessero a formare un singolo buco nero, l'area dell'orizzonte degli eventi del buco nero finale sarebbe maggiore o uguale alla somma delle aree degli orizzonti degli eventi dei buchi neri originari (fig. 7.3). Questa proprietà dell'area dell'orizzonte degli eventi di non diminuire mai pose una restrizione importante al possibile comportamento dei buchi neri. Io ero così eccitato per questa scoperta che quella notte non dormii molto. Il giorno seguente chiamai al telefono Roger Penrose, che fu subito d'accordo con me. Penso, in effetti, che egli fosse già consapevole di questa proprietà dell'area, solo che aveva usato una definizione leggermente diversa di buco nero. Egli non si era reso conto che i confini del buco nero secondo le due definizioni sarebbero stati gli stessi, e quindi anche la loro area, purché il buco nero si fosse stabilizzato in uno stato in cui fosse destinato a restare immutato nel tempo. La proprietà dell'area di un buco nero di non diminuire mai ricordava molto da vicino il comportamento di una proprietà fisica chiamata entropia, la quale misura il grado di disordine di un sistema. E un dato di comune esperienza che, se si lasciano le cose a se stesse, il disordine tende ad aumentare. (Per rendersene conto, è sufficiente smettere di fare riparazioni in casa!) Si può creare ordine dal disordine (per esempio si può dipingere la casa), ma ciò richiede un dispendio di fatiche e di energia, cosa che conduce a una diminuzione dell'energia ordinata disponibile. Una formulazione precisa di quest'idea è nota come seconda legge della termodinamica. Essa afferma che l'entropia di un sistema isolato aumenta sempre e che, quando si uniscono assieme due sistemi, l'entropia del sistema combinato è maggiore della somma delle entropie dei singoli sistemi. Consideriamo, per esempio, un sistema di molecole di gas in un
recipiente. Le molecole possono essere immaginate come piccole palle da biliardo che si urtano continuamente e che rimbalzano sulle pareti del recipiente. Quanto maggiore è la temperatura del gas, tanto più veloce è il movimento delle molecole, e tanto più frequenti e forti sono gli urti con le pareti del recipiente, e quindi la pressione verso l'esterno esercitata dal gas su tali pareti. Supponiamo che all'inizio le molecole siano confinate tutte nella parte sinistra del recipiente per mezzo di un divisorio. Se, a un certo punto, si toglie il divisorio, le molecole tenderanno a diffondersi e a occupare entrambe le metà del recipiente. Trascorso un po' di tempo, in un istante dato esse potrebbero trovarsi per caso tutte nella metà destra del
recipiente, o nella metà sinistra, ma c'è una probabilità immensamente maggiore che si trovino in numero press'a poco uguale nelle due metà. Un tale stato è meno ordinato, o più disordinato, dello stato originario in cui tutte le molecole si trovavano in una sola metà del recipiente. Si può dire perciò che il gas ha perduto la sua entropia. Similmente, supponiamo di avere all'inizio due recipienti, uno contenente molecole di ossigeno e l'altro contenente molecole di azoto. Se si uniscono i due recipienti e si elimina la separazione, le molecole di ossigeno e quelle di azoto cominceranno a mescolarsi. Dopo un certo tempo lo stato più probabile sarà un miscuglio abbastanza uniforme di molecole di ossigeno e di azoto nei due recipienti. Questo stato sarebbe meno ordinato, e quindi avrebbe più entropia, rispetto allo stato iniziale dei due recipienti separati. La seconda legge della termodinamica ha uno status alquanto diverso rispetto ad altre leggi della scienza — come per esempio la legge della gravitazione di Newton — in quanto non vale sempre ma solo nella grande maggioranza dei casi. La probabilità che tutte le molecole di gas contenute nel nostro primo recipiente vengano a trovarsi in seguito in un momento qualsiasi in una sola metà del recipiente è di uno a molti milioni di milioni, ma questo non è comunque un fatto fisicamente impossibile. Se però abbiamo a portata di mano un buco nero, pare ci sia un modo piuttosto semplice di violare la seconda legge: basta gettare nel buco nero della materia con una quantità di entropia, come un recipiente pieno di gas. L'entropia totale della materia fuori del buco nero diminuirebbe. Si potrebbe, ovviamente, dire ancora che l'entropia totale, compresa l'entropia all'interno del buco nero, non è diminuita, ma poiché non c'è alcun modo di guardare dentro il buco nero, non possiamo vedere quanta entropia abbia la materia al suo interno. Sarebbe bello, quindi, se i buchi neri avessero un qualche carattere per mezzo del quale un osservatore esterno potesse determinare l'entropia, la quale sarebbe destinata a crescere ogni volta che materia portatrice di entropia cadesse dentro di essi. Dopo la scoperta, descritta sopra, che l'area dell'orizzonte degli eventi aumenterebbe ogni volta che della materia cadesse in un buco nero, uno studente ricercatore a Princeton, Jacob Bekenstein, suggerì che l'area dell'orizzonte degli eventi fosse una misura dell'entropia del buco nero. Ogni
volta che materia portatrice di entropia fosse caduta nel buco nero, l'area dell'orizzonte degli eventi sarebbe aumentata, cosicché la somma dell'entropia della materia fuori dei buchi neri e l'area degli orizzonti degli eventi non sarebbe mai diminuita. Questo suggerimento sembrava impedire che, nella maggior parte delle situazioni, venisse violata la seconda legge della termodinamica. C'era però in esso una pecca fatale. Se un buco nero ha un'entropia, dovrebbe avere anche una temperatura. Ma un corpo con una particolare temperatura deve emettere radiazione a un certo ritmo. E un dato di esperienza comune che, se si riscalda un attizzatoio alla fiamma, esso diventa rovente ed emette radiazione, ma anche corpi a temperature inferiori emettono radiazione; normalmente non ce ne rendiamo conto solo perché la quantità di radiazione è troppo piccola. Questa radiazione è richiesta per impedire la violazione della seconda legge. Anche i buchi neri dovrebbero quindi emettere radiazione. I buchi neri sono però, per definizione, oggetti che non dovrebbero emettere niente. Sembrava perciò che l'area dell'orizzonte degli eventi di un buco nero non potesse essere considerata alla stregua della sua entropia. Nel 1972 scrissi un articolo assieme a Brandon Carter e a un collega americano, Jim Bardeen; in esso sottolineammo che, per quante somiglianze ci fossero fra l'entropia e l'area dell'orizzonte degli eventi, c'era anche questa difficoltà apparentemente fatale. Devo ammettere che, scrivendo tale articolo, ero motivato in parte da irritazione nei confronti di Bekenstein, che secondo me aveva fatto cattivo uso della mia scoperta dell'aumento dell'area dell'orizzonte degli eventi. Alla fine risultò però che Bekenstein aveva fondamentalmente ragione anche se in un modo che certamente non si attendeva. Nel settembre 1973, mentre ero in visita a Mosca, discussi sui buchi neri con due fra i principali esperti sovietici, Yakov Zel'dovic e Aleksandr Starobinskij. Essi mi convinsero che, secondo il principio di indeterminazione della meccanica quantistica, i buchi neri rotanti dovevano creare ed emettere particelle. Io credetti alle loro argomentazioni sulla base di ragioni fisiche, ma non mi piacque il modo matematico in cui avevano calcolato l'emissione. Cominciai perciò a pensare a un trattamento matematico migliore, che descrissi a un seminario informale a Oxford alla fine del novembre 1973. A
quel tempo non avevo fatto i calcoli per trovare quanta radiazione sarebbe stata realmente emessa. Mi attendevo di trovare esattamente la radiazione predetta da Zel'dovic e da Starobinskij per il caso di buchi neri rotanti. Quando eseguii il calcolo, trovai però, con mia sorpresa e irritazione, che anche buchi neri non rotanti dovevano a quanto pare creare ed emettere particelle a un ritmo costante. Dapprima pensai che quest'emissione indicasse che una delle approssimazioni da me usate non fosse valida. Temevo che, se Bekenstein ne fosse venuto a conoscenza, potesse usarla come un ulteriore argomento a sostegno delle sue idee sull'entropia dei buchi neri, che io ancora non accettavo. Quanto più ci riflettevo, però, tanto più mi sembrava che quelle approssimazioni dovessero essere valide. Ciò che infine mi convinse della realtà dell'emissione fu che lo spettro delle particelle emesse era esattamente quello che sarebbe stato emesso da un corpo caldo, e che il buco nero stava emettendo particelle esattamente al ritmo giusto per impedire violazioni della seconda legge. Da allora i calcoli sono stati ripetuti in varie forme diverse da altre persone e hanno sempre confermato che un buco nero dovrebbe emettere particelle e radiazioni esattamente come se fosse un corpo caldissimo, con una temperatura dipendente solo dalla sua massa: quanto maggiore è la massa tanto minore è la temperatura. Com'è possibile che un buco nero sembri emettere particelle quando sappiamo che nulla può evadere dall'interno del suo orizzonte degli eventi? La risposta, ci dice la teoria quantistica, è che le particelle non provengono dall'interno del buco nero, bensì dallo spazio «vuoto» che si trova subito fuori dell'orizzonte degli eventi del buco nero! Possiamo comprendere questa nozione nel modo seguente: quello che noi concepiamo come uno spazio «vuoto» non può essere completamente vuoto perché ciò significherebbe che tutti i campi, compresi il campo gravitazionale e quello elettromagnetico, dovrebbero essere esattamente zero. Il valore di un campo e la sua rapidità di variazione col tempo sono però come la posizione e la velocità di una particella: il principio di indeterminazione implica che, quanto maggiore è la precisione con cui si conosce una di queste due quantità, tanto meno esattamente si può conoscere l'altra. Così nello spazio vuoto il campo non può essere fissato esattamente a zero, giacché in questo
caso esso avrebbe sia un valore preciso (zero) sia una precisa rapidità di mutamento (zero anche in questo caso). Nel valore del campo dev'esserci una certa quantità minima di incertezza (indeterminazione), o di fluttuazioni quantiche. Possiamo concepire queste fluttuazioni come coppie di particelle di luce o di gravità che appaiono assieme in un qualche tempo, si separano e poi tornano a congiungersi e si annichilano reciprocamente. Queste particelle sono particelle virtuali come quelle che trasportano la forza gravitazionale del Sole: a differenza delle particelle reali, non possono essere osservate direttamente per mezzo di un "rivelatore di particelle. E però possibile misurare i loro effetti indiretti, come piccoli mutamenti nell'energia delle orbite degli elettroni negli atomi, e tali effetti sono in accordo, con un grado di precisione considerevole, con le predizioni teoriche. Il principio di indeterminazione predice anche che ci saranno coppie virtuali simili di particelle di materia, come elettroni o quark. In questo caso, però, un membro della coppia sarà una particella e l'altro un'antiparticella (le antiparticelle della luce e della gravità sono identiche alle particelle). Poiché non si può creare energia dal nulla, uno dei membri della coppia particella-antiparticella avrà energia positiva e l'altro energia negativa. Quello con energia negativa è condannato a essere una particella virtuale di breve vita perché in situazioni normali le particelle reali hanno sempre energia positiva. Esso dovrà quindi cercare il suo partner e annichilarsi con esso. Una particella reale in prossimità di un corpo di grande massa ha però meno energia che se si trovasse a grande distanza, in quanto per innalzarsi a una grande distanza contro l'attrazione gravitazionale del corpo dovrebbe consumare energia. Normalmente l'energia della particella è ancora positiva, ma il campo gravitazionale all'interno di un buco nero è così intenso che persino una particella reale può avervi energia negativa. E perciò possibile, in presenza di un buco nero, che la particella virtuale con energia negativa cada nel buco nero e diventi una particella o antiparticella reale. In questo caso essa non deve più annichilarsi col proprio partner. Anche il membro abbandonato potrebbe cadere nel buco nero. Oppure, possedendo energia positiva, potrebbe fuggire dalla regione in prossimità del buco nero sotto forma di una particella o antiparticella reale (fig. 7.4). Un osservatore esterno lontano avrà l'impressione che essa sia stata emessa dal buco nero.
Quanto più piccolo è il buco nero, tanto minore sarà la distanza che la particella con energia negativa dovrà percorrere prima di diventare una particella reale, e quindi tanto maggiori saranno la frequenza di emissione, e la temperatura apparente, del buco nero.
L'energia positiva della radiazione in uscita sarebbe controbilanciata da un flusso di particelle di energia negativa che cadono nel buco nero. Per l'equazione di Einstein E = mc2 (dove E è l'energia, m la massa e c la velocità della luce), l'energia è proporzionale alla massa. Un flusso di energia
negativa nel buco nero ne riduce perciò la massa. Man mano che il buco nero perde massa, l'area dell'orizzonte degli eventi si rimpicciolisce, ma questa diminuzione dell'entropia del buco nero è più che compensata dall'entropia della radiazione emessa, così che la seconda legge non è mai violata. Inoltre, quanto minore è la massa del buco nero, tanto più elevata è la sua temperatura. Così, man mano che il buco nero perde massa, la sua temperatura e il ritmo della sua emissione aumentano, con la conseguenza che esso perde massa ancor più rapidamente. Quel che accade quando la massa del buco nero diventa infine estremamente piccola non è del tutto chiaro, ma la congettura più ragionevole è che esso sia destinato a sparire completamente in un tremendo impulso di emissione finale, equivalente all'esplosione di milioni di bombe H. Un buco nero con una massa alcune volte maggiore di quella del Sole avrebbe una temperatura di solo un decimilionesimo di grado superiore allo zero assoluto. Questa è una temperatura molto inferiore a quella della radiazione di microonde che riempie l'universo (circa 2,7 gradi al di sopra dello zero assoluto), cosicché i buchi neri emetterebbero ancor meno di quanto assorbano. Se l'universo è destinato a continuare a espandersi per sempre, la temperatura della radiazione a microonde finirà col diminuire al di sotto di quella di un tale buco nero, che comincerà quindi a perdere massa. Persino allora, però, grazie alla sua temperatura così bassa, esso impiegherebbe, per evaporare completamente, circa un milione di milioni di milioni di milioni di milioni di milioni di milioni di milioni di milioni di milioni di milioni di anni (1 seguito da sessantasei zeri). Questo è un periodo molto più lungo dell'età attuale dell'universo, che è di soli dieci o venti miliardi di anni circa (1 o 2 seguito da dieci zeri). D'altra parte, come abbiamo già menzionato nel capitolo 6, potrebbero esistere buchi neri primordiali con una massa molto più piccola, prodotti dal collasso di irregolarità nelle primissime fasi dell'universo. Questi buchi neri avrebbero una temperatura molto più elevata ed emetterebbero radiazione a un ritmo molto maggiore. Un buco nero primordiale con una massa iniziale di un miliardo di tonnellate avrebbe una durata di vita press'a poco uguale all'età attuale dell'universo. Buchi neri primordiali di massa iniziale inferiore sarebbero già evaporati
completamente, mentre quelli con massa leggermente maggiore starebbero ancora emettendo radiazione nella forma di raggi X e di raggi gamma. Questi raggi X e gamma sono come le onde luminose, con la differenza che hanno una frequenza molto maggiore. Buchi neri come questi non meritano certo l'epiteto di neri: essi sono in realtà al calor bianco ed emettono energia dell'ordine di circa diecimila megawatt. Uno di tali buchi neri potrebbe alimentare dieci grandi centrali elettriche, se solo fossimo in grado di imbrigliarne l'energia. Questo compito sarebbe però piuttosto difficile: il buco nero avrebbe la massa di una montagna compressa in meno di un bilionesimo di centimetro, le dimensioni del nucleo di un atomo! Se avessimo uno di questi buchi neri sulla superficie della Terra, non avremmo alcun modo per impedirgli di cadere attraverso il suolo fino a raggiungere il centro del nostro pianeta. Esso oscillerebbe avanti e indietro attraverso la Terra sino a fermarsi poi immobile al centro. Perciò l'unico luogo in cui sistemare un tale buco nero per poterne usare l'emissione di energia sarebbe in orbita attorno alla Terra, e l'unico modo in cui immetterlo in una tale orbita sarebbe quello di attrarvelo trascinando dinanzi ad esso una grande massa, un po' come una carota dinanzi a un asino. Questa non sembra però una proposta molto pratica, almeno per l'immediato futuro. Ma anche se non riusciamo a imbrigliare l'emissione di questi buchi neri primordiali, quali probabilità abbiamo di osservare questi oggetti? Potremmo cercare i raggi gamma che i buchi neri primordiali emettono durante la maggior parte della loro vita. Anche se la radiazione proveniente dalla maggior parte di questi buchi neri sarebbe molto debole a causa della loro grande distanza, potrebbe essere rivelabile la somma della radiazione emessa da tutti questi corpi. Noi osserviamo in effetti un fondo di raggi gamma: la figura 7.5 mostra come l'intensità osservata differisca a frequenze diverse (la frequenza è il numero di cicli o oscillazioni di un'onda al secondo). Questo fondo potrebbe però essere stato generato, e probabilmente lo fu, da processi diversi da quello dei buchi neri primordiali. La linea punteggiata nella figura 7.5 mostra come l'intensità dovrebbe variare con la frequenza per raggi gamma emessi da buchi neri primordiali, se ce ne fossero in media 300 per ogni anno-luce cubico. Si può dire perciò
che le osservazioni del fondo di raggi gamma non forniscono alcuna prova sicura a favore dei buchi neri primordiali; esse ci dicono però che non possono esistere in media più di 300 di tali buchi neri per anno-luce cubico nell'universo. Questo limite significa che i buchi neri primordiali potrebbero costituire al massimo un milionesimo della materia presente nell'universo.
Se i buchi neri primordiali sono una merce così rara, può sembrare improbabile che possa essercene uno abbastanza vicino a noi perché noi possiamo osservarlo come una sorgente discreta di raggi gamma. Poiché però la gravità attrarrebbe i buchi neri primordiali verso ogni concentrazione di materia, essi dovrebbero essere molto più comuni nelle galassie e attorno alle galassie. Così, benché il fondo di raggi gamma ci dica che non possono esserci in media più di 300 buchi neri primordiali per anno-luce cubico, non ci rivela nulla sulla densità che potrebbero avere nella nostra galassia. Se essi fossero, diciamo, un milione di volte più comuni rispetto alla media generale, il buco nero più vicino potrebbe trovarsi a una distanza di circa un miliardo di chilometri, pari press'a poco a quella di Plutone, il più lontano da noi fra i pianeti noti. A questa distanza sarebbe ancora difficile scoprire
l'emissione costante di un buco nero, quand'anche avesse la potenza di diecimila megawatt. Per poter osservare un buco nero primordiale si dovrebbero scoprire vari quanti di raggi gamma provenienti da una stessa direzione nell'arco di un intervallo di tempo ragionevole, come una settimana. I raggi gamma che non rispondessero a questi requisiti potrebbero far parte semplicemente del fondo di radiazione. Ma il principio quantistico di Planck ci dice che ciascun quanto di raggi gamma ha un'energia molto grande poiché i raggi gamma hanno una frequenza elevatissima, cosicché non occorrerebbero molti quanti per irradiare persino diecimila megawatt. E per osservare un numero così scarso di quanti di raggi gamma provenienti dalla distanza di Plutone si richiederebbe un rivelatore di raggi gamma più grande di tutti quelli che sono stati costruiti finora. Tale rivelatore dovrebbe inoltre trovarsi in orbita nello spazio, poiché i raggi gamma non possono penetrare nell'atmosfera. Ovviamente, se un buco nero alla distanza di Plutone dovesse giungere alla fine della sua vita ed esplodere, sarebbe molto facile scoprire l'impulso di emissione finale. Ma se il buco nero ha emesso energia per gli ultimi dieci o venti miliardi di anni, la probabilità che esso giunga alla fine della sua vita nei prossimi anni, piuttosto che fra vari milioni di anni, è davvero molto piccola! Così, per avere una probabilità ragionevole di osservare un'esplosione prima di esaurire una borsa di studio per una ricerca sui buchi neri, si dovrebbe trovare un modo per rivelare tali esplosioni entro una distanza di un anno-luce circa. Ci sarebbe inoltre bisogno di un grande rivelatore di raggi gamma per poter osservare vari quanti di raggi gamma liberati dall'esplosione. In questo caso, però, non sarebbe necessario determinare che tutti i quanti provengano dalla stessa direzione: per essere certi che hanno avuto origine in una stessa esplosione basterebbe osservare che sono arrivati tutti entro un intervallo di tempo relativamente breve. Un rivelatore di raggi gamma che potrebbe essere in grado di localizzare i buchi neri primordiali è l'intera atmosfera terrestre. (In ogni caso, è improbabile che noi possiamo mai essere in grado di costruire un rivelatore più grande!) Un quanto di raggi gamma ad alta energia, urtando atomi nella nostra atmosfera, crea coppie di elettroni e positoni (antielettroni). Quando queste particelle colpiscono altri atomi, producono a loro volta altre coppie
di elettroni e positoni, cosicché si finisce con l'ottenere un cosiddetto sciame di elettroni. Ne risulta una forma di luce detta radiazione Cerenkov. E perciò possibile scoprire impulsi di raggi gamma cercando lampi di luce nel cielo notturno. Ovviamente esistono vari altri fenomeni, come fulmini e riflessi della luce del Sole su satelliti e su detriti orbitali in caduta, che possono produrre lampi di luce in cielo. Gli impulsi di raggi gamma potrebbero essere distinti da tali effetti osservando i lampi simultaneamente da due o più località molto lontane fra loro. Una ricerca come questa è stata compiuta da due scienziati di Dublino, Neil Porter e Trevor Weekes, usando telescopi in Arizona. Essi osservarono vari lampi nel cielo notturno, ma nessuno che potesse essere attribuito con sicurezza a impulsi di raggi gamma emessi da buchi neri primordiali. Quand'anche la ricerca di buchi neri primordiali si rivelasse negativa, come sembra probabile, essa ci fornirebbe ciò nonostante informazioni importanti sulle primissime fasi dell'universo. Se l'universo primordiale fosse stato caotico o irregolare, o se la pressione di materia fosse stata bassa, ci si attenderebbe che fosse stato prodotto un numero di buchi neri primordiali molto superiore al limite già fissato dalle nostre osservazioni del fondo di raggi gamma. Solo se l'universo primordiale fu molto omogeneo e uniforme, e con una grande pressione di materia, diventa possibile spiegare l'assenza di un numero osservabile di buchi neri primordiali. L'idea di una radiazione dei buchi neri fu il primo esempio di una predizione dipendente in modo essenziale da entrambe le grandi teorie di questo secolo, la relatività generale e la meccanica quantistica. In principio quest'idea suscitò molte opposizioni, in quanto sconvolgeva il punto di vista esistente: «Com'è possibile che un buco nero emetta qualcosa?». Quando io annunciai per la prima volta i risultati dei miei calcoli a un convegno al Rutherford-Appleton Laboratory nei pressi di Oxford, le mie parole suscitarono una generale incredulità. Alla fine della mia conferenza il presidente della sessione, John G. Taylor, del Kings College di Londra, sostenne che erano tutte assurdità. Egli scrisse poi addirittura un articolo per ribadire quel punto di vista. Alla fine però la maggior parte delle persone, compreso lo stesso John Taylor, pervennero alla conclusione che i buchi neri devono irradiare come corpi caldissimi se le nostre idee sulla relatività
generale e sulla meccanica quantistica sono corrette. Così, anche se non siamo ancora riusciti a trovare un buco nero primordiale, c'è un consenso abbastanza generale sul fatto che, se ci fossimo riusciti, esso dovrebbe emettere una grande quantità di raggi gamma e di raggi X. L'esistenza di una radiazione dei buchi neri sembra implicare che il collasso gravitazionale non sia così finale e irreversibile come pensavamo un tempo. Se un astronauta cade in un buco nero, la massa del buco nero aumenterà, ma infine l'equivalente in energia di quella massa extra sarà restituito all'universo sotto forma di radiazione. Così, in un certo senso, l'astronauta sarà «riciclato». Questo sarebbe però un tipo molto modesto di immortalità, giacché per l'astronauta qualsiasi concetto personale del tempo verrebbe quasi certamente a finire nel momento stesso in cui egli venisse fatto a pezzi dall'attrazione differenziale agente sulle varie parti del suo corpo all'interno del buco nero! Persino i tipi di particelle emessi infine dal buco nero sarebbero in generale diversi rispetto alle particelle che formavano l'astronauta: l'unico carattere dell'astronauta destinato a sopravvivere sarebbe la sua massa o energia. Le approssimazioni da me usate per derivare l'emissione dei buchi neri dovrebbero funzionare bene quando il buco nero ha una massa di più di una frazione di grammo. Esse perderebbero invece la loro validità alla fine della vita di un buco nero, quando la sua massa diventa molto piccola. L'esito più probabile sembra essere che il buco nero sia destinato semplicemente a svanire, almeno dalla nostra regione dell'universo, portando con sé l'astronauta e la singolarità eventualmente contenuta al suo interno, se effettivamente c'è. Questa fu la prima indicazione del fatto che la meccanica quantistica poteva eliminare le singolarità pre-dette dalla relatività generale. La relatività è però una teoria classica (cioè non quantistica). I metodi usati da me e da altre persone nel 1974 non ci permisero di rispondere a interrogativi come quello se nella gravità quantistica potrebbero presentarsi delle singolarità. Dal 1975 in poi io cominciai perciò a sviluppare un approccio più efficace alla gravità quantistica fondandomi sull'idea di Richard Feynman di una somma sulle storie. Le risposte che questa impostazione suggerisce per l'origine e il destino dell'universo e dei suoi contenuti, come gli astronauti, saranno descritte nei prossimi due capitoli.
Vedremo che, benché il principio di indeterminazione fissi dei limiti alla precisione di tutte le nostre predizioni, esso potrebbe al tempo stesso eliminare l'impredicibilità fondamentale che si ha in una singolarità dello spazio-tempo.
8 L'ORIGINE E IL DESTINO DELL'UNIVERSO
La teoria generale della relatività di Einstein, considerata a sé, prediceva che lo spazio-tempo ebbe inizio nella singolarità del big bang e che finirà o nella singolarità della grande compressione (big crunch) se l'universo, giunto al termine dell'espansione, invertirà il suo moto avviandosi a un collasso universale, o in una singolarità all'interno di un buco nero (se a subire il collasso gravitazionale sarà solo una regione locale, come una stella). Qualunque oggetto materiale cadesse in un buco nero sarebbe distrutto nella singolarità, e solo l'effetto gravitazionale della sua massa continuerebbe a essere avvertibile all'esterno. D'altra parte, qualora si tenesse conto di effetti quantistici, sembrerebbe che la massa o energia dell'oggetto materiale dovrebbero essere infine restituite al resto dell'universo, e che il buco nero, assieme a ogni singolarità eventualmente contenuta in esso, dovrebbe evaporare e infine sparire completamente. La meccanica quantistica potrebbe avere un effetto altrettanto vistoso sulle singolarità del big bang e del big crunch? Che cosa accadde realmente durante i primissimi istanti della vita dell'universo e che cosa accadrà nella sua parte finale, in presenza di campi gravitazionali così forti da non potersi più ignorare gli effetti quantistici? L'universo ha veramente un principio e una fine? E in tal caso, come sono? Nel corso degli anni Settanta mi sono occupato principalmente dei buchi neri, ma nel 1981 il mio interesse per gli interrogativi sull'origine e il destino dell'universo furono richiamati in vita mentre partecipavo a un convegno sulla cosmologia organizzato dai gesuiti in Vaticano. La Chiesa cattolica aveva compiuto un grave errore nella vicenda di Galileo quando aveva
tentato di dettar legge su una questione scientifica, dichiarando che era il Sole a orbitare attorno alla Terra e non viceversa. Ora, a qualche secolo di distanza, aveva deciso di invitare un certo numero di esperti per farsi dare consigli sulla cosmologia. Al termine del convegno i partecipanti furono ammessi alla presenza del santo padre. Il papa ci disse che era giustissimo studiare l'evoluzione dell'universo dopo il big bang, ma che non dovevamo cercare di penetrare i segreti del big bang stesso perché quello era il momento della Creazione e quindi l'opera stessa di Dio. Fui lieto che il papa non sapesse quale argomento avessi trattato poco prima nella mia conferenza al convegno: la possibilità che lo spazio-tempo fosse finito ma illimitato, ossia che non avesse alcun inizio, che non ci fosse alcun momento della Creazione. Io non provavo certamente il desiderio di condividere la sorte di Galileo, pur essendo legato a lui da un forte senso di identità, dovuto in parte alla coincidenza di essere nato esattamente 300 anni dopo la sua morte! Per spiegare le idee concepite da me e da altre persone sul modo in cui la meccanica quantistica può intervenire sull'origine e il destino dell'universo, è necessario in primo luogo comprendere la storia dell'universo generalmente accettata, secondo quello che è noto come il «modello del big bang caldissimo». Questo modello suppone che l'universo sia descritto da un modello di Fridman, a partire dal momento del big bang. In tali modelli si trova che, all'espandersi dell'universo, la materia o radiazione in esso contenuta diventa sempre più fredda. (Quando l'universo raddoppia di volume, la sua temperatura si riduce di metà.) Poiché la temperatura è semplicemente una misura dell'energia media — o della velocità media — delle particelle, questo raffreddamento dell'universo deve avere un effetto importante sulla materia in esso contenuta. A temperature molto elevate le particelle si muovevano così velocemente da potersi sottrarre all'attrazione — dovuta a forze nucleari o elettromagnetiche — di ciascun'altra, ma al diminuire della temperatura ci si attenderebbe che le particelle cominciassero a raggrupparsi assieme in virtù della loro reciproca attrazione. Inoltre, persino i tipi di particelle esistenti nell'universo dipendevano dalla temperatura. A temperature abbastanza elevate, le particelle hanno tanta energia che, ogni volta che entrano in collisione fra
loro, dovrebbero prodursi molte coppie diverse particella-antiparticella, e quand'anche alcune di queste particelle si annichilassero urtando contro antiparticelle, esse si produrrebbero più rapidamente di quanto potessero annichilarsi. A temperature più basse, però, quando le particelle che entrano in collisione fra loro hanno meno energia, le coppie particella-antiparticella si produrrebbero meno rapidamente e l'annichilazione finirebbe col diventare più rapida della produzione. Nell'istante del big bang, si pensa che l'universo avesse dimensioni zero, e che fosse quindi infinitamente caldo. Ma all'espandersi dell'universo la temperatura della radiazione diminuì. Un secondo dopo il big bang la temperatura era scesa a circa dieci miliardi di gradi. Questa è una temperatura un migliaio di volte maggiore di quella vigente al centro del Sole, ma temperature elevate come questa si raggiungono in esplosioni di bombe H. A quest'epoca l'universo deve aver contenuto soprattutto fotoni, elettroni e neutrini (particelle estremamente leggere che risentono solo della forza debole e della gravità) e le loro antiparticelle, unitamente a pochi protoni e neutroni. Al proseguire dell'espansione dell'universo e del calo della sua temperatura, il ritmo con cui si producevano coppie elettrone-antielettrone nelle collisioni dovette scendere al di sotto del ritmo con cui esse venivano distrutte per annichilazione. Così la maggior parte degli elettroni e dei positoni devono essere annichilati fra loro per produrre altri fotoni, lasciando solo un numero relativamente piccolo di elettroni residui. I neutrini e gli antineutrini non dovettero invece annichilarsi fra loro perché queste particelle interagiscono solo molto debolmente fra loro e con altre particelle. Essi dovrebbero dunque esistere ancor oggi. Se potessimo osservarli, ci fornirebbero una buona verifica di questo quadro di una fase iniziale caldissima dell'universo. Purtroppo la loro energia è oggi troppo bassa perché noi possiamo osservarli direttamente. Però, se i neutrini non sono privi di massa ma hanno una massa per quanto piccola, come fu suggerito in un esperimento russo non confermato eseguito nel 1981, noi potremmo essere in grado di scoprirli in modo indiretto: essi potrebbero essere una forma di «materia oscura» come quella menzionata in precedenza; con un'attrazione gravitazionale sufficiente ad arrestare l'espansione dell'universo e a dare l'avvio al successivo collasso.
Circa cento secondi dopo il big bang la temperatura era scesa a un miliardo di gradi, la temperatura vigente all'interno delle stelle più calde. A questa temperatura protoni e neutroni non avevano più energia sufficiente a sottrarsi all'attrazione della forza nucleare forte, e avevano cominciato a combinarsi assieme e a produrre i nuclei di atomi di deuterio (idrogeno pesante), che contengono un protone e un neutrone. I nuclei di deuterio dovettero poi combinarsi con altri protoni e neutroni a formare nuclei di elio, che contengono due protoni e due neutroni, e anche piccole quantità di un paio di elementi più pesanti, il litio e il berillio. Si può calcolare che, nel modello del big bang caldo, circa un quarto dei protoni e dei neutroni dovettero convertirsi in nuclei di elio, mentre una piccola quantità formavano idrogeno pesante e altri elementi. I neutroni restanti dovettero decadere in protoni, che formano il nucleo degli atomi del comune idrogeno. Questa immagine di una prima fase caldissima dell'universo fu proposta per la prima volta dallo scienziato George Gamow in un articolo famoso scritto nel 1948 in collaborazione con un suo allievo, Ralph Alpher. Gamow aveva un notevole senso dell'umorismo, e persuase il fisico nucleare Hans Bethe a partecipare alla stesura dell'articolo per dare l'elenco di autori «Alpher, Bethe, Gamow», come le tre lettere dell'alfabeto greco: una trovata particolarmente azzeccata per un articolo sull'inizio dell'universo! In tale articolo gli autori fecero la predizione degna di nota che la radiazione (sotto forma di fotoni) emessa nelle primissime fasi calde dell'universo doveva essere ancora esistente, ma con una temperatura ridotta a soli pochi gradi al di sopra dello zero assoluto (-273 °C). Fu questa radiazione che Penzias e Wilson trovarono nel 1965. Al tempo in cui Alpher, Bethe e Gamow scrivevano il loro articolo, non si sapeva molto sulle reazioni nucleari di protoni e neutroni. Le predizioni fatte per le proporzioni di vari elementi all'inizio dell'universo erano perciò piuttosto imprecise, ma i calcoli sono stati ripetuti alla luce di conoscenze migliori e i risultati ottenuti concordano molto bene con le osservazioni. Inoltre, è molto difficile spiegare in qualsiasi altro modo perché nell'universo dovrebbe esserci una quantità di elio così grande come quella che osserviamo. Noi siamo perciò abbastanza fiduciosi di possedere il quadro giusto, almeno a partire da un secondo circa dopo il
big bang. A solo poche ore di distanza dal big bang, la produzione di elio e di altri elementi si arrestò. E da quel momento in poi, per il successivo milione di anni circa, l'universo continuò solo a espandersi, senza che accadesse molto di nuovo. Infine, una volta che la temperatura fu scesa ad alcune migliaia di gradi, gli elettroni e i nuclei non ebbero più energia a sufficienza per venire a capo dell'attrazione elettromagnetica fra loro e dovettero cominciare a formare atomi. L'universo nel suo complesso deve aver continuato a espandersi e a raffreddarsi, ma in regioni leggermente più dense della media l'espansione dev'essere stata rallentata da un'attrazione gravitazionale extra. Questo fatto deve avere infine arrestato l'espansione in alcune regioni, avviando in esse la ricontrazione. Nel corso di questo collasso, l'attrazione gravitazionale di materia esterna a queste regioni potrebbe aver dato l'avvio a un lento moto rotatorio. Man mano che si accentuava la contrazione, la rotazione doveva diventare sempre più veloce, esattamente come accade ai pattinatori sul ghiaccio quando, dopo aver cominciato a ruotare con le braccia aperte, le ritirano lungo il corpo. Infine, quando la regione in contrazione, ridotte considerevolmente le sue dimensioni, aveva acquistato una rotazione abbastanza veloce per controbilanciare l'attrazione centripeta della gravità, il raggiungimento di quest'equilibrio segnava l'origine di una galassia rotante di forma discoidale. Altre regioni, che non erano riuscite a conseguire un moto rotatorio, diventavano oggetti di forma ovale, noti come galassie ellittiche. In queste galassie la contrazione generale si arrestava in conseguenza dell'inizio di rivoluzioni orbitali di singole parti della galassia attorno al suo centro, senza che la galassia avesse una rotazione complessiva. Al passare del tempo, i gas idrogeno ed elio presenti nelle galassie si frazionarono in nubi minori che cominciarono a collassare sotto l'azione della propria gravità. Al contrarsi di queste nubi, e all'aumentare del numero di collisioni fra gli atomi che le componevano, la temperatura del gas saliva, diventando infine abbastanza alta per innescare l'inizio di reazioni di fusione nucleare. Queste determinavano la conversione di idrogeno in altro elio, e il calore liberato in queste reazioni nucleari faceva aumentare la pressione, cosa che impediva alle nubi di contrarsi oltre. Le nubi rimanevano allora
stabili per molto tempo in questo stato sotto forma di stelle simili al Sole, bruciando idrogeno in elio e liberando l'energia risultante sotto forma di calore e di luce. Le stelle di massa maggiore dovevano essere più calde per poter controbilanciare la maggiore attrazione gravitazionale; le loro reazioni nucleari procedevano perciò con una rapidità tanto maggiore da condurre all'esaurimento del loro idrogeno in poche centinaia di milioni di anni. A questo punto queste stelle si contraevano leggermente, e quando la loro temperatura era aumentata a sufficienza cominciavano a convertire l'elio in elementi più pesanti, come il carbonio e l'ossigeno. Questo processo non conduce però alla liberazione di una quantità di energia molto maggiore, cosicché si produce una crisi, che abbiamo già descritto nel capitolo sui buchi neri. Quel che accade poi non è del tutto chiaro, ma pare probabile che le regioni centrali della stella si contraggano fino a raggiungere uno stato densissimo, come quello di una stella di neutroni o di un buco nero. Le regioni più esterne della stella possono talvolta essere soffiate via nel corso di una tremenda deflagrazione, detta esplosione di supernova, che supera di gran lunga in luminosità lo splendore di tutte le altre stelle della galassia di appartenenza. Alcuni fra gli elementi più pesanti prodotti verso la parte finale della vita della stella vanno a finire nel gas della galassia e possono fornire una parte della materia prima per la successiva generazione di stelle. Il nostro Sole contiene il 2 per cento circa di questi elementi più pesanti, essendo una stella di seconda o terza generazione, formatasi circa cinque miliardi di anni fa da una nube di gas contenente i detriti di supernove anteriori. La maggior parte del gas di tale nube andò a formare il Sole o si disperse, mentre una piccola quantità degli elementi più pesanti si raccolse assieme a formare i pianeti, fra cui la Terra, che orbitano attualmente attorno al Sole. In principio la Terra era molto calda e priva di atmosfera. Nel corso del tempo si raffreddò e acquistò un'atmosfera in conseguenza della liberazione di gas contenuti in precedenza nelle rocce. Quest'antica atmosfera non era certo adatta alla sopravvivenza degli organismi che vivono oggi sulla Terra (fra cui noi stessi). Essa non conteneva ossigeno, bensì una quantità di gas che sono tossici per noi, come il solfuro di idrogeno (il gas a cui si deve la tipica puzza delle uova marce). Ci sono, però, forme di vita primitive che
sono in grado di prosperare in tali condizioni. Si pensa che esse si siano sviluppate negli oceani, forse in conseguenza di combinazioni casuali di atomi in strutture più grandi, chiamate macromolecole, le quali erano dotate della capacità di organizzare altri atomi presenti in mare in strutture simili. Esse cominciarono in tal modo a riprodursi e moltiplicarsi. In alcuni casi dovettero verificarsi degli errori nella riproduzione. La maggior parte di questi errori dovettero essere tali da togliere alle nuove macromolecole la capacità di riprodursi e quindi di sopravvivere in altri esemplari. Alcuni errori dovettero invece produrre macromolecole ancora più efficaci nel riprodursi. Queste devono perciò avere avuto un vantaggio e devono aver presentato la tendenza a sostituire le macromolecole originarie. In questo modo ebbe inizio un processo evolutivo che condusse allo sviluppo di organismi sempre più complicati, capaci di autoriprodursi. Le prime forme di vita, organismi alquanto primitivi, consumavano vari materiali, fra cui il solfuro di idrogeno, e liberavano ossigeno. In conseguenza di ciò l'atmosfera andò gradualmente modificandosi fino a conseguire la sua composizione attuale, e parallelamente divenne possibile lo sviluppo di forme di vita superiori, come i pesci, i rettili, i mammiferi e infine la specie umana. Questo quadro dell'universo in principio caldissimo, che è andato via via raffreddandosi nel corso della sua espansione, è in accordo con tutti i dati di osservazione che possediamo oggi. Esso lascia nondimeno senza risposta un certo numero di domande importanti: 1)
Perché l'universo primordiale era così caldo?
2) Perché l'universo è così uniforme su vasta scala? Perché ci appare uguale in ogni punto dello spazio e in ogni direzione? In particolare, perché la temperatura della radiazione di fondo a microonde è così simile quando osserviamo in direzioni diverse? È un po' come rivolgere a un certo numero di studenti una domanda d'esame. Se rispondono tutti esattamente nello stesso modo, si può essere abbastanza sicuri che hanno comunicato fra loro. Eppure, nel modello che ho descritto sopra, dopo il big bang la luce non avrebbe avuto il tempo di propagarsi da una regione remota a un'altra, anche se nell'universo primordiale quelle regioni erano vicinissime l'una
all'altra. Secondo la teoria della relatività, se da una regione all'altra dell'universo non può passare la luce, non può neppure alcun altro tipo di informazione. Non ci sarebbe quindi alcuna spiegazione del modo in cui regioni diverse nell'universo primordiale possono essere pervenute ad avere la stessa temperatura, a meno che, per qualche ragione inspiegata, non avessero avuto la stessa temperatura già all'inizio. 3) Perché l'universo ebbe inizio con una velocità di espansione così vicina al valore critico fra i modelli che si ricontraggono e quelli destinati a espandersi per sempre che persino oggi, dopo dieci miliardi di anni, la velocità di espansione è ancora vicinissima a quella critica? Se la velocità dell'espansione, un secondo dopo il big bang, fosse stata minore anche solo di una parte su centomila milioni di milioni, l'universo avrebbe esaurito la sua espansione e sarebbe tornato a contrarsi prima di aver mai raggiunto il suo stato presente. 4) Pur essendo così uniforme e omogeneo su vasta scala, l'universo contiene irregolarità locali, come stelle e galassie. Si pensa che queste si siano sviluppate a partire da piccole differenze nella densità dell'universo primordiale da una regione all'altra. Quale fu l'origine di queste fluttuazioni di densità? La teoria generale della relatività non è in grado da sola di spiegare questi caratteri o di rispondere a queste domande, a causa della sua predizione che l'universo ebbe inizio con una densità infinita nella singolarità del big bang. Dinanzi alla singolarità, la relatività generale e tutte le altre leggi fisiche potrebbero rivelarsi inadeguate: non si può predire che cosa verrà fuori dalla singolarità. Come abbiamo spiegato in precedenza, ciò significa che si potrebbero anche escludere dalla teoria il big bang e qualsiasi evento anteriore, perché essi non possono avere alcun effetto su ciò che osserviamo. Lo spazio-tempo avrebbe un confine: un inizio nel big bang. La scienza sembra avere scoperto un insieme di leggi che, nei limiti posti dal principio di indeterminazione, ci dicono in che modo l'universo si svilupperà col tempo, purché ne conosciamo lo stato in un tempo qualsiasi. Queste
leggi potrebbero essere state decretate in origine da Dio, ma pare che da allora egli abbia lasciato l'universo libero di evolversi nel rispetto di tali leggi e che si astenga dall'intervenire direttamente in esso. Ma in che modo egli scelse lo stato o configurazione iniziale dell'universo? Quali sono le «condizioni al contorno» all'inizio del tempo? Una risposta possibile consiste nel dire che Dio scelse la configurazione iniziale dell'universo per ragioni che noi non possiamo sperare di capire. Una decisione del genere sarebbe stata certamente alla portata di un essere onnipotente, ma se egli diede inizio all'universo in un modo tanto incomprensibile, perché decise di lasciarlo evolvere secondo leggi che possiamo capire? L'intera storia della scienza è stata una graduale presa di coscienza del fatto che gli eventi non accadono in un modo arbitrario, ma che riflettono un certo ordine sottostante, che potrebbe essere o non essere divinamente ispirato. Sarebbe naturale supporre che quest'ordine dovesse applicarsi non solo alle leggi, ma anche alle condizioni al contorno dello spazio-tempo che specificano lo stato iniziale dell'universo. Potrebbe esserci un gran numero di modelli dell'universo, con condizioni iniziali diverse, ma nondimeno soggetti tutti alle leggi. Dovrebbe esserci un qualche principio per scegliere il nostro stato iniziale, e quindi per indicarci un modello che potesse rappresentare il nostro universo. Una tale possibilità sono le cosiddette condizioni al contorno caotiche. Queste suppongono implicitamente o che l'universo sia spazialmente infinito o che ci sia un numero infinito di universi. In condizioni al contorno caotiche, la probabilità di trovare una qualsiasi regione di spazio particolare in una qualsiasi configurazione data subito dopo il big bang è uguale, in un certo senso, alla probabilità di trovarla in qualsiasi altra configurazione: lo stato iniziale dell'universo viene scelto in modo puramente casuale. Ciò significherebbe che l'universo primordiale dovette essere con ogni probabilità molto caotico e irregolare perché per l'universo ci sono molte più configurazioni caotiche e disordinate di quante non siano quelle omogenee e ordinate. (Se ogni configurazione è ugualmente probabile, può darsi che l'universo abbia avuto inizio in un modo caotico e disordinato, semplicemente perché le configurazioni disordinate sono molto più numerose.) E difficile rendersi conto di come condizioni iniziali tanto
caotiche possano aver dato origine a un universo così omogeneo e regolare, su una scala tanto grande quanto quella del nostro universo attuale. Ci si attenderebbe anche che le fluttuazioni di densità in un modello del genere avrebbero dovuto condurre alla formazione di un numero di buchi neri primordiali molto maggiore rispetto al limite superiore che è stato fissato dalle osservazioni del fondo di raggi gamma. Se l'universo è infinito nello spazio, o se esiste un numero infinito di universi, in qualche luogo dovrebbero esserci delle regioni che ebbero inizio in un modo regolare e uniforme. E una situazione in qualche misura simile a quella della famosa orda di scimmie dattilografe, le quali battono a caso sui tasti di macchine per scrivere: la maggior parte degli «elaborati» saranno privi di alcun valore, ma di tanto in tanto (molto di rado!) una delle nostre scimmie scriverà per puro caso uno dei sonetti di Shakespeare. Similmente, nel caso dell'universo, non può darsi che noi viviamo in una regione solo per caso omogenea e uniforme? A prima vista una cosa del genere sembra molto improbabile, perché le regioni regolari dovrebbero essere molto poche a fronte di una grandissima maggioranza di regioni caotiche e irregolari. Supponiamo però che solo nelle regioni omogenee si siano formate galassie e stelle e che solo in esse fossero presenti le condizioni appropriate per lo sviluppo di complessi organismi autoreplicantisi simili a noi stessi e capaci di formulare la domanda: perché l'universo è così regolare? Questo è un esempio dell'applicazione del cosiddetto principio antropico, il quale può essere parafrasato nel modo seguente: «Noi vediamo l'universo come lo vediamo perché esistiamo». Ci sono due versioni del principio antropico: quella debole e quella forte. Il principio antropico debole dice che, in un universo che è grande o infinito nello spazio e/o nel tempo, le condizioni necessarie per lo sviluppo della vita intelligente si troveranno solo in certe regioni che sono limitate nello spazio e nel tempo. Gli esseri intelligenti presenti in queste regioni non dovrebbero perciò sorprendersi nel constatare che la regione in cui essi vivono nell'univèrso soddisfa le condizioni che sono necessarie per la loro esistenza. E un po' come il caso di un ricco che, vivendo in un quartiere ricco, non vede alcun segno di povertà. Un esempio dell'uso del principio antropico debole è quello consistente
nello «spiegare» perché il big bang abbia avuto luogo circa dieci miliardi di anni fa: è questo press'a poco il tempo che si richiede per l'evoluzione di esseri intelligenti. Come abbiamo spiegato sopra, doveva formarsi innanzitutto una prima generazione di stelle. Queste convertirono una parte dell'idrogeno e dell'elio originari in elementi come il carbonio e l'ossigeno, da cui siamo formati noi stessi. Queste stelle esplosero poi come supernove e i loro detriti andarono a formare altre stelle e pianeti, fra cui quelli del nostro sistema solare, che ha un'età di circa cinque miliardi di anni. Nei primi uno o due miliardi di anni della sua esistenza, la nostra Terra fu troppo calda perché vi si potesse sviluppare qualcosa di complicato. Nei circa tre miliardi di anni restanti ha avuto luogo il lento processo dell'evoluzione biologica, la quale ha condotto dagli organismi più semplici ad esseri capaci di misurare il tempo a ritroso da oggi al big bang. Ben poche persone contesterebbero la validità o l'utilità del principio antropico debole. Alcuni si spingono però molto oltre proponendo una versione forte dello stesso principio. Secondo questa teoria, esistono o molti universi differenti o molte regioni differenti di un singolo universo, ciascuno dei quali ha la sua propria configurazione iniziale e, forse, un suo proprio insieme peculiare di leggi scientifiche. Nella maggior parte di questi universi le condizioni non sarebbero idonee allo sviluppo di organismi complicati; solo nei pochi universi simili al nostro si svilupperebbero degli esseri intelligenti, capaci di porre la domanda: «Perché l'universo è come lo vediamo?». La risposta è quindi semplice: «Se l'universo fosse stato differente, noi non saremmo qui!». Le leggi della scienza, quali le conosciamo oggi, contengono molti numeri fondamentali, come la grandezza della carica elettrica dell'elettrone e il rapporto della massa del protone a quella dell'elettrone. Noi non possiamo, almeno per il momento, predire il valore di questi numeri dalla teoria, ma dobbiamo trovarlo attraverso l'osservazione. Forse un giorno scopriremo una teoria unificata completa in grado di predirli tutti, ma può anche darsi che alcuni o tutti varino da un universo all'altro o all'interno di un singolo universo. Il fatto degno di nota è che i valori di questi numeri sembrano essere stati esattamente coordinati per rendere possibile lo sviluppo della vita. Per esempio, se la carica elettrica dell'elettrone fosse stata solo
lievemente diversa, le stelle o sarebbero incapaci di bruciare idrogeno ed elio o non potrebbero esplodere. Ovviamente potrebbero esserci forme diverse di vita intelligente, non sognate neppure dagli scrittori di fantascienza, che non richiedano la luce di una stella come il Sole o gli elementi chimici più pesanti dell'idrogeno e dell'elio che si formano all'interno delle stelle e che vengono disseminati nello spazio interstellare dalle esplosioni di supernove. Pare comunque chiaro che gli ambiti di variazione per i numeri cui abbiamo accennato che siano compatibili con lo sviluppo di qualsiasi forma di vita intelligente devono essere molto modesti. La maggior parte degli insiemi di valori darebbero origine a universi che, pur potendo essere bellissimi, non conterrebbero alcun essere in grado di contemplarne la bellezza. Possiamo considerare la nostra posizione privilegiata o come la prova di un disegno divino nella Creazione e nella scelta delle leggi della scienza, o come un sostegno al principio antropico forte. Ci sono varie obiezioni che si possono sollevare contro il principio antropico forte come spiegazione dello stato osservato dell'universo. Innanzitutto, in che senso si può dire che esistano tutti questi differenti universi? Se essi sono davvero separati l'uno dall'altro, ciò che accade in un altro universo non può avere conseguenze osservabili nel nostro. Dovremmo perciò invocare il principio di economia ed escluderli da ogni considerazione teorica. Se, invece, essi sono solo regioni diverse di un unico universo, le leggi della scienza dovrebbero applicarsi ugualmente in ogni regione, giacché altrimenti non si potrebbe passare in modo continuo da una regione a un'altra. In questo caso l'unica differenza fra le varie regioni risiederebbe nella loro configurazione iniziale, cosicché il principio antropico forte si ridurrebbe a quello debole. Una seconda obiezione al principio antropico forte è che esso si muove in senso contrario al corso dell'intera storia della scienza. Noi siamo passati dalle cosmologie geocentriche di Tolomeo e dei suoi predecessori, attraverso la cosmologia eliocentrica di Copernico e di Galileo, alla moderna immagine dell'universo, in cui la Terra è un pianeta di dimensioni medie che orbita attorno a una stella media nella periferia esterna di una comune galassia spirale, la quale non è altro che una del miliardo circa di galassie
esistenti nell'universo osservabile. Eppure il principio antropico forte sosterrebbe che quest'intera vasta costruzione esisterebbe in funzione della nostra esistenza. Questa è un'affermazione molto difficile da accettare. Il nostro sistema solare è senza dubbio una condizione indispensabile per la nostra esistenza, e potremmo anche estendere questa nozione all'intera nostra galassia per tener conto della necessità di una generazione anteriore di stelle alle quali si deve la creazione degli elementi pesanti. Pare però che non ci sia alcun bisogno di tutte quelle altre galassie, né del fatto che l'universo sia così uniforme e simile in ogni direzione su una grande scala. Si potrebbe accettare più a cuor leggero il principio antropico, almeno nella sua versione più debole, se si potesse dimostrare che un certo numero di condizioni iniziali diverse avrebbero potuto evolversi a produrre un universo simile a quello che osserviamo. In questo caso, un universo sviluppatosi da una qualche sorta di condizioni iniziali casuali dovrebbe contenere un certo numero di regioni omogenee e uniformi e adatte per l'evoluzione della vita intelligente. Nell'ipotesi, invece, che lo stato iniziale dell'universo avesse dovuto essere scelto con cura per poter condurre a qualcosa di simile a ciò che noi vediamo attorno a noi, sarebbe molto improbabile che l'universo avesse mai contenuto una qualche regione capace di dare origine alla vita. Nel modello del big bang caldo descritto sopra, nell'universo primordiale non ci fu abbastanza tempo perché il calore potesse fluire da una regione a un'altra. Ciò significa che lo stato iniziale dell'universo avrebbe dovuto avere dappertutto esattamente la stessa temperatura per spiegare come mai il fondo a microonde abbia la stessa temperatura in qualsiasi direzione verso cui possiamo puntare i nostri strumenti. Anche la velocità di espansione iniziale avrebbe dovuto essere scelta con grande precisione perché la velocità di espansione attuale fosse così vicina al valore critico necessario per evitare l'arresto dell'espansione e l'inversione del movimento. Ciò significa che lo stato iniziale dell'universo dev'essere stato scelto davvero con grande cura se il modello del big bang caldo è corretto, a ritroso, fino all'inizio del tempo. Sarebbe in effetti molto difficile spiegare perché mai l'universo dovrebbe essere cominciato proprio in questo modo, a meno che non si veda nell'origine dell'universo l'atto di un Dio che intendesse creare esseri simili a noi.
Nel tentativo di trovare un modello dell'universo in cui molte configurazioni iniziali diverse potessero evolversi in qualcosa di simile all'universo presente, uno scienziato del Massachusetts Institute of Technology (MIT), Alan Guth, suggerì che l'universo dev'essere passato nella sua fase iniziale per un periodo di espansione rapidissima. Questa espansione viene detta «inflazionaria» (inflationary), nel senso che dev'essersi svolta un tempo a una velocità crescente, anziché decrescente come oggi. Secondo Guth, il raggio dell'universo dev'essere aumentato in una minuscola frazione di secondo di un milione di milioni di milioni di milioni di milioni (1 seguito da trenta zeri) di volte. Guth suggerì che l'universo emerse dal big bang in uno stato molto caldo, ma piuttosto caotico. In conseguenza delle elevatissime temperature iniziali, le particelle nell'universo dovevano muoversi molto velocemente e avere energie elevate. Come abbiamo visto in precedenza, ci si attende che a temperature così alte le forze nucleari forte e debole e la forza elettromagnetica fossero tutte unificate in una singola forza. All'espandersi dell'universo la temperatura scese, e diminuì l'energia delle particelle. Infine dovette esserci una cosiddetta transizione di fase e la simmetria fra le forze dovette rompersi: la forza forte si differenziò dalla forza debole e dalla forza elettromagnetica. Un esempio comune di una transizione di fase è la trasformazione dell'acqua in ghiaccio quando la si raffredda al di sotto di zero gradi centigradi. L'acqua liquida è simmetrica, uguale in ogni punto e in ogni direzione. .Quando però si formano i cristalli di ghiaccio, essi avranno posizioni definite e saranno allineati in qualche direzione. Questo fenomeno rompe la simmetria dell'acqua. Operando con cura, è possibile «sottoraffreddare» l'acqua: in altri termini, si può ridurre la temperatura al di sotto del punto di congelamento (0 °C) senza che si formi ghiaccio. Guth suggerì che l'universo potrebbe essersi comportato in un modo simile: la temperatura potrebbe essere scesa al di sotto del valore critico senza che si avesse una rottura della simmetria fra le forze. Se ciò accadde, l'universo dovrebbe trovarsi oggi in uno stato instabile, con più energia che se ci fosse stata la rottura della simmetria. Si può dimostrare che questa energia extra speciale ha un effetto antigravitazionale: essa avrebbe agito esattamente nello stesso modo della
costante cosmologica introdotta da Einstein nella relatività generale nel tentativo di costruire un modello statico dell'universo. Poiché l'universo era già in espansione di per sé come nel modello del big bang caldo, l'azione repulsiva di questa costante cosmologica avrebbe avuto l'effetto di far espandere l'universo a una velocità sempre crescente. Persino in regioni in cui fosse stata presente una quantità di particelle materiali superiore alla media, l'attrazione gravitazionale della materia sarebbe stata sopraffatta dalla repulsione della costante cosmologica efficace. Anche queste regioni si sarebbero perciò espanse in una maniera inflazionaria accelerata. Col procedere dell'espansione, e col sempre maggiore allontanamento delle particelle materiali fra loro, si dovette avere ben presto un universo che conteneva una quantità di particelle piccolissima e che era ancora in uno stato sottoraffreddato. Qualsiasi irregolarità fosse stata allora presente nell'universo sarebbe stata semplicemente spianata dall'espansione, nello stesso modo in cui le grinze presenti in un palloncino vengono distese quando lo si gonfia. Lo stato omogeneo e uniforme dell'universo attuale potrebbe quindi essersi evoluto a partire da molti stati iniziali non uniformi diversi. In un tale universo, in cui l'espansione fu accelerata da una costante cosmologica piuttosto che essere rallentata dall'attrazione gravitazionale della materia, la luce avrebbe avuto abbastanza tempo per viaggiare da un capo all'altro dell'universo iniziale. Questa impostazione potrebbe fornire una soluzione al problema, sollevato in precedenza, del perché diverse regioni nell'universo iniziale avessero le stesse proprietà. Inoltre la velocità di espansione dell'universo diventerebbe in questo modo automaticamente molto vicina alla velocità critica determinata dalla densità di energia dell'universo. Questo fatto potrebbe quindi spiegare perché la velocità dell'espansione sia ancora così vicina alla velocità critica, senza dover supporre che la velocità di espansione iniziale sia stata scelta appositamente. L'idea dell'inflazione potrebbe spiegare anche perché nell'universo ci sia tanta materia. Nella regione di universo che noi possiamo osservare ci sono qualcosa come cento milioni di milioni di milioni di milioni di milioni di milioni di milioni di milioni di milioni di milioni di milioni di milioni di milioni
(1 seguito da ottanta zeri) di particelle. Da dove hanno avuto origine? La risposta è che, come insegna la teoria quantistica, dall'energia possono formarsi particelle nella forma di coppie particella-antiparticella. A questo punto il problema, però, è da dove abbia avuto origine tutta quell'energia. La risposta è che l'energia totale dell'universo è esattamente zero. La materia nell'universo è formata da energia positiva. Essa è però di continuo impegnata ad attrarre se stessa per mezzo della gravità. Due pezzi di materia che si trovino l'uno vicino all'altro hanno meno energia degli stessi due pezzi di materia separati da una distanza maggiore, perché si è dovuto spendere dell'energia per separarli contro la forza gravitazionale che tende ad avvicinarli fra loro. Così, in un certo senso, il campo gravitazionale ha un'energia negativa. Nel caso di un universo che sia approssimativamente uniforme nello spazio, si può mostrare che quest'energia gravitazionale negativa cancella esattamente l'energia positiva rappresentata dalla materia. Così l'energia totale dell'universo è zero. Ora, il doppio di zero è sempre zero. Così l'universo può raddoppiare la quantità di energia positiva della materia e raddoppiare anche l'energia negativa della gravitazione senza violare la conservazione dell'energia. Ciò non accade nella normale espansione dell'universo, in cui la densità di energia della materia diminuisce man mano che l'universo aumenta di volume. Accade, invece, nell'espansione inflazionaria, perché, mentre l'universo si espande, la densità di energia dello stato sottoraffreddato rimane costante: quando l'universo raddoppia le sue dimensioni, tanto l'energia positiva della materia quanto l'energia negativa della gravitazione si raddoppiano, cosicché l'energia totale rimane zero. Durante la fase inflazionaria l'universo aumenta le sue dimensioni di una quantità grandissima. Così la quantità totale di energia disponibile per la produzione di particelle diventa grandissima. Come ha osservato Guth: «Si dice che non esistano pasti gratis. Ma l'universo, in definitiva, è un pasto gratis». Oggi l'universo non sta espandendosi in modo inflazionano. Dev'esserci perciò un qualche meccanismo che ha eliminato la grandissima costante cosmologica efficace, modificando quindi la velocità dell'espansione da una fase accelerata a una rallentata dalla gravità, qual è quella che osserviamo oggi. Nell'espansione inflazionaria ci si potrebbe attendere che infine la
simmetria fra le forze si rompesse, nello stesso modo in cui l'acqua sottoraffreddata finisce sempre per trasformarsi in ghiaccio. L'energia extra dello stato di simmetria non rotto verrebbe quindi liberata e scalderebbe nuovamente l'universo sino a una temperatura appena inferiore alla temperatura critica per ristabilire la simmetria fra le forze. L'universo continuerebbe allora a espandersi e a raffreddarsi, esattamente come nel modello del big bang caldissimo, ma ora ci sarebbe una spiegazione del perché la sua espansione abbia proceduto esattamente alla velocità critica e del perché diverse regioni avessero la stessa temperatura. Nella proposta originaria di Guth, la transizione di fase doveva avere luogo d'un tratto, nello stesso modo in cui i cristalli di ghiaccio si formano d'improvviso in acqua molto fredda. L'idea era che «bolle» della nuova fase di simmetria rotta si formassero nella vecchia fase, come bolle di vapore circondate dall'acqua bollente. Si supponeva che le bolle, espandendosi ed entrando via via in contatto fra loro, si fondessero l'una con l'altra finché l'intero universo non venisse a trovarsi nella nuova fase. La difficoltà, come indicammo io e vari altri, consisteva nella rapidità dell'espansione dell'universo; questa era tanto grande che, quand'anche le bolle fossero cresciute alla velocità della luce, si sarebbero purtuttavia allontanate l'una dall'altra, e non avrebbero quindi mai potuto unirsi. L'universo sarebbe rimasto perciò in uno stato molto eterogeneo, e in alcune regioni avrebbe continuato a sussistere la simmetria fra le varie forze. Un tale modello dell'universo non corrisponderebbe a ciò che vediamo. Nell'ottobre 1981 mi recai a Mosca per partecipare a un congresso sulla gravità quantistica. Dopo il congresso tenni un seminario sul modello inflazionario e sui suoi problemi all'Istituto Astronomico Sternberg. In precedenza facevo pronunciare le mie lezioni da qualcun altro, perché la maggior parte del pubblico non riusciva a percepire la mia voce. Ma non ci fu il tempo di preparare questo seminario, e lo tenni personalmente, con uno dei miei studenti che ripeteva quanto dicevo. Funzionò bene, e mi consentì un rapporto molto più stretto con il pubblico. Fra il pubblico c'era un giovane, Andrej Linde, dell'Istituto Lebedev di Mosca, il quale disse che la difficoltà concernente l'incontro e la fusione delle bolle fra loro poteva essere evitata supponendo che le bolle fossero tanto grandi
che la nostra regione dell'universo potesse essere contenuta tutta all'interno di una singola bolla. Perché ciò potesse funzionare, si richiedeva che il passaggio dalla simmetria alla rottura della simmetria avesse luogo molto lentamente all'interno della bolla, ma questa è una cosa possibilissima secondo le grandi teorie unificate. L'idea di Linde di una rottura lenta della simmetria era molto buona, ma in seguito mi resi conto che le sue bolle avrebbero dovuto essere più grandi delle dimensioni dell'universo stesso! Io mostrai che invece la simmetria si sarebbe rotta dappertutto nello stesso tempo anziché solo all'interno delle bolle. Si sarebbe in tal modo pervenuti a un universo uniforme, come quello che osserviamo oggi. Quest'idea mi eccitò molto e la discussi con uno dei miei allievi, Ian Moss. Essendo amico di Linde, mi trovai in una situazione di grande imbarazzo quando un periodico scientifico mi inviò il suo articolo chiedendomi se lo ritenessi idoneo per la pubblicazione. Io risposi che nell'articolo c'era questa pecca, secondo cui le bolle avrebbero dovuto essere più grandi dell'universo, ma che l'idea di fondo di una rottura lenta della simmetria era molto buona. Raccomandai la pubblicazione dell'articolo così com'era poiché in caso contrario sarebbero trascorsi vari mesi prima che si potesse riavere l'articolo corretto, giacché tutto ciò che Linde mandava in Occidente doveva essere prima approvato dalla censura sovietica, la quale non era né molto competente né molto veloce nel caso di articoli scientifici. Scrissi invece assieme a Ian Moss, per lo stesso periodico, un articolo in cui richiamavamo l'attenzione su questo problema concernente la bolla, e indicavamo in che modo lo si potesse risolvere. Il giorno dopo il mio ritorno da Mosca, partii per Filadelfia, dove avrei dovuto ricevere una medaglia dal Franklin Institute. La mia segretaria, Judy Fella, aveva usato il suo non trascurabile fascino per convincere le British Airways a concedere a lei e a me un posto gratis su un Concorde a fini pubblicitari. Una pioggia torrenziale mi impedì però di arrivare a tempo all'aeroporto cosicché persi l'aereo. Infine riuscii nondimeno a partire per Filadelfia, dove mi fu consegnata la medaglia. Mi fu poi chiesto di tenere un seminario sull'universo inflazionario presso la Drexel University di Filadelfia. Tenni lo stesso seminario sui problemi dell'universo inflazionario che avevo svolto a Mosca.
Un'idea molto simile a quella di Linde venne avanzata autonomamente pochi mesi dopo da Paul Steinhardt e Andreas Albrecht dell'Università di Pennsylvania. Ad essi viene oggi riconosciuto, assieme a Linde, il merito del cosiddetto «nuovo modello inflazionario», fondato sull'idea di una rottura lenta della simmetria. (Il vecchio modello inflazionario era la proposta originaria di Guth di una rottura rapida della simmetria attraverso la formazione di bolle.) Il nuovo modello inflazionario fu un buon tentativo di spiegare perché l'universo sia oggi così com'è. Almeno nella sua forma originaria, però, come mostrammo io e varie altre persone, esso prediceva variazioni nella temperatura della radiazione di fondo a microonde molto maggiori di quelle effettivamente osservate. Anche ricerche posteriori hanno sollevato dubbi sulla possibilità che nel primissimo universo possa esserci stata una transizione di fase del tipo richiesto. Secondo la mia opinione personale, il nuovo modello inflazionario è oggi morto come teoria scientifica, anche se una quantità di persone non sembrano essersi accorte della sua dipartita e stanno ancora scrivendo articoli come se fosse vivo e vegeto. Un modello migliore, chiamato il modello inflazionario caotico, fu proposto da Linde nel 1983. In questo modello non c'è una fase di transizione o di sottoraffreddamento. C'è invece un campo di spin 0, il quale, a causa di fluttuazioni quantistiche, avrebbe in alcune regioni dell'universo primordiale valori più elevati. L'energia del campo in quelle regioni si comporterebbe come una costante cosmologica. Essa dovrebbe avere un effetto gravitazionale repulsivo, e dovrebbe quindi far espandere quelle regioni in un modo inflazionario. Nel corso dell'espansione di tali regioni, l'energia del campo in esse diminuirebbe lentamente fino a trasformare l'espansione inflazionaria in un'espansione simile a quella che si ha nel modello del big bang caldo. Una di queste regioni sarebbe diventata il nostro attuale universo osservabile. Questo modello presenta tutti i vantaggi degli anteriori modelli inflazionari senza dipendere da una dubbia fase di transizione, e può inoltre fornire dimensioni ragionevoli, che concordano con l'osservazione, per le fluttuazioni nella temperatura del fondo a microonde. Queste ricerche sui modelli inflazionari dimostrarono che lo stato presente dell'universo avrebbe potuto avere origine da un numero abbastanza
grande di configurazioni iniziali diverse. Questo fatto è importante perché mostra che lo stato iniziale della parte di universo in cui viviamo non dovette essere scelto appositamente con grande cura. Possiamo dunque, se vogliamo, usare il principio antropico debole per spiegare perché l'universo sia così com'è. Non si può però sostenere che qualsiasi condizione iniziale avrebbe condotto a un universo simile a quello che osserviamo oggi. È sufficiente, per rendersene conto, considerare uno stato molto diverso per l'universo attuale, ossia un universo molto eterogeneo e irregolare. Si potrebbero usare le leggi della scienza per studiare l'evoluzione dell'universo a ritroso sino a determinare la sua configurazione in tempi anteriori. Secondo i teoremi della singolarità della relatività generale classica, si sarebbe pervenuti anche in questo caso a una singolarità del big bang. Se si fa evolvere un tale universo in avanti nel tempo secondo le leggi della scienza, si finirà con l'avere lo stato eterogeneo e irregolare da cui si era preso l'avvio. Devono dunque esserci state configurazioni iniziali che non avrebbero dato origine a un universo simile a quello che noi vediamo oggi. Così, neppure il modello inflazionano ci dice perché la configurazione iniziale non sia stata tale da produrre qualcosa di molto diverso da ciò che osserviamo. Dobbiamo dunque cercare una spiegazione nel principio antropico? Tutto quanto fu dunque il prodotto solo di un caso fortuito? Questa sembra una conclusione del tutto insoddisfacente, una negazione di tutte le nostre speranze di comprendere l'ordine sottostante all'universo. Per predire in che modo l'universo possa aver preso l'avvio, ci occorrono leggi che potessero essere valide all'inizio del tempo. Se la teoria classica della relatività generale era corretta, i teoremi della singolarità dimostrati da Roger Penrose e da me mostrano che l'inizio del tempo dovrebbe essere stato un punto di densità infinita e di infinita curvatura dello spazio-tempo. In tale punto tutte le leggi note della fisica verrebbero meno. Si potrebbe supporre che ci fossero nuove leggi applicabili alle singolarità, ma sarebbe molto difficile persino formulare leggi valide in tali punti, in quanto non avremmo alcuna guida derivabile da osservazioni su come tali leggi dovrebbero essere. Quel che i teoremi sulla singolarità realmente ci indicano è che il campo gravitazionale è a quel punto così intenso che diventano importanti effetti gravitazionali quantici: la teoria classica non è
più una buona descrizione dell'universo. Per esaminare le primissime fasi dell'universo si deve dunque usare una teoria quantistica della gravità. Come vedremo, nella teoria quantistica le leggi ordinarie della scienza potrebbero essere valide dappertutto, anche all'inizio del tempo: non è necessario postulare nuove leggi per le singolarità, perché nella teoria quantistica non c'è bisogno di alcuna singolarità.A tutt'oggi non possediamo ancora una teoria completa e consistente che combini la meccanica quantistica e la gravità. Siamo però abbastanza sicuri di alcuni caratteri che una tale teoria unificata dovrebbe avere. Uno è che dovrebbe incorporare la proposta di Feynman di formulare la teoria quantistica nei termini di una somma sulle storie. In questa impostazione, una particella non ha una singola storia, come nella teoria classica. Essa dovrebbe invece seguire ogni possibile traiettoria nello spazio-tempo, e a ciascuna di queste storie è associata una coppia di numeri, uno dei quali rappresenta le dimensioni di un'onda e l'altro la sua posizione nel ciclo (la sua fase). La probabilità che la particella, diciamo, passi per un qualche punto particolare si trova sommando le onde associate a ogni possibile storia che passi per quel punto. Quando si tenta di eseguire effettivamente queste somme ci si imbatte però in difficili problemi tecnici. L'unico modo per aggirarli è la seguente strana prescrizione: Si devono sommare le onde per storie di particelle che non si trovano nel tempo «reale» sperimentato da voi e da me, ma che hanno luogo in quello che viene chiamato tempo immaginario. L'espressione «tempo immaginario» potrebbe far pensare a qualcosa di fantascientifico, ma si tratta in realtà di un concetto matematico ben definito. Se prendiamo un qualsiasi numero ordinario (o «reale») e lo moltiplichiamo per se stesso, il risultato è un numero positivo. (Per esempio, 2 per 2 dà 4, ma 4 è anche il prodotto di -2 per -2.) Ci sono però numeri speciali (chiamati immaginari) che, moltiplicati per se stessi, danno numeri negativi. (Quello chiamato i, moltiplicato per se stesso dà -1; 2 z moltiplicato per se stesso dà -4, e via dicendo.) Per evitare le difficoltà tecniche implicite nelle somme per storie di Feynman, si deve usare il tempo immaginario. In altri termini, ai fini del calcolo si deve misurare il tempo usando numeri immaginari, piuttosto che numeri reali. Questo fatto ha un effetto interessante sullo spazio-tempo: la distinzione fra tempo e spazio scompare completamente.
Uno spazio-tempo in cui gli eventi hanno valori immaginari della coordinata del tempo si dice euclideo, dal geometra dell'antica Grecia Euclide, che fondò lo studio della geometria delle superfici bidimensionali. Quello che noi chiamiamo spazio-tempo euclideo è molto simile alle superfici bidimensionali di Euclide, con la differenza di avere quattro dimensioni anziché due. Nello spazio-tempo euclideo non c'è alcuna differenza fra la direzione del tempo e le direzioni nello spazio. Nello spazio-tempo reale, in cui gli eventi sono etichettati per mezzo di valori ordinari, reali, della coordinata del tempo, è invece facile mostrare la differenza: la direzione del tempo si trova in tutti i punti all'interno del cono di luce, mentre le direzioni nello spazio si trovano all'esterno. In ogni caso, per quanto concerne la meccanica quantistica quotidiana, noi possiamo considerare il nostro uso del tempo immaginario e dello spazio-tempo euclideo come un semplice espediente (o stratagemma) matematico, utile per calcolare risposte concernenti lo spaziotempo reale. Un secondo carattere che riteniamo debba essere posseduto da ogni teoria definitiva è l'idea di Einstein che il campo gravitazionale sia rappresentato da spazio-tempo curvo: le particelle tentano di seguire la via più simile a una traiettoria rettilinea in uno spazio curvo, ma poiché lo spaziotempo non è piano le loro traiettorie appaiono incurvate, come per opera di un campo gravitazionale. Quando applichiamo la somma sulle storie di Feynman alla concezione einsteiniana della gravità, l'analogo della storia di una particella è ora uno spazio-tempo curvo completo che rappresenta la storia dell'intero universo. Per evitare le difficoltà tecniche implicite neh'eseguire realmente la somma sulle storie, si deve supporre che questi spazi-tempi curvi siano euclidei. In altri termini, il tempo è immaginario ed è indistinguibile da direzioni nello spazio. Per calcolare la probabilità di trovare uno spazio-tempo reale con qualche proprietà certa, come il fatto di apparire uguale in ogni punto e in ogni direzione, si sommano le onde associate a tutte le storie che hanno tale proprietà. Nella teoria classica della relatività generale ci sono molti spazi-tempi curvi possibili, l'uno diverso dall'altro, ciascuno dei quali corrisponde a un diverso stato iniziale dell'universo. Se noi conoscessimo lo stato iniziale del nostro universo, ne conosceremmo tutta la storia. Similmente, nella teoria
quantistica della gravità ci sono molti possibili stati quantici per l'universo. Di nuovo, se sapessimo come lo spazio-tempo euclideo nella somma sulle storie si comportò nei primissimi istanti dell'universo, conosceremmo lo stato quantico dell'universo. Nella teoria classica della gravità, che si fonda sullo spazio-tempo reale, ci sono solo due modi possibili in cui l'universo può comportarsi: o esso esiste da un tempo infinito oppure ha avuto inizio in una singolarità in un qualche tempo finito nel passato. Nella teoria quantistica della gravità, invece, emerge una terza possibilità. Usandosi spazi-tempi euclidei, in cui la direzione del tempo è sullo stesso piano delle direzioni nello spazio, c'è la possibilità che lo spazio-tempo sia finito e che nondimeno non abbia alcuna singolarità che ne formi un confine o un bordo. Lo spaziotempo sarebbe allora come la superficie della Terra, con l'unica differenza di avere quattro dimensioni anziché due. La superficie della Terra è finita, ma non ha un confine o un bordo. Se si parte per mare diretti verso ponente, non si cade giù dal bordo della Terra né ci si imbatte in una singolarità. (Io lo so perché ho fatto il giro del mondo.) Sia che lo spazio-tempo euclideo si estenda a ritroso per un tempo infinito immaginario, sia che abbia inizio in una singolarità nel tempo immaginario, ci troviamo di fronte allo stesso problema di specificare lo stato iniziale dell'universo che esiste nella teoria classica: può darsi che Dio sappia come ha avuto inizio l'universo, ma noi non possiamo fornire alcuna particolare ragione per pensare che esso abbia avuto inizio in un modo piuttosto che in un altro. D'altra parte, la teoria quantistica ci ha dischiuso una possibilità nuova, in cui non ci sarebbe alcun confine allo spazio-tempo e quindi non ci sarebbe alcun bisogno di specificare il comportamento a tale confine. Non ci sarebbe alcuna singolarità sottratta all'applicazione delle leggi della scienza e nessun margine estremo dello spazio-tempo in corrispondenza del quale ci si debba appellare a Dio o a qualche nuova legge per fissare le condizioni al contorno per lo spaziotempo. Si potrebbe dire: «La condizione al contorno dell'universo è che esso non ha contorno (o confini)». L'universo sarebbe quindi completamente autonomo e non risentirebbe di alcuna influenza dall'esterno. Esso non sarebbe mai stato creato e non verrebbe mai distrutto. Di esso si potrebbe dire solo che È.
Fu al convegno in Vaticano menzionato in precedenza che io proposi per la prima volta l'ipotesi che forse tempo e spazio formano congiuntamente una superficie di dimensioni finite ma priva di alcun confine o margine. Il mio contributo fu però piuttosto matematico cosicché le sue implicazioni per il ruolo di Dio nella Creazione dell'universo non furono generalmente riconosciute a quel tempo (questo vale anche per me). Al tempo del convegno in Vaticano non sapevo come usare l'idea dell'assenza di confini per fare predizioni sull'universo. Trascorsi l'estate seguente all'Università di California a Santa Barbara. Ivi un amico e collega, Jim Hartle, sviluppò con me le condizioni che l'universo deve soddisfare perché lo spazio-tempo non abbia confini. Quando tornai a Cambridge, continuai questa ricerca con due miei studenti ricercatori, Julian Luttrel e Jonathan Halliwell. Vorrei sottolineare che quest'idea che il tempo e lo spazio siano finiti ma illimitati è solo una proposta: essa non può essere dedotta da alcun altro principio. Come ogni altra teoria scientifica, essa può essere proposta inizialmente per ragioni estetiche o metafisiche, ma il vero test è se faccia predizioni che siano in accordo con l'osservazione. Questa è però una cosa difficile da determinare nel caso della gravità quantistica, per due ragioni. Innanzitutto, come spiegheremo nel capitolo seguente, non siamo ancora sicuri al cento per cento di quale teoria combini con successo la relatività generale e la meccanica quantistica, anche se sappiamo molto sulla forma che una tale teoria deve avere. In secondo luogo, qualsiasi modello che descrivesse nei particolari l'intero universo sarebbe matematicamente troppo complicato per consentirci di calcolare predizioni esatte. E perciò necessario fare assunti semplificanti e approssimazioni: e anche in tal caso il problema di formulare predizioni rimane un problema di grandissima difficoltà. Ogni storia nella somma sulle storie descriverà non solo lo spazio-tempo ma anche ogni cosa in esso presente, compreso ogni organismo complesso come gli esseri umani, capace di osservare la storia dell'universo. Potremmo trovare qui un'ulteriore giustificazione del principio antropico: se infatti tutte le storie sono possibili, finché noi esisteremo in una delle storie potremo usare il principio antropico per spiegare perché l'universo risulti essere così com'è. Non è chiaro invece esattamente quale significato possa
essere attribuito alle altre storie, nelle quali noi non esistiamo. Questa concezione di una teoria quantistica della gravità sarebbe però molto più soddisfacente se si potesse mostrare che, usando la somma sulle storie, il nostro universo non è solo una delle storie possibili, ma anche una delle più probabili. A questo scopo dovremmo eseguire la somma sulle storie per tutti i possibili spazi-tempi euclidei che non abbiano alcun confine. Nella proposta che l'universo non abbia alcun confine si apprende che la probabilità che l'universo si trovi a seguire la maggior parte delle storie possibili è trascurabile, ma c'è una particolare famiglia di storie che sono molto più probabili delle altre. Queste storie possono essere descritte come simili alla superficie della Terra, con la distanza dal Polo Nord che rappresenta il tempo immaginario e con le dimensioni di un cerchio di distanza costante dal Polo Nord (un parallelo) che rappresentano le dimensioni spaziali dell'universo. L'universo comincia al Polo Nord sotto forma di un singolo punto. Man mano che si procede verso sud, i paralleli diventano più grandi, corrispondendo all'espansione dell'universo col tempo immaginario (fig. 8.1). L'universo raggiungerebbe una grandezza massima all'equatore dopo di che comincerebbe a contrarsi al crescere del tempo immaginario sino alle dimensioni nulle di un singolo punto al Polo Sud. Benché ai poli Nord e Sud l'universo abbia dimensioni nulle, questi punti non
sarebbero singolarità, non più di quanto siano singolari i poli Nord e Sud
sulla Terra. Le leggi della scienza conserveranno quindi la loro validità in corrispondenza di quei due punti, così come la conservano ai poli Nord e Sud del nostro pianeta. La storia dell'universo nel tempo reale ci apparirebbe però molto diversa. Dieci o venti miliardi di anni fa esso aveva dimensioni minime, uguali al raggio massimo della storia nel tempo immaginario. In tempi reali successivi, però, l'universo si espanse come il modello inflazionario caotico proposto da Linde (con la differenza che ora non si dovrebbe supporre che l'universo sia stato creato in qualche modo nel tipo di stato giusto). L'universo si espanderebbe poi fino a raggiungere dimensioni molto grandi e infine, invertendo il proprio movimento, tornerebbe a contrarsi fino a riprecipitare in quella che sembra una singolarità nel tempo reale. Così, in un certo senso, noi siamo ancora condannati, anche se riusciamo a tenerci alla larga dai buchi neri. Soltanto se riuscissimo a raffigurarci l'universo nei termini del tempo immaginario, potremmo evitare le singolarità. Se l'universo è realmente in un tale stato quantico, nella storia dell'universo nel tempo immaginario non dovrebbero esserci singolarità. Il lettore potrebbe avere perciò l'impressione che le mie ricerche più recenti abbiano vanificato completamente i risultati delle mie ricerche anteriori sulle singolarità. Ma, come ho indicato sopra, la vera importanza dei teoremi della singolarità consistette nell'aver mostrato che il campo gravitazionale doveva diventare così intenso da non potersi più ignorare gli effetti gravitazionali quantistici. Questa nozione condusse a sua volta all'idea che l'universo poteva essere finito nel tempo immaginario ma senza avere confini o singolarità. Quando ripercorriamo a ritroso il tempo reale in cui viviamo, però, ci troviamo ancora di fronte a singolarità. Il povero astronauta che cade in un buco nero verrà ancora a trovarsi in una situazione estrema; solo se vivesse nel tempo immaginario non si imbatterebbe in singolarità. Questo fatto potrebbe suggerire che il cosiddetto tempo immaginario è in realtà il tempo reale, e che quello che chiamiamo tempo reale è solo un parto della nostra immaginazione. Nel tempo reale, l'universo ha un
principio e una fine in singolarità che formano un confine dello spazio-tempo e in corrispondenza delle quali le leggi della scienza vengono meno. Nel tempo immaginario, invece, non ci sono singolarità o confini. Può darsi perciò che quello che chiamiamo tempo immaginario sia in realtà più fondamentale, e che quello che chiamiamo reale sia solo un'idea inventata da noi come ausilio nella descrizione dell'universo quale pensiamo che sia. Secondo l'impostazione da me descritta nel capitolo 1, però, una teoria scientifica è solo un modello matematico da noi costruito per descrivere le nostre osservazioni: essa esiste solo nella nostra mente. Non ha quindi alcun significato chiedersi: qual è reale, il tempo «reale» o il tempo «immaginario»? Si tratta semplicemente di vedere quale delle due descrizioni sia quella più utile. Per trovare quali proprietà dell'universo possano probabilmente presentarsi assieme si può usare anche la somma sulle storie, assieme alla proposta che nell'universo non esista alcun confine. Per esempio, si può calcolare la probabilità che l'universo si stia espandendo press'a poco con la stessa rapidità in tutte le diverse direzioni in un tempo in cui la densità dell'universo ha il suo valore presente. Nei modelli semplificati che sono stati esaminati finora questa probabilità risulta essere elevata: ossia, la condizione proposta dell'assenza di confini conduce alla predizione che la presente velocità di espansione dell'universo sia con ogni probabilità quasi la stessa in ogni direzione. Questa predizione è in accordo con le osservazioni della radiazione di fondo a microonde, la quale risulta avere quasi esattamente la stessa intensità in ogni direzione. Se l'universo stesse espandendosi più velocemente in qualche direzione che in altre, l'intensità della radiazione in quelle direzioni sarebbe ridotta di un addizionale spostamento verso il rosso. Su altre predizioni della condizione dell'assenza di confini si sta lavorando correntemente. Un problema particolarmente interessante è costituito dall'entità delle piccole deviazioni dalla densità uniforme nell'universo iniziale che causarono la formazione prima delle galassie, poi delle stelle, e infine di noi. Il principio di indeterminazione implica che l'universo primordiale non possa essere stato completamente uniforme, dovendo essere presenti in esso incertezze o fluttuazioni nelle posizioni e velocità
delle particelle. Usando la condizione dell'assenza di confini, noi troviamo che l'universo dev'essere cominciato esattamente col minimo di disuniformità possibile consentito dal principio di indeterminazione. L'universo dovrebbe essere passato poi per un periodo di rapida espansione, come nei modelli inflazionari. Durante questo periodo, le disuniformità iniziali dovrebbero essersi amplificate sino a diventare abbastanza grandi per spiegare l'origine delle strutture che osserviamo attorno a noi. In un universo in espansione in cui la densità della materia presentasse lievi variazioni da un luogo all'altro, le regioni più dense, in conseguenza della gravità, avrebbero rallentato la loro espansione e avrebbero cominciato a contrarsi. Questa contrazione avrebbe condotto infine alla formazione di galassie, di stelle e infine persino di creature insignificanti come noi stessi. Così tutte le strutture complicate dell'universo potrebbero essere spiegate dalla condizione dell'assenza di confini nell'universo congiuntamente con il principio di indeterminazione della meccanica quantistica. L'idea che lo spazio e il tempo possano formare una superficie chiusa senza confini ha profonde implicazioni anche per il ruolo di Dio nelle vicende dell'universo. Col successo delle teorie scientifiche nella descrizione degli eventi, la maggior parte delle persone sono giunte a convincersi che Dio permetta all'universo di evolversi secondo un insieme di leggi e che non intervenga nell'universo per sospendere tali leggi. Le leggi non ci dicono però come debba essere stato l'universo nel primissimo periodo della sua vita: solo a Dio competeva caricare il meccanismo a orologeria e decidere come metterlo in movimento. Finché l'universo ha avuto un inizio, noi possiamo sempre supporre che abbia avuto un creatore. Ma se l'universo è davvero autosufficiente e tutto racchiuso in se stesso, senza un confine o un margine, non dovrebbe avere né un principio né una fine: esso, semplicemente, sarebbe. Ci sarebbe ancora posto, in tal caso, per un creatore?
9 LA FRECCIA DEL TEMPO
In capitoli precedenti abbiamo visto come siano andate mutando le nostre concezioni sulla natura del tempo. Sino all'inizio di questo secolo si credette in un tempo assoluto. In altri termini, ogni evento poteva essere etichettato da un numero chiamato «tempo» ad esso associato in un modo unico, e ogni buon orologio avrebbe concordato con ogni altro nel misurare l'intervallo di tempo compreso fra due eventi. La scoperta che la velocità della luce appare la stessa a ogni osservatore, in qualsiasi modo si stia muovendo, condusse però alla teoria della relatività, nella quale si dovette abbandonare l'idea che esista un tempo unico assoluto. Ogni osservatore avrebbe invece la sua propria misura del tempo quale viene misurato da un orologio che egli porta con sé: orologi portati da differenti osservatori non concorderebbero necessariamente fra loro. Il tempo diventò così un concetto più personale, relativo all'osservatore che lo misurava. Quando si tentò di unificare la gravità con la meccanica quantistica, si dovette introdurre l'idea del tempo «immaginario». Il tempo immaginario è indistinguibile dalle direzioni nello spazio. Se si può andare verso nord, si può fare dietro-front e dirigersi verso sud; nello stesso modo, se si può procedere in avanti nel tempo immaginario, si dovrebbe poter fare dietro-front e procedere a ritroso. Ciò significa che non può esserci alcuna differenza importante fra le direzioni in avanti e all'indietro del tempo immaginario. D'altra parte, quando si considera il tempo «reale», si trova una differenza grandissima fra le direzioni in avanti e all'indietro, come ognuno di noi sa anche troppo bene. Da dove ha avuto origine questa
differenza fra il passato e il futuro? Perché ricordiamo il passato ma non il futuro? Le leggi della scienza non distinguono fra passato e futuro. Più precisamente, come ho spiegato in precedenza, le leggi della scienza sono invariate sotto la combinazione di operazioni (o simmetrie) note come C, P e T. (C significa lo scambio fra particelle e antiparticelle; P significa l'assunzione dell'immagine speculare, con inversione di destra e sinistra; T significa, infine, l'inversione del moto di tutte le particelle, ossia l'esecuzione del moto all'indietro.) Le leggi della scienza che governano" il comportamento della materia in tutte le situazioni normali rimangono immutate sotto la combinazione delle due operazioni C e P prese a sé. In altri termini, la vita sarebbe esattamente identica alla nostra per gli abitanti di un altro pianeta che fossero una nostra immagine speculare e che fossero composti di antimateria anziché di materia. Se le leggi della scienza rimangono immutate sotto la combinazione delle operazioni C e P, e anche sotto la combinazione C, P e T, devono rimanere immutate anche sotto la sola operazione T. Eppure c'è una grande differenza fra le operazioni in avanti e all'indietro del tempo reale nella vita comune. Immaginiamo una tazza d'acqua che cada da un tavolo e vada a frantumarsi sul pavimento. Se filmiamo questo fatto, potremo dire facilmente, osservandone la proiezione, se la scena che vediamo si stia svolgendo in avanti o all'indietro. Se la scena è proiettata all'indietro, vedremo i cocci riunirsi rapidamente e ricomporsi in una tazza intera che balza sul tavolo. Possiamo dire che la scena che vediamo è proiettata all'indietro perché questo tipo di comportamento non viene mai osservato nella vita comune. Se lo fosse, i produttori di stoviglie farebbero fallimento. La spiegazione che si dà di solito del perché non vediamo mai i cocci di una tazza riunirsi assieme a ricostituire l'oggetto integro è che questo fatto è proibito dalla seconda legge della termodinamica. Questa dice che in ogni sistema chiuso il disordine, o l'entropia, aumenta sempre col tempo. In altri termini, questa è una forma della legge di Murphy: le cose tendono sempre ad andare storte! Una tazza integra sul tavolo è in uno stato di alto ordine, mentre una tazza rotta sul pavimento è in uno stato di disordine. Si può passare facilmente dalla tazza sul tavolo nel passato alla tazza rotta sul
pavimento nel futuro, ma non viceversa. L'aumento col tempo del disordine o dell'entropia è un esempio della cosiddetta freccia del tempo, qualcosa che distingue il passato dal futuro, dando al tempo una direzione ben precisa. Esistono almeno tre frecce del tempo diverse. Innanzitutto c'è la freccia del tempo termodinamica: la direzione del tempo in cui aumenta il disordine o l'entropia. Poi c'è la freccia del tempo psicologica: la direzione in cui noi sentiamo che passa il tempo, la direzione in cui ricordiamo il passato ma non il futuro. Infine c'è la freccia del tempo cosmologica: la direzione del tempo in cui l'universo si sta espandendo anziché contraendo. In questo capitolo sosterrò che nessuna condizione al contorno per l'universo, congiuntamente al principio antropico debole, può spiegare perché tutt'e tre le frecce puntino nella stessa direzione, e inoltre perché debba esistere in generale una freccia del tempo ben definita. Sosterrò che la freccia psicologica è determinata dalla freccia termodinamica, e che queste due frecce puntano sempre necessariamente nella stessa direzione. Se si suppone la condizione dell'inesistenza di confini per l'universo, vedremo che devono esistere una freccia del tempo termodinamica e una cosmologica ben definite, ma che esse non punteranno nella stessa direzione per l'intera storia dell'universo. Sosterrò però che solo quando esse puntano nella stessa direzione le condizioni sono idonee allo sviluppo di esseri intelligenti in grado di porsi la domanda: «Perché il disordine aumenta nella stessa direzione del tempo in cui l'universo si espande?». Esaminerò dapprima la freccia del tempo termodinamica. La seconda legge della termodinamica risulta dal fatto che gli stati disordinati sono sempre molti di più di quelli ordinati. Per esempio, consideriamo i pezzi di un puzzle in una scatola. Esiste uno, e un solo, ordinamento in cui tutti i pezzi formano una figura completa. Di contro esiste un numero grandissimo di disposizioni in cui i pezzi sono disordinati e non compongono un'immagine. Supponiamo che un sistema prenda l'avvio in uno del piccolo numero di stati ordinati. Al passare del tempo il sistema si evolverà secondo le leggi della scienza e il suo stato si modificherà. In seguito è più probabile che il sistema si trovi in uno stato disordinato piuttosto che in uno ordinato, dato che gli stati disordinati sono in numero molto maggiore. Il disordine aumenterà
quindi probabilmente col tempo se il sistema obbedisce alla condizione iniziale di grande ordine. Supponiamo che nello stato iniziale i pezzi siano raccolti nella scatola nella disposizione ordinata in cui formano un'immagine. Se scuotiamo la scatola i pezzi assumeranno un'altra disposizione. Questa sarà probabilmente una disposizione disordinata in cui i pezzi non formeranno un'immagine appropriata, semplicemente perché le disposizioni disordinate sono in numero molto maggiore di quelle ordinate. Alcuni gruppi di pezzi potranno formare ancora parti della figura, ma quanto più scuotiamo la scatola tanto più aumenta la probabilità che anche questi gruppi si rompano e che i pezzi vengano a trovarsi in uno stato completamente mischiato, nel quale non formeranno più alcuna sorta di immagine. Così il disordine dei pezzi aumenterà probabilmente col tempo se i pezzi obbediscono alla condizione iniziale che si prenda l'avvio da uno stato altamente ordinato. Supponiamo, però, che Dio abbia deciso che l'universo debba finire in uno stato di alto ordine, ma che non abbia alcuna importanza in quale stato sia iniziato. In principio l'universo sarebbe probabilmente in uno stato molto disordinato. Ciò significherebbe che il disordine è destinato a diminuire col tempo. Vedremmo allora i cocci di tazze rotte riunirsi assieme e le tazze intere saltare dal pavimento sul tavolo. Gli esseri umani che si trovassero a osservare queste scene vivrebbero però in un universo in cui il disordine diminuisce col tempo. Io sosterrò che tali esseri avrebbero una freccia del tempo psicologica orientata all'indietro. In altri termini, essi ricorderebbero gli eventi del futuro e non del passato. Quando la tazza è rotta, essi ricorderebbero di averla vista integra sul tavolo, ma vedendola sul tavolo non ricorderebbero di averla vista in pezzi sul pavimento. E piuttosto difficile parlare della memoria umana perché non sappiamo nei particolari in che modo funzioni il cervello. Però sappiamo tutto su come funzionano le memorie dei computer. Esaminerò perciò la freccia del tempo psicologica per i computer. Io penso che sia ragionevole supporre che la freccia del tempo psicologica per i computer sia la stessa che per gli esseri umani. Se così non fosse, si potrebbe fare una strage sul mercato azionario avendo un computer che ricordasse le quotazioni di domani! Una memoria di un computer è fondamentalmente un dispositivo
contenente elementi che possono esistere in uno di due stati diversi. Un esempio semplice è un abaco. Nella sua forma più semplice, esso consiste in un certo numero di bacchette su ciascuna delle quali può scorrere una pallina forata, che può essere messa in una di due posizioni. Prima che un'informazione venga registrata in una memoria di computer, la memoria si trova in uno stato disordinato, con probabilità uguali per ciascuno dei due stati possibili. (Le palline dell'abaco sono distribuite in modo casuale sulle bacchette.) Dopo avere interagito col sistema che dev'essere ricordato, la memoria si troverà decisamente nell'uno o nell'altro stato, a seconda dello stato del sistema. (Ogni pallina dell'abaco si troverà o nella parte destra o nella parte sinistra di ogni bacchetta.) La memoria sarà quindi passata da uno stato disordinato a uno stato ordinato. Per essere certi, però, che la memoria si trovi nello stato giusto, è necessario usare una certa quantità di energia (per spostare le palline o per fornire energia al computer, per esempio). Quest'energia viene dissipata sotto forma di calore, e contribuisce ad aumentare la quantità di disordine nell'universo. Si può mostrare che quest'aumento del disordine è sempre maggiore dell'aumento dell'ordine nella memoria stessa. Così, il calore espulso dal ventilatore del computer significa che, quando un computer registra un'informazione nella sua memoria, la quantità totale di disordine nell'universo aumenta ancora. La direzione del tempo in cui un computer ricorda il passato è la stessa in cui aumenta il disordine. Il nostro senso soggettivo della direzione del tempo, la freccia del tempo psicologica, è perciò determinato nel nostro cervello dalla freccia del tempo termodinamica. Esattamente come un computer, anche noi dobbiamo ricordare le cose nell'ordine in cui aumenta l'entropia. Questo fatto rende la seconda legge della termodinamica quasi banale. Il disordine aumenta col tempo perché noi misuriamo il tempo nella direzione in cui il disordine aumenta. Non c'è una cosa di cui possiamo essere più sicuri di questa! Ma per quale ragione deve esistere la freccia del tempo termodinamica? O, in altri termini, perché l'universo dovrebbe essere in uno stato di grande ordine a un estremo del tempo, l'estremo che chiamiamo passato? Perché non si trova sempre in uno stato di completo disordine? Dopo tutto, questa cosa potrebbe sembrare più probabile. E perché la direzione del tempo in
cui aumenta il disordine è la stessa in cui l'universo si espande? Nella teoria classica della relatività generale non si può predire in che modo l'universo,sia cominciato perché tutte le leggi note della scienza verrebbero meno in presenza della singolarità del big bang. L'universo potrebbe avere avuto inizio in un modo molto omogeneo e ordinato. Questo fatto avrebbe condotto a frecce del tempo termodinamica e cosmologica ben definite, come quelle che osserviamo. Esso avrebbe però potuto avere origine altrettanto bene in uno stato molto grumoso e disordinato. In questo caso l'universo si sarebbe trovato già in uno stato di completo disordine, cosicché il disordine non avrebbe potuto aumentare col tempo. Esso sarebbe stato destinato o a restare costante, nel qual caso non ci sarebbe stata una freccia del tempo termodinamica ben definita, o a diminuire, nel qual caso la freccia del tempo termodinamica avrebbe puntato nella direzione opposta a quella della freccia cosmologica. Nessuna di queste due possibilità è in accordo con ciò che osserviamo. Ma la teoria classica della relatività generale, come abbiamo visto, predice il suo stesso venir meno. Quando la curvatura dello spazio-tempo diventa molto pronunciata, gli effetti gravitazionali quantistici diventeranno importanti e la teoria classica cesserà di essere una buona descrizione dell'universo. Si deve usare una teoria quantistica della gravità per capire in che modo abbia avuto inizio l'universo. In una teoria quantistica della gravità, come abbiamo visto nell'ultimo capitolo, per specificare lo stato dell'universo si dovrebbe ancora dire in che modo le possibili storie dell'universo si comporterebbero all'estremo confine dello spazio-tempo in passato. Si potrebbe evitare questa difficoltà di dover descrivere quel che non sappiamo e non possiamo sapere solo se le storie soddisfano la condizione dell'inesistenza di ogni confine: se hanno un'estensione finita, ma non hanno confini, margini o singolarità. In questo caso l'inizio del mondo sarebbe un punto regolare, omogeneo, dello spazio-tempo e l'universo avrebbe cominciato la sua espansione in un modo molto regolare e ordinato. Esso non potrebbe essere stato completamente uniforme, poiché in tal caso avrebbe violato il principio di indeterminazione della teoria quantistica. Dovettero esserci piccole fluttuazioni nella densità e nelle velocità delle particelle. La condizione dell'assenza di confine implicava però che queste fluttuazioni fossero il più possibile piccole, in accordo col
principio di indeterminazione di Heisenberg. L'universo avrebbe avuto inizio con un periodo di espansione esponenziale o «inflazionaria» in cui le sue dimensioni sarebbero aumentate di un fattore molto grande. Nel corso di tale espansione le fluttuazioni di densità sarebbero rimaste dapprima piccole, ma in seguito avrebbero cominciato a crescere. Nelle regioni in cui la densità era leggermente maggiore della media si sarebbe avuto un rallentamento dell'espansione per opera dell'attrazione gravitazionale della massa extra. Infine, tali regioni avrebbero cessato di espandersi e si sarebbero contratte a formare galassie, stelle ed esseri come noi. L'universo sarebbe iniziato in uno stato omogeneo e ordinato e sarebbe diventato grumoso e disordinato al passare del tempo. Ciò spiegherebbe l'esistenza della freccia del tempo termodinamica. Ma che cosa accadrebbe se l'universo cessasse di espandersi e cominciasse a contrarsi? La freccia del tempo termodinamica si rovescerebbe e il disordine comincerebbe a diminuire col tempo? Questo fatto condurrebbe a ogni sorta di possibilità fantascientifiche per coloro che fossero riusciti a sopravvivere dalla fase di espansione a quella di contrazione. Quei nostri lontani pronipoti vedrebbero i cocci di tazze ridotte in frammenti ricomporsi in tazze integre, e vedrebbero queste volare dal pavimento sul tavolo? Sarebbero in grado di ricordare le quotazioni di domani e guadagnare una fortuna sul mercato azionario? Potrebbe sembrare un po' accademico preoccuparsi di che cosa accadrebbe se l'universo tornasse a contrarsi, giacché questa contrazione non avrà inizio in ogni caso se non fra altri dieci miliardi di anni almeno. C'è però un modo più rapido per sapere che cosa accadrebbe: saltare in un buco nero. Il collasso di una stella a formare un buco nero è molto simile alle ultime fasi del collasso dell'intero universo. Se nella fase di contrazione dell'universo il disordine dovesse diminuire, potremmo quindi attenderci che esso diminuisca anche all'interno di un buco nero. Così, un astronauta che cadesse in un buco nero sarebbe forse in grado di vincere alla roulette ricordando in quale scomparto si trovava la pallina prima della sua puntata. (Purtroppo, però, non potrebbe giocare a lungo prima di essere trasformato in una fettuccina. Né sarebbe in grado di fornirci informazioni sull'inversione della freccia del tempo termodinamica, o neppure di versare in banca i suoi guadagni, giacché sarebbe intrappolato
dietro l'orizzonte degli eventi del buco nero.) In principio credevo che nella fase di collasso dell'universo il disordine sarebbe diminuito. Questo perché pensavo che nel corso della contrazione l'universo dovesse tornare a uno stato omogeneo e ordinato. Ciò avrebbe significato che la fase di contrazione sarebbe stata simile all'inversione temporale della fase di espansione. Le persone nella fase di contrazione avrebbero vissuto la loro vita a ritroso: sarebbero morte prima di nascere e sarebbero diventate più giovani al procedere della contrazione dell'universo. Quest'idea è attraente perché comporterebbe una bella simmetria fra le fasi di espansione e di contrazione. Non è però possibile adottarla a sé, indipendentemente da altre idee sull'universo. La domanda è: essa è implicita nella condizione che l'universo sia illimitato o è in contraddizione con tale condizione? Come ho già detto, in principio pensavo che la condizione che l'universo non avesse alcun limite implicasse effettivamente che nella fase di contrazione il disordine sarebbe diminuito. Fui sviato in parte dall'analogia con la superficie terrestre. Se si supponeva che l'inizio dell'universo corrispondesse al Polo Nord, la fine dell'universo doveva essere simile al principio, esattamente come il Polo Sud è simile al Polo Nord. I poli Nord e Sud corrispondono però all'inizio e alla fine dell'universo nel tempo immaginario. L'inizio e la fine nel tempo reale possono essere molto diversi l'uno dall'altro. Fui tratto in inganno anche da una ricerca che avevo fatto su un modello semplice dell'universo in cui la fase di contrazione assomigliava all'inversione del tempo della fase di espansione. Un mio collega, Don Page, della Penn State University, sottolineò però che la condizione dell'assenza di ogni confine non richiedeva che la fase di contrazione dovesse essere necessariamente l'inversione temporale della fase di espansione. Inoltre un mio allievo, Raymond Laflamme, trovò che, in un modello leggermente più complicato, il collasso dell'universo era molto diverso dall'espansione. Mi resi conto di aver commesso un errore: la condizione dell'assenza di ogni limite implicava che il disordine sarebbe in effetti continuato ad aumentare anche durante la contrazione. Le frecce del tempo termodinamica e psicologica non si sarebbero rovesciate quando l'universo avesse cominciato a contrarsi, e neppure all'interno dei buchi neri.
Che cosa si deve fare quando si scopre di aver commesso un errore come questo? Alcuni non ammettono mai di avere sbagliato e continuano a trovare argomenti nuovi, a volte contraddittori fra loro, per sostenere la loro causa, come fece Eddington nella sua opposizione alla teoria dei buchi neri. Altri affermano di non avere mai sostenuto realmente la teoria sbagliata o, se lo hanno fatto, pretendono di averlo fatto solo per dimostrare che era contraddittoria. A me pare molto meglio e molto più chiaro ammettere in una pubblicazione di avere sbagliato. Un buon esempio in proposito fu quello di Einstein, che definì la costante cosmologica, da lui introdotta nel tentativo di costruire un modello statico dell'universo, l'errore più grave di tutta la sua vita. Per tornare alla freccia del tempo, rimane l'interrogativo: perché osserviamo che le frecce termodinamica e cosmologica puntano nella stessa direzione? O, ih altri termini, perché il disordine aumenta nella stessa direzione del tempo in cui si espande l'universo? Se si crede che l'universo passi prima per una fase di espansione per tornare poi a contrarsi, come sembra implicare la proposta dell'inesistenza di confini, la domanda si trasforma nell'altra del perché dovremmo trovarci nella fase di espansione e non in quella della contrazione. Si può rispondere a questa domanda sulla base del principio antropico debole. Le condizioni nella fase di contrazione non sarebbero idonee all'esistenza di esseri intelligenti in grado di porsi la domanda: perché il disordine cresce nella stessa direzione del tempo in cui si sta espandendo l'universo? L'inflazione nel primissimo periodo di esistenza dell'universo, predetta dalla condizione dell'inesistenza di alcun confine, significa che l'universo deve espandersi con una velocità molto vicina al valore critico in corrispondenza del quale riuscirebbe a evitare di strettissima misura il collasso, e quindi che non invertirà comunque la direzione del suo movimento per moltissimo tempo. A quell'epoca tutte le stelle avranno esaurito il loro combustibile, e i protoni e i neutroni in esse contenuti saranno probabilmente decaduti in particelle di luce e radiazione. L'universo si troverebbe allora in uno stato di disordine quasi completo. Non ci sarebbe una freccia del tempo termodinamica forte. Il disordine non potrebbe aumentare di molto perché l'universo sarebbe già in uno stato di disordine
quasi completo. Una freccia del tempo termodinamica forte è però necessaria per l'operare della vita intelligente. Per sopravvivere, gli esseri umani devono consumare cibo, che è una forma ordinata di energia, e convertirlo in calore, che è una forma di energia disordinata. Perciò nella fase di contrazione dell'universo non potrebbero esistere forme di vita intelligente. Questa è la spiegazione del perché osserviamo che le frecce del tempo termodinamica e cosmologica sono puntate nella stessa direzione. Non che l'espansione dell'universo causi un aumento del disordine. A causare l'aumento del disordine, e a far sì che le condizioni siano favorevoli alla vita intelligente soltanto nella fase di espansione, è piuttosto la condizione dell'assenza di confini dell'universo. Per compendiare, le leggi della scienza non distinguono fra le direzioni del tempo in avanti e all'indietro. Ci sono però almeno tre frecce del tempo che distinguono il passato dal futuro. Esse sono la freccia termodinamica: la direzione del tempo in cui aumenta il disordine; la freccia psicologica: la direzione del tempo in cui ricordiamo il passato e non il futuro; e la freccia cosmologica: la direzione del tempo in cui l'universo si espande anziché contrarsi. Ho mostrato che la freccia psicologica è essenzialmente identica con la freccia termodinamica, cosicché le due puntano sempre nella stessa direzione. La proposta dell'assenza di un confine per l'universo predice l'esistenza di una freccia del tempo termodinamica ben definita perché l'universo deve cominciare in uno stato omogeneo e ordinato. E la ragione per cui noi vediamo questa freccia termodinamica accordarsi con la freccia cosmologica è che forme di vita intelligente possono esistere soltanto nella fase dell'espansione. La fase della contrazione non sarà adatta perché non ha una freccia del tempo termodinamica forte. Il progresso del genere umano nella comprensione dell'universo ha stabilito un cantuccio d'ordine in un universo sempre più disordinato. Se il lettore ricordasse ogni parola di questo libro, la sua memoria avrebbe registrato circa due milioni di elementi di informazione: l'ordine nel suo cervello sarebbe aumentato di circa due milioni di unità. Leggendo il libro, però, egli avrà convertito almeno un migliaio di calorie di energia ordinata, sotto forma di cibo, in energia disordinata sotto forma di calore, che viene dissipato nell'aria per convezione e sotto forma di sudore. Il disordine
dell'universo risulterà in tal modo accresciuto di circa venti milioni di milioni di milioni di milioni di unità — ossia di quasi dieci milioni di milioni di milioni di volte più dell'aumento dell'ordine nel suo cervello — e questo nell'ipotesi che ricordasse perfettamente l'intero contenuto di questo libro. Nel capitolo seguente cercherò di accrescere un pochino l'ordine in questa plaga dell'universo spiegando come alcuni studiosi tentino di combinare le teorie parziali da me descritte nello sforzo di pervenire a una teoria unificata completa che copra ogni cosa nell'universo.
10 L'UNIFICAZIONE DELLA FISICA
Come abbiamo spiegato nel primo capitolo, sarebbe molto difficile costruire di getto una teoria unificata completa di tutto ciò che è presente nell'universo. Perciò abbiamo via via progredito trovando teorie parziali che descrivono una gamma limitata di fenomeni e trascurando altri effetti o accontentandoci di soluzioni approssimate per mezzo di certi numeri. (La chimica, per esempio, ci permette di calcolare le interazioni di atomi senza bisogno di conoscere la struttura interna del nucleo dell'atomo.) Si spera però che un giorno sia possibile pervenire a trovare una teoria completa, coerente, unificata che includa tutte queste teorie parziali come approssimazioni e che si concili con i fatti senza che ci sia bisogno a tal fine di definire appositamente i valori di certi numeri arbitrari nella teoria. La ricerca di una tale teoria è nota come «l'unificazione della fisica», Einstein spese la maggior parte degli anni della maturità nella vana ricerca di una teoria unificata, ma il tempo non era ancora maturo: esistevano teorie parziali per la gravità e per la forza elettromagnetica, ma si sapeva ben poco sulle forze nucleari. Inoltre, Einstein si rifiutava di credere nella realtà della meccanica quantistica, nonostante il ruolo importante da lui svolto agli inizi nel suo sviluppo. Pare però che il principio di indeterminazione sia un ingrediente fondamentale dell'universo in cui viviamo. Una teoria unificata, per avere successo, dovrà perciò incorporare necessariamente questo principio. Come vedremo, le prospettive di trovare una tale teoria sembrano oggi molto migliori, poiché oggi sappiamo molto di più sull'universo. Dobbiamo però guardarci da un eccesso di fiducia: abbiamo già cullato false illusioni in passato! All'inizio di questo secolo, per esempio, si pensava di poter
spiegare tutto nei termini delle proprietà di una materia continua, come l'elasticità e la conduzione del calore. La scoperta della struttura dell'atomo e del principio di indeterminazione mise fine a tutto questo. Poi, di nuovo, nel 1928 il fisico e Premio Nobel Max Born disse a un gruppo di persone in visita all'Università di Gòttingen: «La fisica, quale la conosciamo, sarà completata in sei mesi». La sua fiducia si fondava sulla recente scoperta, per opera di Dirac, dell'equazione che governava l'elettrone. Si pensava che un'equazione simile governasse anche il protone, che era l'unica altra particella nota a quel tempo, e che la risoluzione di tale problema avrebbe messo fine alla fisica teorica. La scoperta del neutrone e delle forze nucleari vanificò però anche questa prospettiva. Detto questo, io credo nondimeno che ci siano motivi di cauto ottimismo per supporre che oggi si possa essere vicini alla fine della ricerca delle leggi ultime della natura. Nei capitoli precedenti ho descritto la relatività generale, la teoria parziale della gravità e le teorie parziali che governano le interazioni debole, forte ed elettromagnetica. Le ultime tre possono essere combinate nelle cosiddette grandi teorie unificate, o GTU, che non sono ancora molto soddisfacenti perché non includono la gravità e perché contengono un certo numero di quantità, come la massa relativa di varie particelle, che non possono essere predette sulla base della teoria, ma che devono essere scelte ad hoc per concordare con le osservazioni. La difficoltà principale per trovare una teoria che unifichi la gravità con le altre forze è che la relatività generale è una teoria «classica», ossia che non include il principio di indeterminazione della meccanica quantistica. D'altro canto, le altre teorie parziali dipendono dalla meccanica quantistica in un modo essenziale. Un primo passo necessario è perciò quello di combinare la relatività generale col principio di indeterminazione. Come abbiamo visto, questo fatto può produrre conseguenze notevoli, per esempio che i buchi neri non siano neri, e che l'universo non abbia alcuna singolarità ma sia completamente racchiuso in se stesso e privo di un limite. Il guaio, come abbiamo visto nel capitolo 7, è che, in conseguenza del principio di indeterminazione, persino lo spazio «vuoto» può essere pieno di coppie di particelle e antiparticelle virtuali. Queste coppie avrebbero una quantità di energia infinita e perciò, per la famosa equazione di Einstein E = mc2, avrebbero una quantità infinita di
massa. La loro attrazione gravitazionale incurverebbe allora l'universo racchiudendolo in uno spazio infinitamente piccolo. In modo piuttosto simile, quantità infinite apparentemente assurde compaiono in altre teorie parziali, ma in tutti questi casi gli infiniti possono essere cancellati per mezzo di un procedimento chiamato rinormalizzazione. Questo procedimento implica la cancellazione degli infiniti per mezzo dell'introduzione di altri infiniti. Benché questa tecnica sia matematicamente piuttosto dubbia, pare che in pratica funzioni, ed è stata usata con queste teorie per fare delle predizioni che si accordano con le osservazioni con un grado di precisione straordinario. La rinormalizzazione ha però un grave inconveniente dal punto di vista del tentativo di trovare una teoria completa, in quanto significa che i valori reali delle masse e l'intensità delle forze non possono essere predetti dalla teoria, ma devono essere scelti in modo da conciliarsi con le osservazioni. Nel tentativo di incorporare nella relatività generale il principio di indeterminazione, ci sono solo due quantità che possono essere adattate: la grandezza della gravità e il valore della costante cosmologica. Ma l'adattamento di questi valori non è sufficiente a eliminare tutti gli infiniti. Si ha perciò una teoria la quale sembra predire che certe quantità, come la curvatura dello spazio-tempo, sono realmente infinite; eppure queste quantità possono essere osservate e misurate e risultano essere perfettamente finite! Che nel combinare la relatività generale e il principio di indeterminazione si incorra in questo problema era stato sospettato da qualche tempo, ma fu infine confermato da calcoli dettagliati nel 1972. Quattro anni dopo fu suggerita una possibile soluzione, chiamata «supergravità». L'idea era quella di combinare la particella di spin 2 chiamata gravitone, che porta la forza gravitazionale, con certe altre nuove particelle di spin 3/2, 1, 1/2 e 0. In un certo senso, tutte queste particelle potevano quindi essere considerate aspetti diversi di una medesima «superparticella», unificando in tal modo le particelle di materia con spin 1/2 e 3/2 con le particelle portatrici di forza di spin 0,1 e 2. Le coppie virtuali particella-antiparticella di spin 1/2 e 3/2 avrebbero energia negativa e tenderebbero quindi a cancellare l'energia positiva delle particelle virtuali di spin 2, 1 e 0. In conseguenza di ciò molti fra gli infiniti possibili si
cancellerebbero, ma si sospettò che qualche infinito potesse ancora restare. I calcoli richiesti per trovare se restasse o no qualche infinito non cancellato erano però così lunghi e difficili che nessuno era preparato a intraprenderli. Si stimò che persino un computer avrebbe impiegato almeno quattro anni, ed erano molto grandi le probabilità che si facesse almeno un errore, e probabilmente più d'uno. Si sarebbe avuta la certezza di aver trovato la risposta giusta solo se qualcun altro avesse ripetuto il calcolo e trovato la stessa risposta, cosa che non sembrava molto probabile! Nonostante questi problemi, e benché le particelle nelle teorie della supergravità non sembrassero corrispondere in numero alle particelle osservate, la maggior parte degli scienziati credeva che la supergravità fosse probabilmente la risposta giusta al problema dell'unificazione della fisica. Essa sembrava il modo migliore per unificare la gravità con le altre forze. Nel 1984, però, ci fu un notevole mutamento di opinione a favore delle cosiddette teorie delle corde (string theories). In queste teorie gli oggetti basilari non sono particelle, che occupano un singolo punto nello spazio, bensì cose che hanno una lunghezza ma nessun'altra dimensione, come un pezzo di filo infinitamente sottile. Queste «corde» possono avere dei capi (le cosiddette corde aperte) oppure possono essere congiunte con se stesse in cappi o anelli chiusi (corde chiuse; figg. 10.1 e 10.2). Una particella occupa in ogni istante del tempo un punto dello spazio. La sua storia può essere quindi rappresentata da una linea nello spaziotempo (la «linea d'universo», world-line). Una corda, d'altra parte, occupa una linea nello spazio in ogni momento del tempo. Perciò la sua storia nello spazio-tempo è una superficie bidimensionale chiamata il foglio d'universo {the world-sheet). (Ogni punto su tale foglio d'universo può essere descritto da due numeri: uno specifica il tempo e l'altro la posizione del punto sulla corda.) Il foglio d'universo di una corda aperta è una striscia; i suoi margini rappresentano le traiettorie attraverso lo spazio-tempo degli estremi della corda (fig. 10.1). Il foglio d'universo di una corda chiusa è un cilindro o tubo (fig. 10.2); una sezione del tubo è un cerchio, che rappresenta la posizione della corda in un tempo particolare.
Due corde possono unirsi a formare una corda singola; nel caso di corde aperte, esse si uniscono semplicemente a un capo (fig. 10.3), mentre nel caso di corde chiuse si ha un tipo di sutura che ricorda il modo in cui si uniscono le due gambe di un paio di pantaloni (fig. 10.4). Similmente, una singola corda può dividersi in due corde. Nelle teorie delle corde, quelle che in precedenza erano concepite come particelle sono raffigurate oggi come onde che si propagano lungo la corda, come onde sul filo vibrante di un aquilone. L'emissione o assorbimento di una particella da parte di un'altra corrisponde alla divisione o alla congiunzione di corde. Per esempio, la forza gravitazionale che il Sole esercita sulla Terra era descritta nelle teorie delle particelle come causata dall'emissione di un gravitone da parte di una particella nel Sole e dal suo assorbimento da parte di una particella sulla Terra (fig. 10.5). Nella teoria delle corde, questo processo corrisponde invece a un tubo in forma di H (fig. 10.6; la teoria delle corde assomiglia, in un certo senso, all'idraulica). I due tratti verticali della H corrispondono alle particelle nel Sole e nella Terra e il tratto orizzontale corrisponde al gravitone che viaggia fra l'uno e l'altro. La teoria delle corde ha una storia curiosa. Essa fu inventata in origine verso
la fine degli anni Sessanta nel tentativo di trovare una teoria che descrivesse la forza forte. L'idea era che particelle simili al protone e al neutrone potessero essere considerate come onde su una corda. Le forze forti fra le particelle dovevano corrispondere a pezzi di corda che univano altri pezzi di corda, con un intreccio simile al gioco di fili in una tela di ragno. Perché questa teoria desse il valore osservato della forza forte fra particelle, le corde dovevano essere simili a nastri di gomma con una trazione di circa dieci tonnellate. Nel 1974 Joél Scherk, di Parigi, e John Schwartz, del California Institute of Technology, pubblicarono un articolo in cui dimostravano che la teoria delle corde poteva descrivere la forza gravitazionale, ma solo se la tensione nella corda fosse stata molto più elevata, di circa mille milioni di milioni di milioni di milioni di milioni di milioni (1 seguito da trentanove zeri) di tonnellate. Le predizioni della teoria delle corde erano esattamente identiche a quelle della relatività generale su scale di lunghezza ordinarie, ma differivano a distanze molto piccole, di meno di un millipentilionesimo di centimetro (un
centimetro diviso 1 seguito da trentatré zeri). La ricerca di Scherk e Schwartz non fu però degnata di molta attenzione perché, press'a poco in quel periodo, la maggior parte dei ricercatori abbandonarono la teoria originaria delle corde a favore della teoria fondata su quark e gluoni, che sembrava conciliarsi meglio con i risultati dell'osservazione. Scherk morì in circostanze tragiche (soffriva di diabete e andò in coma quando non c'era nessuno intorno a lui che potesse praticargli un'iniezione di insulina). Così Schwartz rimase solo come quasi unico sostenitore della teoria delle corde, ma ora con la proposta di un valore per la tensione delle corde molto più elevato. Nel 1984 l'interesse per le corde fu richiamato in vita improvvisamente, a quanto pare per due ragioni. Una era che non si stavano facendo in realtà molti progressi verso una dimostrazione del fatto che la supergravità fosse finita o che potesse spiegare i tipi di particelle che osserviamo. L'altra fu la pubblicazione di un articolo di John Schwartz e di Mike Green del Queen Mary College di Londra, in cui si dimostrava che la teoria delle corde poteva spiegare l'esistenza di particelle con una chiralità sinistrorsa incorporata, come alcune delle particelle che osserviamo nella realtà. Quali che fossero le ragioni di questo mutato orientamento, un gran numero di ricercatori cominciarono ben presto a lavorare sulla teoria delle corde e ne fu sviluppata una nuova versione, la cosiddetta teoria eterotica, la quale sembrava poter spiegare i tipi di particelle che osserviamo. Anche le teorie delle corde conducono a quantità infinite, ma si pensa che queste potranno essere cancellate completamente in versioni come quelle delle corde eterotiche (anche se non lo sappiamo ancora con certezza). Le teorie delle corde presentano però un problema maggiore: esse sembrano consistenti solo se lo spazio-tempo ha dieci o venti dimensioni, in luogo delle solite quattro! Ovviamente, dimensioni extra dello spazio-tempo sono un luogo comune della fantascienza, dove in effetti esse sono quasi una necessità; in caso contrario, infatti, l'impossibilità di viaggiare a una velocità superiore a quella della luce — imposta dalla teoria della relatività — comporterebbe dispendi di tempo eccessivi nei viaggi interstellari e intergalattici. L'idea della fantascienza è che sia forse possibile prendere scorciatoie passando per dimensioni superiori. Si può visualizzare quest'idea nel modo seguente: immaginiamo che lo spazio in cui viviamo abbia solo
due dimensioni e che sia incurvato come la superficie interna di una ciambella, dell'anello dell'ancora (cicala) o del solido geometrico noto come toro (fig. 10.7). Se fossimo su un lato della superficie interna della ciambella e volessimo andare in un punto di rimpetto, dovremmo percorrere la superficie interna della ciambella stessa. Se, però, fossimo in grado di muoverci nella terza dimensione, potremmo abbreviare il viaggio
attraversando direttamente il buco della ciambella. Perché non percepiamo tutte queste dimensioni extra, se esistono veramente? Perché vediamo solo tre dimensioni spaziali e una dimensione temporale? Il suggerimento è che le altre dimensioni siano arrotolate in uno spazio di dimensioni piccolissime, dell'ordine di un pentilione di centimetro. Si tratta di uno spazio così piccolo che non abbiamo assolutamente alcuna possibilità di percepirlo; noi vediamo solo le tre dimensioni spaziali e una dimensione temporale, nella quale lo spazio-tempo è abbastanza piatto. Esso assomiglia in qualche misura alla superficie di un'arancia; se la
osserviamo da vicino la vediamo incurvata e corrugata; vista da una certa distanza, essa ci appare assolutamente liscia. Lo stesso vale per lo spazio-tempo: su una scala molto piccola esso è decadimensionale e altamente incurvato, mentre su una scala maggiore non percepiamo la curvatura o le dimensioni extra. Se questo quadro è corretto, esso annuncia cattive notizie per gli aspiranti viaggiatori spaziali: le dimensioni extra sarebbero troppo piccole per poter essere utilizzate da un'astronave. Si pone inoltre un altro problema importante: Perché alcune, ma non tutte, le dimensioni dovrebbero essere arrotolate in una piccola palla? E presumibile che nei primissimi istanti della vita dell'universo tutte le dimensioni fossero molto incurvate. Perché tre dimensioni spaziali e una temporale si spianarono mentre le altre rimangono compattamente arrotolate? Una possibile risposta è il principio antropico. Due dimensioni spaziali non sembrano sufficienti per consentire lo sviluppo di esseri complicati come noi. Per esempio, animali bidimensionali che vivessero su una terra unidimensionale dovrebbero spesso arrampicarsi l'uno sull'altro per l'impossibilità di passare l'uno accanto all'altro. Se un essere bidimensionale mangiasse qualcosa che non fosse in grado di digerire completamente, dovrebbe espellere i residui per la stessa via attraverso cui li aveva ingeriti perché, se ci fosse un canale digerente che attraversasse tutto il suo corpo, esso dividerebbe l'organismo in due parti, separate: il nostro organismo bidimensionale si dividerebbe in due (fig. 10.8). Similmente, è difficile vedere come potrebbe esserci una circolazione del sangue in un essere bidimensionale.
Ci sarebbero problemi anche nel caso che le dimensioni spaziali fossero più di tre. La forza gravitazionale fra due corpi diminuirebbe con la distanza più rapidamente di quanto non faccia nelle tre dimensioni. (Nelle tre dimensioni, al raddoppiare della distanza la forza gravitazionale diminuisce a 1/4. Nelle quattro dimensioni diminuirebbe a 1/8, nelle cinque dimensioni a 1/16 e via dicendo.) In conseguenza di ciò le orbite dei pianeti che si muovono attorno al Sole, come la Terra, sarebbero instabili: la minima deviazione da un'orbita perfettamente circolare (come quelle causate dall'attrazione gravitazionale di altri pianeti) avrebbe l'effetto di far immettere la Terra su una traiettoria spiraleggiante che la porterebbe ad allontanarsi sempre più dal Sole o che la condurrebbe a precipitare in esso. Noi saremmo o surgelati o inceneriti. In realtà, in conseguenza di questo stesso comportamento della gravità con la
distanza il Sole stesso non potrebbe esistere in uno stato stabile in quanto verrebbe meno l'equilibrio fra la pressione e la gravità: esso o andrebbe in pezzi o si contrarrebbe a formare un buco nero. Nell'uno come nell'altro caso, non potrebbe esserci di molto aiuto come fonte di calore e di luce per la vita sulla Terra. Su una scala più piccola, le forze elettriche che causano il movimento orbitale degli elettroni intorno al nucleo in un atomo si comporterebbero nello stesso modo delle forze gravitazionali. Così gli elettroni o sfuggirebbero del tutto alle forze attrattive dell'atomo o cadrebbero spiraleggiando nel nucleo. In nessuno dei due casi potrebbero esistere gli atomi quali li conosciamo. Pare quindi chiaro che la vita, almeno quale la conosciamo, possa esistere solo in regioni dello spazio-tempo in cui una dimensione temporale e le tre dimensioni spaziali non siano arrotolate in una piccola palla bensì distese. Ciò significa quindi che ci si potrebbe appellare al principio antropico debole, purché si potesse mostrare che la teoria delle corde permetta che ci siano tali regioni dell'universo, e pare che in effetti essa lo permetta. Potrebbero ben esserci altre regioni dell'universo, o altri universi (qualsiasi cosa questo possa significare), in cui tutte le dimensioni siano arrotolate molto in piccolo o in cui siano quasi distese più di quattro dimensioni, ma in tali regioni non ci sarebbero esseri intelligenti a osservare il diverso numero delle dimensioni efficaci. A prescindere dal problema del numero di dimensioni che lo spazio-tempo sembra possedere, la teoria delle corde ha ancora vari altri problemi da risolvere prima di poter essere acclamata come la definitiva teoria unificata della fisica. Noi non sappiamo ancora se tutti gli infiniti si cancellino fra loro o in che modo esattamente correlare le onde sulle corde ai particolari tipi di particelle che osserviamo. E nondimeno probabile che le risposte a queste domande vengano trovate nei prossimi anni, e che alla fine del secolo si possa infine sapere se la teoria delle corde sia effettivamente la teoria unificata della fisica ricercata da tanto tempo. Ma una tale teoria unificata può esistere realmente? Oppure stiamo solo inseguendo un miraggio? Pare ci siano tre possibilità: 1)
Esiste realmente una teoria unificata completa, che un giorno
scopriremo se saremo abbastanza bravi. 2) Non esiste una teoria definitiva dell'universo, ma solo una sequenza infinita di teorie che descrivono l'universo in un modo sempre più esatto. 3) Non esiste alcuna teoria dell'universo; gli eventi non possono essere predetti al di là di una certa misura, ma si verificano in modo casuale e arbitrario. Alcuni argomenterebbero a favore della terza possibilità, adducendo il motivo che, se ci fosse un insieme completo di leggi, queste violerebbero la libertà di Dio di cambiar parere e intervenire nel mondo. È un po' come il vecchio paradosso: Dio può creare una pietra così pesante da non riuscire a sollevarla? Ma l'idea che Dio possa aver voglia di cambiare idea è un esempio dell'errore, additato da sant'Agostino, di immaginare Dio come un essere esistente nel tempo: il tempo è infatti una proprietà solo dell'universo creato da Dio. E presumibile che egli sapesse bene quel che voleva quando lo creò! Con l'avvento della meccanica quantistica siamo giunti a riconoscere che gli eventi non possono essere predetti con una precisione assoluta, ma che rimane sempre un certo grado di incertezza. Volendo, si potrebbe attribuire questa casualità all'intervento di Dio, ma sarebbe un tipo di intervento molto strano: non ci sono infatti prove che tale intervento sia diretto verso un qualche fine. In effetti, se così fosse, esso non sarebbe più casuale per definizione. In tempi moderni noi abbiamo eliminato efficacemente la terza possibilità ridefinendo l'obiettivo della scienza: il nostro obiettivo è quello di formulare un insieme di leggi che ci consenta di predire eventi solo fino al limite fissato dal principio di indeterminazione. La seconda possibilità, che ci sia una sequenza infinita di teorie sempre più raffinate, è in accordo con tutta l'esperienza che abbiamo maturato finora. In molte occasioni abbiamo accresciuto la sensibilità delle nostre misurazioni o abbiamo eseguito una nuova classe di osservazioni, solo per scoprire nuovi fenomeni che non erano predetti dalla teoria esistente, e per poter spiegare questi nuovi fenomeni abbiamo dovuto sviluppare una teoria
più perfezionata. Non sarebbe perciò molto sorprendente se la presente generazione di grandi teorie unificate fosse in errore nel sostenere che nulla di essenzialmente nuovo accadrà fra l'energia dell'unificazione elettrodebole a circa 100 GeV e l'energia della grande unificazione di circa mille milioni di milioni di GeV. Noi potremmo attenderci, in effetti, di trovare vari nuovi livelli di struttura più basilari dei quark e degli elettroni, che oggi consideriamo particelle «elementari». Pare però che la gravità possa fornire un limite a questa sequenza di «scatole cinesi». Se avessimo una particella con un'energia superiore alla cosiddetta energia di Planck, di dieci trilioni di GeV (1 seguito da diciannove zeri), la sua massa sarebbe così concentrata che essa si separerebbe dal resto dell'universo e formerebbe un piccolo buco nero. Pare quindi che la sequenza di teorie sempre più raffinate dovrebbe avere un qualche limite nel corso della transizione a energie sempre maggiori, così che dovrebbe esserci una qualche teoria definitiva dell'universo. Ovviamente l'energia di Planck è molto lontana dalle energie di un centinaio circa di GeV, che sono il massimo che noi riusciamo a produrre attualmente in laboratorio. Non riusciremo certo a valicare questo abisso con gli acceleratori di particelle nel futuro prevedibile! I primissimi istanti di vita dell'universo, però, sono un periodo in cui energie del genere devono essere occorse. Io penso che ci sia una buona probabilità che lo studio dell'universo primordiale e le richieste di consistenza matematica possano condurci a una teoria unificata completa quando qualcuno di noi sarà ancora vivo, sempre presumendo che non facciamo prima saltare in aria il nostro pianeta. Che cosa significherebbe se noi scoprissimo veramente la teoria definitiva dell'universo? Come abbiamo visto nel capitolo 1, non potremmo mai essere del tutto sicuri di aver trovato in effetti la teoria corretta, poiché le teorie non possono essere dimostrate. Se però la teoria fosse matematicamente consistente e fornisse sempre predizioni in accordo con le osservazioni, potremmo essere ragionevolmente fiduciosi di aver trovato la teoria giusta. Essa metterebbe fine a un capitolo lungo e glorioso nella storia della lotta intellettuale dell'umanità per comprendere l'universo. Essa rivoluzionerebbe però anche la comprensione che la persona comune ha delle leggi che governano l'universo. Al tempo di Newton una persona colta poteva
comprendere, almeno per sommi capi, l'intero sapere umano. Da allora a oggi, però, il ritmo dello sviluppo della scienza ha reso un tale compito impossibile. Poiché le teorie vengono modificate di continuo per tener conto di nuove osservazioni, esse non vengono mai assimilate del tutto o semplificate in modo che l'uomo della strada possa capirle. Occorre essere specialisti per capirle, ma anche uno specialista può sperare di comprendere in modo appropriato solo una piccola proporzione delle teorie scientifiche. Inoltre, il ritmo del progresso è così rapido che ciò che si impara in una scuola media superiore o all'università è sempre, poco o tanto, superato. Solo poche persone riescono a tenere il passo con la rapida avanzata della frontiera del sapere, e a tale scopo devono dedicare tutto il loro tempo a questo compito e specializzarsi in una piccola area. Il resto della popolazione ha ben poca idea dei progressi che vengono compiuti o dell'eccitazione che essi stanno suscitando. Settant'anni fa, se si deve credere a Eddington, soltanto due persone capivano la teoria generale della relatività. Oggi la capiscono decine di migliaia di studenti universitari, e molti milioni di persone hanno almeno una certa familiarità con l'idea. Se venisse scoperta una teoria unificata completa, sarebbe solo questione di tempo prima che essa venisse assimilata e semplificata nello stesso modo e insegnata nelle scuole, almeno nelle sue grandi linee. Noi potremmo allora avere tutti una qualche comprensione delle leggi che governano l'universo e alle quali dobbiamo la nostra esistenza. Quand'anche riuscissimo a scoprire una teoria unificata completa, ciò non significherebbe che saremmo in grado di predire eventi in generale, per due ragioni. La prima è la limitazione posta ai nostri poteri di predizione dal principio di indeterminazione della meccanica quantistica. Non si può fare niente per aggirare questa difficoltà. In pratica, però, questa prima limitazione è meno restrittiva della seconda. Questa consegue all'impossibilità di risolvere esattamente le equazioni della teoria, tranne che in situazioni molto semplici. (Noi non riusciamo a risolvere esattamente neppure le equazioni per il moto dei tre corpi nella teoria della gravitazione di Newton, e la difficoltà aumenta col numero dei corpi e con la complessità della teoria.) Noi conosciamo già le leggi che governano il comportamento della materia in tutte le condizioni tranne quelle più estreme. In particolare
conosciamo le leggi fondamentali che sono alla base della chimica e della biologia. Eppure non abbiamo certamente ridotto queste discipline allo status di problemi risolti; finora abbiamo avuto ben poco successo nella predizione del comportamento umano sulla base di equazioni matematiche! Così, quand'anche trovassimo un insieme completo di leggi fondamentali, negli anni a venire ci resterebbe ancora il compito intellettualmente molto impegnativo di sviluppare metodi di approssimazione migliori, per poter fare predizioni utili dei probabili esiti in situazioni complicate e realistiche. Una teoria unificata completa, coerente, è solo il primo passo: il nostro obiettivo è quello di una comprensione completa degli eventi attorno a noi, e della nostra esistenza.
11 CONCLUSIONE
Viviamo in un mondo che ci disorienta con la sua complessità. Vogliamo comprendere ciò che vediamo attorno a noi e chiederci: Qual è la natura dell'universo? Qual è il nostro posto in esso? Da che cosa ha avuto origine l'universo e da dove veniamo noi? Perché l'universo è così come lo vediamo? Per tentare di rispondere a queste domande adottiamo una qualche «immagine del mondo». Come una torre infinita di tartarughe che poggiano l'una sull'altra e che, tutte insieme, reggono la Terra piatta è un'immagine, così lo è anche la teoria delle supercorde. Entrambe sono teorie dell'universo, anche se la seconda è molto più matematica e molto più precisa della prima. Nessuna delle due teorie è fondata su dati di osservazione: nessuno ha mai visto una tartaruga gigante che reggesse la Terra sul suo dorso, ma nessuno ha mai visto neppure una supercorda. La teoria delle tartarughe non è però una buona teoria scientifica perché predice la possibilità che, giunti al confine del mondo, si possa cadere dal suo margine nello spazio. Questo fatto non è risultato in accordo con l'esperienza, a meno che non si voglia trovare in esso la spiegazione della sparizione di navi e aerei nel Triangolo delle Bermude! I più antichi tentativi teorici di descrivere e spiegare l'universo implicarono l'idea che eventi e fenomeni naturali fossero controllati da spiriti con emozioni umane, i quali agivano in modo spesso capriccioso e imprevedibile. Tali spiriti risiedevano in oggetti naturali come fiumi e montagne, fra cui anche corpi celesti, come il Sole e la Luna. Si doveva cercare di placare tali spiriti e di procurarsene i favori, allo scopo di assicurare la fertilità del suolo
e l'avvicendarsi delle stagioni. Gradualmente, però, l'uomo dovette notare che esistevano certe regolarità: il Sole sorgeva sempre a levante e tramontava a ponente, indipendentemente dal fatto che fossero o non fossero stati offerti sacrifici al dio Sole. Inoltre il Sole, la Luna e i pianeti seguivano precise traiettorie in cielo, le quali potevano essere predette in anticipo con una precisione considerevole. Il Sole e la Luna potevano essere ancora divinità, ma erano divinità che obbedivano a leggi rigorose, apparentemente senza alcuna eccezione, se si fa la tara a storie come quelle del Sole fermato in cielo su Gabaon per permettere a Giosuè di cogliere tutti i frutti della sua vittoria sugli Amorei. Dapprima queste regolarità e queste leggi furono chiare solo in astronomia e in poche altre situazioni. Col progredire della civiltà, e in particolare negli ultimi trecento anni, furono però scoperte un numero sempre maggiore di regolarità e di leggi. Il successo di queste leggi condusse Laplace, all'inizio dell'Ottocento, a postulare il determinismo scientifico, ossia la dottrina che esistesse un insieme di leggi in grado di determinare esattamente l'evoluzione dell'universo, data la sua configurazione in un tempo preciso. Il determinismo di Laplace era incompleto sotto due aspetti. Esso non diceva come potessero essere scelte le leggi e non specificava la configurazione iniziale dell'universo, che venivano lasciate a Dio. Toccava a Dio scegliere in che modo l'universo doveva cominciare e a quali leggi doveva obbedire, ma egli non interveniva più nell'universo una volta che esso avesse avuto inizio. Dio era in effetti confinato nelle aree che la scienza dell'Ottocento non comprendeva. Oggi noi sappiamo che le speranze deterministiche di Laplace non sono realizzabili, almeno nei termini che egli aveva in mente. Il principio di indeterminazione della meccanica quantistica implica che certe coppie di quantità, come la posizione e la velocità di una particella, non possano essere predette entrambe con una precisione completa. La meccanica quantistica si occupa di questa situazione attraverso una classe di teorie quantistiche in cui le particelle non hanno posizioni e velocità ben definite ma sono rappresentate da un'onda. Queste teorie quantistiche sono deterministiche nel senso che comprendono leggi per l'evoluzione dell'onda nel tempo. Così, se si conosce l'onda in un tempo dato,
la si può calcolare per qualsiasi altro tempo. L'elemento impredicibile, casuale, interviene solo quando tentiamo di interpretare l'onda nei termini delle posizioni e velocità di particelle. Ma proprio questo è forse il nostro errore: può darsi che non ci siano posizioni e velocità di particelle, ma soltanto onde. E solo che noi tentiamo con ostinazione di adattare le onde alle nostre idee preconcette di posizioni e velocità. Il cattivo assortimento che ne risulta è la causa dell'apparente impredicibilità. In effetti, noi abbiamo ridefinito il compito della scienza nella scoperta di leggi che ci consentano di predire eventi sino al limite fissato dal principio di indeterminazione. Rimane, però, la questione: Come o perché furono scelti le leggi e lo stato iniziale dell'universo? In questo libro ho attribuito uno speciale rilievo alle leggi che governano la gravità, perché è la gravità a plasmare la struttura su grande scala dell'universo, anche se essa è la più debole delle quattro categorie di forze. Le leggi della gravità erano incompatibili con la concezione, accettata fino a poco tempo fa, che l'universo sia immutabile nel tempo: il fatto che la gravità sia sempre attrattiva implica che l'universo deve o espandersi o contrarsi. Secondo la teoria generale della relatività, in passato dev'esserci stata una condizione di densità infinita, il big bang, la quale deve aver segnato un inizio effettivo del tempo. Similmente, se l'intero universo dovesse tornare a contrarsi fino al collasso finale, in futuro dovrà esserci un altro stato di densità infinita, il big crunch, che sarebbe una fine del tempo. Ma quand'anche l'intero universo non fosse destinato a un grande collasso finale, ci sarebbero singolarità nelle varie regioni localizzate che si fossero contratte a formare buchi neri. Queste singolarità sarebbero una fine del tempo per chiunque andasse a cadere nel buco nero. In corrispondenza del big bang e di altre singolarità tutte le leggi verrebbero meno, cosicché Dio avrebbe ancora una completa libertà per scegliere che cosa sia accaduto in principio e in che modo l'universo abbia avuto origine. Quando combiniamo la meccanica quantistica con la relatività generale, pare ci sia una nuova possibilità che non si era mai affacciata prima: che spazio e tempo assieme possano formare uno spazio-tempo finito quadridimensionale, senza singolarità e senza confini, simile alla superficie della Terra ma con un maggior numero di dimensioni. Pare che quest'idea
potrebbe spiegare molti dei caratteri osservati dell'universo, come la sua uniformità su vasta scala e anche le deviazioni su piccola scala dall'omogeneità, come galassie, stelle e persino esseri umani. Essa potrebbe spiegare persino la freccia del tempo che osserviamo. Se però l'universo è completamente contenuto in se stesso e autosufficiente, senza alcuna singolarità o confine, e completamente descritto da una teoria unificata, questo fatto ha implicazioni profonde per il ruolo di Dio come creatore. Einstein si pose una volta la domanda: «Quanta scelta ebbe Dio nella costruzione dell'universo?». Se l'ipotesi dell'assenza di ogni confine è corretta, Dio non ha avuto alcuna libertà nella scelta delle condizioni iniziali. Egli avrebbe avuto però ancora, ovviamente, la libertà di scegliere le leggi a cui l'universo doveva obbedire. Questa non sarebbe stata probabilmente, peraltro, una grande scelta; poteva infatti esserci una sola teoria unificata completa, o al più un piccolo numero di tali teorie, come la teoria delle corde eterotiche, che fossero consistenti e che permettessero l'evolversi di strutture così complesse come gli esseri umani, capaci di investigare le leggi dell'universo e porsi domande sulla natura di Dio. Ma quand'anche ci fosse una sola teoria unificata possibile, essa sarebbe solo un insieme di regole e di equazioni. Che cos'è che infonde vita nelle equazioni e che costruisce un universo che possa essere descritto da esse? L'approccio consueto della scienza, consistente nel costruire un modello matematico, non può rispondere alle domande del perché dovrebbe esserci un universo reale descrivibile da quel modello. Perché l'universo si dà la pena di esistere? La teoria unificata è così cogente da determinare la sua propria esistenza? Oppure ha bisogno di un creatore e, in tal caso, questi ha un qualche altro effetto sull'universo? E chi ha creato il creatore? Fino a oggi la maggior parte degli scienziati sono stati troppo occupati nello sviluppo di nuove teorie che descrivono che cosa sia l'universo per porsi la domanda perché? D'altra parte, gli individui professionalmente qualificati a chiedersi sempre perché, essendo filosofi, non sono riusciti a tenere il passo col progresso delle teorie scientifiche. Nel Settecento i filosofi consideravano di propria competenza l'intero sapere umano, compresa la scienza, e discutevano problemi come: l'universo ha avuto un inizio? Nell'Ottocento e nel Novecento la scienza divenne però troppo tecnica e
matematica per i filosofi o per chiunque altro tranne pochi specialisti. I filosofi ridussero a tal punto l'ambito delle loro investigazioni che Wittgenstein, il filosofo più famoso di questo secolo, disse: «L'unico compito restante per la filosofia è l'analisi del linguaggio». Quale caduta dalla grande tradizione della filosofia da Aristotele a Kant! Se però perverremo a scoprire una teoria completa, essa dovrebbe essere col tempo comprensibile a tutti nei suoi principi generali, e non solo a pochi scienziati. Noi tutti — filosofi, scienziati e gente comune — dovremmo allora essere in grado di partecipare alla discussione del problema del perché noi e l'universo esistiamo. Se riusciremo a trovare la risposta a questa domanda, decreteremo il trionfo definitivo della ragione umana: giacché allora conosceremmo la mente di Dio.
ALBERT EINSTEIN
La connessione di Einstein con gli aspetti politici dello sviluppo e dell'uso della bomba nucleare è ben nota: prima egli firmò la famosa lettera al presidente Franklin Delano Roosevelt che convinse gli Stati Uniti a considerare seriamente l'idea, e poi si impegnò negli sforzi postbellici per prevenire la guerra nucleare. Ma queste non furono solo azioni isolate di uno scienziato trascinato nel mondo della politica. La vita di Einstein fu in effetti, per usare le sue parole, «divisa fra politica ed equazioni». Gli inizi dell'attività politica di Einstein si collocano durante la prima guerra mondiale, quando era professore a Berlino. Disgustato da quello che gli sembrava uno spreco di vite umane, si impegnò in dimostrazioni contro la guerra. Il pubblico appoggio da lui dato alla disobbedienza civile e l'incoraggiamento ai giovani a rifiutare la coscrizione non lo resero certo benvoluto ai suoi colleghi. Poi, dopo la guerra, Einstein diresse i suoi sforzi verso la riconciliazione e verso il miglioramento dei rapporti internazionali. Anche questo comportamento non lo rese popolare, e ben presto la sua politica gli rese difficile recarsi in visita negli Stati Uniti, anche per tenervi conferenze. La seconda grande causa di Einstein fu il sionismo. Pur essendo di origine ebraica, Einstein rifiutava l'idea biblica di Dio. Una crescente consapevolezza della marea montante dell'antisemitismo, sia prima sia durante la prima guerra mondiale, lo condusse gradualmente a identificarsi con la comunità ebraica, e in seguito a diventare un aperto sostenitore del sionismo. Ancora una volta l'impopolarità non gli impedì di esprimere il suo pensiero. Le sue idee furono attaccate; fu fondata addirittura un'organizzazione anti-Einstein. Un uomo fu riconosciuto colpevole in tribunale di avere incitato altri a uccidere Einstein (e condannato a pagare una multa di sei dollari). Ma Einstein non si scomponeva tanto facilmente: quando fu pubblicato un libro
intitolato 100 Authors Agaìnst Einstein {Cento autori contro Einstein), replicò: «Se io fossi in errore, ne sarebbe bastato uno solo!». Nel 1933 salì al potere Hitler. Einstein, che si trovava allora in America, dichiarò che non avrebbe fatto ritorno in Germania. Poi, mentre i nazisti facevano un'incursione in casa sua e gli confiscavano il conto in banca, un quotidiano berlinese usciva con questo titolo: «Buone notizie da Einstein: non ritorna più». Dinanzi alla minaccia nazista, Einstein rinunciò al pacifismo e infine, temendo che gli scienziati tedeschi riuscissero a costruire una bomba atomica, consigliò agli Stati Uniti di svilupparla essi stessi. Ma prima ancora che venisse fatta esplodere la prima bomba atomica, egli stava già mettendo pubblicamente in guardia contro i pericoli della guerra nucleare e proponendo un controllo internazionale sulle armi nucleari. Per tutta la sua vita, gli sforzi di Einstein verso la pace conseguirono probabilmente ben pochi risultati duraturi, e certamente gli procurarono pochi amici. Il suo rumoroso sostegno alla causa sionista fu però debitamente riconosciuto nel 1952, quando gli fu offerta la presidenza dello Stato di Israele. Einstein declinò l'offerta, dicendo che pensava di essere troppo ingenuo in politica. Ma forse la ragione vera era un'altra. Per citare ancora le sue parole: «Per me le equazioni sono più importanti, perché la politica è per il presente, ma un'equazione è per l'eternità».
GALILEO GALILEI
A Galileo, forse più che a qualsiasi altro singolo individuo, si deve la nascita della scienza moderna. Il suo famoso conflitto con la Chiesa cattolica ebbe un posto centrale nella sua filosofia, poiché egli fu uno fra i primi a sostenere che si poteva sperare di capire come il mondo funzioni e, inoltre,' che ciò sarebbe stato possibile attraverso l'osservazione del mondo reale. Galileo aveva aderito molto presto all'ipotesi copernicana (che i pianeti orbitino attorno al Sole), ma solo dopo aver trovato le prove necessarie a sostenere l'idea cominciò a difenderla pubblicamente. Scrisse sulla teoria di Copernico in volgare (anziché nella consueta lingua accademica, il latino), e ben presto le sue idee trovarono un vasto sostegno fuori delle università. Questo fatto irritò molto i professori aristotelici, che si coalizzarono contro di lui cercando di convincere la Chiesa cattolica a proibire il copernicanesimo. Galileo, preoccupato dalla piega che stavano prendendo le cose, si recò a Roma per parlare alle autorità ecclesiastiche. Egli sostenne che le Sacre Scritture non intendevano insegnarci nulla su teorie scientifiche e che, quando la lettera della Bibbia era in conflitto col senso comune, si doveva supporre che essa si esprimesse in senso allegorico. Ma la Chiesa temeva uno scandalo che potesse pregiudicare la sua lotta contro il Protestantesimo, e quindi adottò misure repressive. Nel 1616 essa dichiarò la dottrina copernicana «falsa ed erronea» e ammonì Galileo a non «difendere o tenere» mai più tale dottrina. Galileo accondiscese. Nel 1623 salì al soglio pontificio un vecchio amico di Galileo, Maffeo Barberini, che assunse il nome di Urbano VIII. Galileo tentò immediatamente di far revocare il decreto del 1616. Il suo tentativo non ebbe successo, ma
egli riuscì a procurarsi il permesso di scrivere un libro in cui si discutessero sia la teoria aristotelica sia quella copernicana a due condizioni: di non prendere partito e di venire alla conclusione che l'uomo non avrebbe potuto in ogni caso determinare come funzionasse il mondo, perché Dio avrebbe potuto ottenere gli stessi effetti in modi inescogitabili dall'uomo, che non poteva certo porre restrizioni all'onnipotenza divina. Il libro, il Dialogo sopra i due massimi sistemi del mondo tolemaico e copernicano, fu completato e pubblicato nel 1632, col pieno consenso dei censori, e fu immediatamente salutato in tutt'Europa come un capolavoro letterario e filosofico. Ben presto Urbano Vili, rendendosi conto che la gente vedeva nel libro un argomento convincente a favore del copernicanesimo, si dolse di averne permesso la pubblicazione. Il papa sostenne che, benché il Dialogo fosse corredato dall'approvazione ufficiale dei censori, Galileo non aveva però ottemperato al decreto del 1616. Egli fu perciò convocato dinanzi all'Inquisizione, la quale lo condannò agli arresti domiciliari a vita e gli ordinò di rinunciare pubblicamente al copernicanesimo. Per la seconda volta, Galileo accondiscese. Galileo rimase un fedele cattolico, ma la sua fede nell'autonomia della scienza non era stata soffocata. Quattro anni prima della sua morte, avvenuta nel 1642, mentre si trovava ancora agli arresti domiciliari ad Arcetri, il manoscritto del suo secondo grande libro fu fatto uscire clandestinamente dall'Italia e consegnato a un prestigioso editore olandese. Fu quest'opera, Discorsi e dimostrazioni matematiche, intorno a due nuove scienze attenenti alla meccanica e i movimenti locali, a segnare, ancor più che il suo sostegno al copernicanesimo, la genesi della fisica moderna.
ISAAC NEWTON
Isaac Newton non ebbe un carattere facile. I suoi rapporti con altri accademici furono notoriamente turbolenti, e si può dire che la maggior parte della sua vita fu caratterizzata da aspre controversie. Dopo la pubblicazione dei Philosophiae naturalis principia matematica (Principi matematici della filosofia naturale) — senza dubbio l'opera più influente che sia mai stata scritta in fisica — Newton era asceso rapidamente nella considerazione del pubblico. Nominato presidente della Royal Society, fu anche il primo scienziato a essere fatto cavaliere. Newton si trovò ben presto in urto con l'astronomo reale, John Flamsteed, che in precedenza gli aveva fornito dati preziosi per i Principia ma che ora si rifiutò di fornirgli le informazioni di cui egli aveva bisogno. Newton non era uomo tale da accontentarsi di un no per risposta; si era fatto nominare membro del consiglio di amministrazione del Royal Observatory e tentò di imporre la pubblicazione immediata dei dati che gli stavano a cuore. Infine riuscì a far sì che le opere di Flamsteed venissero preparate per la pubblicazione dal mortale nemico dello stesso Flamsteed, Edmond Halley. Flamsteed portò però il caso in tribunale e, appena in tempo, riuscì a procurarsi un'ingiunzione della corte per impedire la distribuzione dell'opera trafugata. Newton, esasperato da questa vicenda, si vendicò cancellando sistematicamente tutti i riferimenti a Flamsteed nelle edizioni successive dei Principia. Una controversia più grave fu quella col filosofo tedesco Gottfried Wilhelm Leibniz. Tanto Leibniz quanto Newton avevano sviluppato indipendentemente una branca della matematica detta calcolo infinitesimale, che sta alla base di gran parte della fisica moderna. Anche se noi oggi sappiamo che Newton scoprì il calcolo infinitesimale vari anni prima
di Leibniz, lo pubblicò però molto tempo dopo. Ne seguì un'aspra disputa sulla priorità, e vari scienziati vi presero energicamente parte a favore dell'uno o dell'altro dei due contendenti. E però degno di nota che la maggior parte degli articoli apparsi in difesa di Newton siano stati scritti in origine di suo pugno, e solo pubblicati sotto il nome di amici! Al crescere della controversia, Leibniz commise l'errore di appellarsi alla Royal Society per risolverla. Newton, in quanto presidente della Royal Society, designò per investigare sulla questione un comitato «imparziale» che, vedi caso, era formato per intero da suoi amici! Ma non fu tutto: fu poi lo stesso Newton a scrivere il rapporto del comitato e a farlo pubblicare dalla Royal Society, accusando ufficialmente Leibniz di plagio. Non ancora soddisfatto, scrisse una recensione anonima del rapporto, pubblicandola nel periodico della Royal Society. Si dice che, dopo la morte di Leibniz, Newton avrebbe dichiarato di aver provato una grande soddisfazione nello «spezzare il cuore di Liebniz». Durante il periodo di queste due dispute, Newton aveva già lasciato Cambridge e il mondo accademico. Egli era stato attivo nella politica anticattolica a Cambridge, e poi in parlamento, e infine fu ricompensato con la munifica carica di direttore della Zecca reale. In questa funzione usò i suoi talenti per la tortuosità e il sarcasmo in un modo socialmente più accettabile, conducendo con successo una grande campagna contro i falsari, nel corso della quale mandò molti uomini a morire sulla forca.
GLOSSARIO
acceleratore di particelle Una macchina che, usando elettromagneti, può accelerare particelle cariche in movimento, conferendo loro una maggiore energia. accelerazione II ritmo a cui varia la velocità di un oggetto. anno-luce La distanza percorsa dalla luce in un anno (9,4605 x IO12 km). Antiparticella Ogni tipo di particella materiale ha un'antiparticella corrispondente. Quando una particella entra in collisione con la sua antiparticella, esse si annichilano lasciando solo energia (p. 87). antropico, principio Vediamo l'universo come lo vediamo perché, se esso fosse diverso, non saremmo qui a contemplarlo (p. 175). atomo L'unità di base della materia comune, composta da un minuscolo nucleo (formato da protoni e neutroni) circondato da elettroni orbitanti (p. 82). big bang La singolarità all'origine dell'universo (p. 64). big crunch La singolarità alla fine dell'universo (p. 136). buco nero Una regione dello spazio-tempo da cui non può sfuggire nulla, neppure la luce, a causa della gravità fortissima che vi domina (capp. 6, 7). buco nero primordiale Un buco nero creato nei primissimi tempi dell'universo (p. 119). campo Qualcosa che ha un'estensione nello spazio e nel tempo, diversamente da una particella, che esiste solo in un punto. campo magnetico II campo responsabile delle forze magnetiche, ora incorporato, assieme al campo elettrico, nel campo elettromagnetico. carica elettrica Proprietà di una particella per mezzo della quale essa può respingere (o attrarre) altre particelle aventi una carica di segno simile (o opposto). Chandrasekhar, limite di La massa più grande possibile di una stella
fredda stabile, al di sopra della quale la stella deve necessariamente contrarsi per diventare un buco nero (p. 103). confini, condizione dell'assenza di L'idea che l'universo sia finito ma illimitato, che non abbia alcun confine (nel tempo immaginario) (p. 164). conservazione dell'energia La legge della scienza la quale dice che l'energia (o il suo equivalente in massa) non può essere né creata né distrutta. coordinate Numeri che specificano la posizione di un punto nello spazio e nel tempo (p. 38). cosmologia Lo studio dell'universo nella sua totalità. costante cosmologica Espediente matematico usato da Einstein per dare allo spazio-tempo una tendenza intrinseca a espandersi (p. 174). debole, forza Vedi forza debole. dualità onda-particella In meccanica quantistica, il concetto che non c'è distinzione fra onde e particelle; le particelle possono comportarsi a volte come onde, e le onde come particelle (p. 75). elettrica, carica Vedi carica elettrica. elettrodebole, unificazione: energia dell' L'energia (di circa 100 GeV) al di sopra della quale scompare la distinzione fra la forza elettromagnetica e la forza debole (p. 91). elettromagnetica, forza La forza che si genera fra particelle dotate di carica elettrica, la seconda per intensità fra le quattro forze fondamentali (p. 89). elettrone Particella di carica elettrica negativa che orbita attorno al nucleo di un atomo (p. 82). energia della grande unificazione Vedi grande unificazione, energia della. esclusione, principio di Due particelle identiche di spin 1/2 non possono avere (entro i limiti fissati dal principio di indeterminazione) sia la stessa posizione sia la stessa velocità (p. 86). eventi, orizzonte degli Vedi orizzonte degli eventi. evento Un punto nello spazio-tempo, specificato dal suo tempo e luogo (p. 38). fase Per un'onda, la posizione nel suo ciclo in un tempo specificato: una misura che ci dice che essa si trova in una cresta, in un ventre o in qualche
punto intermedio. forza debole Dopo la gravità, è la più debole della quattro forze fondamentali, con un raggio d'azione brevissimo. Influisce su tutte le particelle materiali, ma su nessuna delle particelle portatrici di forze (p. 90). forza forte La più forte della quattro forze o interazioni, che è anche quella che ha il raggio d'azione minimo. Essa tiene assieme i quark all'interno dei protoni e dei neutroni, e tiene assieme protoni e neutroni a formare atomi (p. 92). fotone Quanto di luce. frequenza Per un'onda è il numero completo di cicli al secondo. fusione nucleare II processo in cui due nuclei, urtandosi, si fondono a formare un singolo nucleo, più pesante. gamma, raggi Onde elettromagnetiche di frequenza molto grande, prodotte nel decadimento radioattivo o da collisioni di particelle elementari, geodetica La via più breve (o più lunga) fra due punti (p. 45). grande teoria unificata (GTU) Teoria che unifica le forze elettromagnetiche, forte e debole (p. 93). grande unificazione, energia della L'energia al di sopra della quale si ritiene che la forza elettromagnetica, la forza debole e la forza forte diventino indistinguibili l'una dall'altra (p. 94). Heisenberg, principio di indeterminazione di Vedi indeterminazione, principio di. indeterminazione, principio di Non si può mai essere certi sia della posizione sia della velocità di una particella; quanto maggiore è la precisione con cui si conosce l'una, tanto meno esattamente si può conoscere l'altra (p. 71). luce, cono di Una superficie nello spazio-tempo che delimita le possibili direzioni per i raggi di luce che passano per un evento dato (p. 40). massa La quantità di materia presente in un corpo; la sua inerzia, o resistenza all'accelerazione. meccanica quantistica La teoria sviluppata a partire dal principio quantistico di Planck e dal principio di indeterminazione di Heisenberg (cap. 4). microonde, radiazione e fondo a La radiazione residua dello splendore del
caldissimo universo primordiale; oggi è spostata a tal punto verso il rosso da non apparirci più sotto forma di luce bensì di microonde (onde radio, con una lunghezza d'onda di alcuni centimetri). nana bianca Una stella fredda stabile, sostenuta contro il collasso gravitazionale dalla repulsione fra elettroni prevista dal principio di esclusione (p. 103). neutrino Una particella materiale elementare estremamente leggera (forse priva di massa) che è soggetta solo alla forza debole e alla gravità. neutrone Particella priva di carica, molto simile al protone; nella maggior parte degli atomi i neutroni formano una metà circa delle particelle presenti nel nucleo (l'altra metà sono protoni) (p. 82). neutroni, stella di Una stella fredda, sostenuta contro l'estremo collasso gravitazionale dalla repulsione fra neuroni prevista dal principio di esclusione (p. 114). nucleare, fusione Vedi fusione nucleare. nucleo La parte centrale di un atomo, formata solo da protoni e neutroni tenuti assieme dalla forza forte. onda, lunghezza d' La distanza fra due creste o due ventri consecutivi di un'onda. onda-particella, dualità Vedi dualità onda-particella. orizzonte degli eventi II confine di un buco nero (p. 120). particella elementare Una particella che si ritiene non possa ulteriormente suddividersi. particelle, acceleratore di Vedi acceleratore di particelle. Pauli, principio di esclusione di Vedi esclusione, principio di. peso La forza esercitata su un corpo da un campo gravitazionale. E proporzionale alla massa, ma non si identifica con essa. Planck, principio quantistico di L'idea che la luce (o qualsiasi altra onda classica) possa essere emessa o assorbita solo in quanti discreti, la cui energia è proporzionale alla frequenza (P- 72). positone L'antiparticella (di carica positiva) dell'elettrone (p. 87). proporzionale «X è proporzionale a Y» significa che quando X viene moltiplicato per un qualsiasi numero, ciò accade anche a Y (quando X si raddoppia anche Y raddoppia, ecc.). «X è inversamente proporzionale a Y»
significa che quando X viene moltiplicato per un numero, Y viene diviso per quello stesso numero (quando X si raddoppia, Y si dimezza). Protone Particella dotata di carica elettrica, di massa simile a quella del neutrone; nella maggior parte degli atomi i protoni formano grosso modo metà delle particelle presenti nel nucleo (l'altra metà sono neutroni) (p. 82). quantistica, meccanica Vedi meccanica quantistica. quanto L'unità indivisibile in cui possono essere emesse o assorbite onde (p. 72). quark Particella elementare (carica) soggetta alla forza forte. Tanto il protone quanto il neutrone sono composti ciascuno da tre quark (p. 83). radar Sistema che usa impulsi di onde radio per scoprire la posizione di oggetti misurando il tempo impiegato da un singolo impulso per raggiungere l'oggetto e per tornare all'apparecchiatura dopo esserne stato riflesso. radioattività II decadimento spontaneo di un tipo di nucleo atomico in un altro. red shift Vedi spostamento verso il rosso. relatività generale La teoria di Einstein fondata sull'idea che le leggi della scienza dovrebbero essere le stesse per tutti gli osservatori, comunque stiano muovendosi; essa si occupa in particolare della forza di gravità, spiegandola nei termini della curvatura di uno spazio-tempo quadridimensionale (p. 45). relatività speciale La teoria di Einstein fondata sull'idea che le leggi della scienza dovrebbero valere ugualmente per ogni osservatore in movimento, quale che sia la sua velocità (p. 44). secondo-luce La distanza percorsa dalla luce in un secondo (300.000 km). singolarità Un punto nello spazio-tempo in cui la curvatura dello spazio-tempo diventa infinita (p. 64). singolarità, teorema della Teorema che dimostra che in certe circostanze deve esistere una singolarità: in particolare che l'universo deve avere avuto inizio con una singolarità (pp. 67-68). singolarità nuda Una singolarità dello spazio-tempo non circondata da un buco nero (p. 109). spaziale, dimensione Ciascuna delle tre dimensioni dello spazio-tempo che sono simili allo spazio, cioè tutte tranne la dimensione tempo.
spazio-tempo Lo spazio quadridimensionale i cui punti sono eventi (p. 37). spettro La scomposizione, per esempio, di un'onda elettromagnetica nelle sue frequenze componenti (p. 54). spin Proprietà intrinseca delle particelle elementari, connessa al concetto quotidiano di rotazione, col quale però non si identifica (p. 85). spostamento verso il rosso L'arrossamento (ovvero la diminuzione di frequenza) della luce di una stella in allontanamento da noi in conseguenza dell'effetto Doppler (p. 55). stato stazionario Uno stato che non muta col tempo: una sfera che ruota a una velocità costante è stazionaria perché appare identica in ogni istante, anche se non è immobile. tempo immaginario II tempo misurato per mezzo di numeri immaginari (p. 158). virtuale, particella Nella meccanica quantistica, è una particella la cui esistenza non può mai essere scoperta, ma che esercita nondimeno effetti misurabili (p. 88). zero assoluto La temperatura più bassa possibile, alla quale una sostanza non contiene energia termica.
INDICE
Ringraziamenti Introduzione di Carl Sagan DAL BIG BANG AI BUCHI NERI 1. La nostra immagine dell'universo 2. Spazio e tempo 3. L'universo in espansione 4. Il principio di indeterminazione 5. Le particelle elementari e le forze della natura 6. I buchi neri 7. I buchi neri non sono poi così neri 8. L'origine e il destino dell'universo 9. La freccia del tempo 10. L'unificazione della fisica 11. Conclusione Albert Einstein Galileo Galilei Isaac Newton Glossario Indice analitico
Finito di stampare nel mese di ottobre 1989 dalla RCS Rizzoli Libri S.p.A. - Via A. Scarsellini, 17 - 20161 Milano Printed in Italy