I problemi della fisica - Dalla cosmologia alle particelle subatomiche 88-06-12524-9 [PDF]

L'universo è infinito, o vi è un limite oltre il quale non esiste nulla? Quello in cui viviamo è l'unico possi

146 8 3MB

Italian Pages 241 Year 1991

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
p. VII Prefazione

x Nota all'edizione italiana

I problemi della fisica

3 I. L'allestimento scenico

45 II. Di che cosa è fatta la materia?

99 III. L'universo: struttura ed evoluzione

139 IV. Fisica su scala umana

180 v. Scheletri nell'armadio

215 VI. Uno sguardo al futuro

225 Bibliografia
Papiere empfehlen

I problemi della fisica - Dalla cosmologia alle particelle subatomiche
 88-06-12524-9 [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

PICCOLA BffiLIOTECA EINAUDI Scienza

545

Titolo originale

The Problems of Physics

Oxford University Press

© r987 A.J. Legget © 1991 Giulio Einaudi editore s. p. a., Torino Traduzione di Gianluigi Mainardi ISBN

88-06-12524-9

A.J. LEGGET

l PROBLEMI DELLA FISICA Dalla cosmologia alle particelle subatomiche.

Piccola Biblioteca Einaudi

Indice

p.

VII x

Prefazione Nota all'edizione italiana

I problemi della fisica 3 45 99 139

I.

L'allestimento scenico

Di che cosa è fatta la materia? m. L'universo: struttura ed evoluzione

II.

IV.

Fisica su scala umana

180

v.

Scheletri nell'armadio

215

VI.

Uno sguardo al futuro

225

Bibliografia

Prefazione

Questo libro vuol essere un'introduzione ad alcuni dei maggiori problemi che i fisici si trovano oggi a dover af­ frontare. Sono partito dal presupposto che il lettore abbia una certa familiarità con quegli aspetti della teoria atomica della materia che sono ormai entrati a far parte della cultu­ ra contemporanea, ma per il resto non debba necessaria­ mente possedere una preparazione tecnica. Laddove oc­ corra scendere nel merito di argomenti « specifici», ho cer­ cato per quanto possibile di renderli autosufficienti. Sarebbe assurdo pretendere in un'opera di queste pro­ porzioni di dare un'idea anche solo approssimativa della varietà e molteplicità di ciò che definiamo « fisica ». Mi so­ no perciò visto costretto, mio malgrado, a ignorare non soltanto i risvolti « applicati », ma tutta una serie di affasci­ nanti problemi relativi all'organizzazione e alla sociologia. Anzi, ho dovuto rassegnarmi all'incompletezza persino nell'ambito della fisica considerata come disciplina pura­ mente accademica; sterminati settori, quali la fisica atomi­ ca, molecolare, financo nucleare, sono stati completamen­ te sacrificati, mentre altri - ricordo l'astrofisica e la biofisi­ ca - vengono citati solo di sfuggita. Riassunto per sommi capi nel capitolo iniziale il cammino fin qui percorso, ho dunque preferito concentrarmi su quattro « frontiere » della ricerca attuale che ritengo ragionevolmente rappre­ sentative dell'argomento: fisica delle particelle, cosmolo­ gia, fisica della materia condensata e questioni « di fon­ do »; le frontiere, mi si passi la semplificazione, corrispon-

VIII

A.J. LEGGETT

denti all'infinitamente piccolo, infinitamente grande, e­ stremamente complesso e assolutamente nebuloso. Nutro salda convinzione che l'inserimento di altre branche come la geofisica o la fisica nucleare poco aggiungerebbe sul pia­ no qualitativo che già non sia esemplificato in queste quat­ tro aree. Oggetto di questo libro sono gli interrogativi di oggi, non le risposte che la fisica ha già fornito. Mi sono fatto dunque obbligo di dare una visione generale dell'« esisten­ te » soltanto nella misura in cui ciò vale a raggiungere un osservatorio da cui poter spaziare sui problemi che ci stan­ no dinnanzi. In questa stessa ottica, pur sforzandomi di il­ lustrare a grandi linee i principi basilari insiti nell'acquisi­ zione dei dati sperimentali nelle varie aree, ho evitato di approfondire gli aspetti pratici dell'indagine empirica. Il lettore che desideri documentarsi sulla struttura della teo­ ria consolidata o sui metodi sperimentali in uso corren­ te può consultare i saggi e gli articoli elencati nella Biblio­ grafia. Per finire, una parola ai miei colleghi, nel caso a qualcu­ no di essi capitasse sott'occhio questo volumetto: non è in­ dirizzato a loro ! Non dubito che troveranno qua e là moti­ vo di disaccordo; in verità, piu di una volta ho dovuto resi­ stere alla tentazione di avanzare su certe affermazioni quel­ la filza di riserve tecniche che so bene sarebbero indispen­ sabili scrivendo per una rivista qualificata, ma d'altra parte renderebbero il testo indigeribile ai non « addetti ai lavo­ ri». In particolare, sono acutamente consapevole che la breve disamina nell'ultimo capitolo dell'applicabilità - di cui mancano prove certe - del formalismo quanto-mecca­ nico in toto a sistemi complessi banalizza un tema irto di difficoltà anche per gli esperti, tanto da poter essere giudi­ cata fuorviante e magari addirittura oltraggiosa. Tutto ciò che posso dire è che nelle sedi opportune ho dato all'argo­ mento ben altro spessore ed estensione; chiederei dunque ai potenziali critici, prima che colmi d'indignazione pren-

PREFAZIONE

IX

dano in mano la penna per farmi sapere quanto lapalissia­ namente siano gratuite e irrazionali le mie asserzioni, di da­ re un'occhiata anche a questi scritti pio specialistici. Sono grato ai molti colleghi dell'Università dell'Illinois e di altre istituzioni che con i loro suggerimenti mi hanno messo in grado di far chiarezza tra pensieri a volte confu­ si; uno speciale ringraziamento va a Gordon Baym, Mike Stone, Jon Thaler, Bill Watson e Bill Wyld per aver letto e commentato alcune parti della prima stesura del mano­ scritto. Piu in generale, l'atteggiamento verso i canoni della fisica che traspare da questo libro è stato influenzato da numerosi anni di conversazioni avute con Brian Easlea e Aaron Sloman; anche a loro estendo la mia riconoscenza. Doveroso omaggio meritano infine mia moglie e mia figlia, non soltanto per il loro sostegno morale ma per aver sapu­ to sopportare lo scardinamento della vita domestica impo­ sto dalla stesura di quest'opera. A. J. LEGGETT

N o t a a l l'e d i z i o n e i t a l i a n a

n testo inglese d i quest'opera venne completato nel 1986. Da allora l'awenimento piu eccitante in campo fisico è stato senza dubbio la scoperta sperimentale della «superconduttività alle alte temperature». Nel testo (p. 174) si sottolinea che la supercondut­ tività è un fenomeno caratteristico delle «basse temperature», tanto che nei settantacinque anni trascorsi tra la scoperta origina­ ria e la fine del 1986 la massima temperatura alla quale poteva ma­ nifestarsi nei vari metalli era gradatamente salita soltanto da 4,2 a 25 gradi assoluti (meno di un decimo dei valori ambientali). La let­ teratura teorica era affollata di saggi intesi a spiegare perché que­ sto limite non avrebbe mai potuto spingersi al di sopra di 30 o 35 gradi e io sospetto che la gran maggioranza dei fisici della materia condensata sarebbe stata disposta a scommettere ro ooo contro 1 sulla possibilità che la superconduttività un giorno (lasciamo stare nell'arco di tre anni) venisse dimostrata a temperature maggiori del4o per cento della temperatura ambiente. Eppure, ciò è esatta­ mente quanto è accaduto: negli ultimi tre anni è stata trovata una classe completamente nuova di superconduttori a base di ossidi di rame con temperature di transizione inusitatamente elevate, in al­ meno un caso sino a 12 5 gradi. n fenomeno ha owiamente attratto frotte di ricercatori e al momento in cui scrivo non è ancora chiaro se, e in quale misura, ad esso saranno applicabili le nostre nozioni consolidate relative alla superconduttività «tradizionale». Altret­ tanta incertezza regna sulla possibilità di sospingere la temperatu­ ra di transizione ancora piu in alto, magari alla temperatura am­ biente. Ad ogni modo, questo sviluppo conferma in maniera spet­ tacolare quanto abbiamo rilevato (p. q6) a proposito delle sor­ prese che la fisica della materia condensata ha in serbo per noi! A. J. L .

I PROBLEMI DELLA FISICA

Capitolo primo L'allestimento scenico

La parola « fisica » risale ad Aristotele, che scrisse un li­ bro con quel titolo, ma l'etimo riconosciuto è il vocabolo greco psysis, dal significato di « crescita » o « natura »; e molti dei temi dibattuti da Aristotele oggi sarebbero di piu ovvia pertinenza della filosofia o della biologia. Del resto, il nome ebbe modesta fortuna, e per un buon numero di se­ coli la scienza che oggi definiamo « fisica » venne chiamata « filosofia naturale » - vale a dire, filosofia della natura. Piu di un cattedratico in Gran Bretagna ostenta ancora ai no­ stri giorni queste insegne. Attraverso una rapida carrellata iniziale su alcune delle pietre miliari che hanno segnato l'e­ volversi di questo ramo del sapere negli ultimi secoli cer­ cherò di evidenziare al lettore concetti essenziali che saran­ no ripresi nei capitoli successivi. Anche se qualche isolato frammento della concezione globale racchiusa nella fisica moderna può essere senza dubbio ricollegato alle culture cinese, indiana, greca e ad altre civiltà vecchie di oltre duemila anni, le origini della di­ sciplina intesa come materia organica e quantitativa ver­ rebbero con ogni probabilità collocate dalla maggior parte degli storici nel tardo Medioevo e primo Rinascimento eu­ ropeo. Come e perché questi semi germogliassero proprio in quell'epoca e in quei luoghi, in qual modo riflettessero tradizioni ancestrali, e quanto nel nostro tempo le ipotesi dei fisici, consciamente o meno, risentano di queste im­ pronte prescientifiche: sono tutte questioni invero affasci­ nanti, ma mi fanno difetto lo spazio e la competenza stori-

4

CAPITOLO PRIMO

ca per discettarne in questa sede. Mi limiterò dunque a ri­ cordare che la fisica quale ci è nota cominciò con lo studio sistematico e quantitativo di due soggetti all'apparenza di­ sparati: meccanica e astronomia. Ingredienti sostanziali al­ lo sviluppo di entrambe furono le innovazioni tecnologi­ che del periodo. Considerazione banale per quanto riguar­ da l'astronomia, situandosi l'invenzione del telescopio at­ torno al 16oo; ma ruolo forse ancor piu decisivo ebbe nella meccanica la messa a punto di orologi precisi. Per la prima volta era disponibile un campione riproducibile e misura­ bile non soltanto di lunghezza ma anche di intervalli di tempo, e la possibilità di ragionare finalmente in termini numerici su concetti come la velocità e l'accelerazione si sarebbe di li a non molto concretizzata nel linguaggio con cui venne formulata la dinamica di Newton. Via via che la tecnologia del XVI e xvn secolo prendeva vigore, le gran­ dezze della fisica macroscopica che ci sono familiari - mas­ sa, forza, pressione, temperatura e via dicendo - andarono sempre piu acquistando un significato quantitativo, tradu­ cendosi nella scoperta di leggi empiriche che ogni studente impara a usare sui banchi di scuola: la legge di Snell, sulla rifrazione della luce nelvetro; quella di Boyle, che pone in re­ lazione la pressione e il volume di un gas; quella di Hooke, che esprime l'estensione di una molla elastica sotto l' azio­ ne di una forza applicata; e altre ancora. Al contempo, nel­ l'affine campo d'indagine della chimica, gli scienziati ini­ ziarono a dare forma concreta alle leggi in base alle quali sostanze diverse si combinano tra loro, benché all'epoca­ e per un paio di secoli a venire - non fosse chiaro cosa aves­ sero a che fare queste generalizzazioni con i problemi mec­ canici esplorati dai fisici. L'uomo che viene di solito riconosciuto come il padre della fisica è naturalmente Isaac Newton ( 1642-1 72 7) . Newton compi fruttuose incursioni nei territori piu varie­ gati della fisica, ma lasciò un marchio indelebile soprattut­ to nei campi della meccanica e dell'astronomia. A suo im-

L'ALLESTIMENTO SCENICO

5

menso merito vanno la formulazione esplicita delle leggi fondamentali della meccanica dei corpi macroscopici che ancor oggi giudichiamo valide (tanto che si possono tra­ scurare gli effetti della meccanica quantistica e della relati­ vità speciale e generale, il che di norma costituisce un' ec­ cellente approssimazione, almeno per i corpi terrestri); l'e­ laborazione, sia pure non da solo, della matematica perti­ nente (calcolo differenziale e integrale) in misura sufficien­ te a consentire la risoluzione effettiva delle equazioni del moto per numerose situazioni di interesse fisico; la perce­ zione che i principi della meccanica àvessero corso sulla Terra come in cielo e, specificamente, che la forza capace di trattenere i pianeti in orbita attorno al Sole fosse quella medesima attrazione gravitazionale che la Terra esercita su ogni oggetto. La forza gravitazionale era comunque diret­ tamente proporzionale al prodotto delle masse dei corpi in gioco e inversamente proporzionale al quadrato della loro distanza. Le leggi del moto di Newton sono talmente integrate nella fisica moderna che ci riesce difficile immaginare qua­ le percorso essa avrebbe potuto seguire se non fossero sta­ te inventate. Non ci sembra fuori luogo riportarle qui per intero:

r) Ciascun corpo persevera nel proprio stato di quiete, o di moto rettilineo uniforme, eccetto che sia co­ stretto a mutare quello stato da forze impresse. 2) La variazione di moto è proporzionale alla forza mo­ trice esercitata, e si manifesta nella direzione in cui quella forza agisce (ovvero, è parallela alla forza). 3) A ogni azione corrisponde una reazione uguale e contraria; ossia, le azioni di due corpi sono sempre uguali tra loro e dirette verso parti opposte (vale a dire, in direzioni opposte). Forse ancor piu essenziali della forma dettagliata delle leggi sono gli assunti che vi troviamo impliciti riguardo al

6

CAPITOLO PRIMO

tjpo di domande che vogliamo porci. Si esamini in partico­ lare la seconda legge nella sua formulazione moderna: l'ac­ celerazione di un corpo è uguale al rapporto tra la forza agente e la massa. Poiché l'accelerazione esprime la varia­ zione di velocità nel tempo e la velocità altro non è che la variazione di posizione nel tempo, note di un corpo la for­ za applicata e la massa, siamo in grado di calcolare la«va­ riazione della variazione» della posizione con il tempo. In termini matematici, l'equazione del moto è un'equazione differenziale del secondo ordine rispetto al tempo; una so­ luzione definita richiede perciò due ulteriori elementi d'in­ formazione: poniamo, la posizione e la velocità del corpo in un determinato istante iniziale. Va da sé che questi non sono gli unici dati in grado di fissare in modo univoco la so­ luzione: analogo risultato si ottiene ad esempio specifican­ do la posizione del corpo all'istante iniziale e a quello fina­ le. Tuttavia è piuttosto evidente che in molti problemi pra­ tici- si pensi al calcolo della traiettoria di una palla di can­ none o allo spostamento dei pianeti - i due dati che piu spesso ci sono accessibili sono proprio la posizione inziale e la velocità. Logico pertanto che il processo di determina­ zione di queste informazioni preliminari e quindi di sfrut­ tamento della seconda legge di Newton per tracciare il comportamento successivo del corpo in questione sia visto come un paradigma di« spiegazione» in meccanica; ed al­ trettanto logico, estrapolando, partire dal presupposto che in linea di massima la spiegazione nelle scienze fisiche sempre, quanto meno, in rapporto a eventi specifici- deb­ ba consistere in un procedimento che ci offra il mezzo, da­ to lo stato iniziale di un sistema, di prevederne o inferirne il comportamento susseguente. A dirne una, in cosmologia siamo inclini a dare per scontato che una «spiegazione» dell'attuale stato dell'universo debba riferirsi al suo passa­ to: l'universo è com'è« a causa» delle origini, non della fi­ ne che lo attende o di qualunque altro motivo. È stimolan­ te riflettere come quest'idea di «spiegazione», radicata in

L'ALLESTIMENTO SCENICO

7

considerazioni altamente ed esclusivamente antropomor­ fiche, abbia retto all'urto dei violenti terremoti della relati­ vità e della meccanica quantistica, rivoluzioni concettuali che nella logica delle cose avrebbero dovuto rendere siffat­ te considerazioni irrilevanti. Superfluo dire che la formulazione newtoniana delle equazioni di base della meccanica classica avrebbe avuto impatto molto minore in assenza del suo secondo grande contributo, lo sviluppo della matematica necessaria a risol­ verle in situazioni interessanti. Tuttavia a gioco lungo fu la sua terza intuizione- il riconoscimento dell'unità delle leg­ gi della meccanica sulla Terra e tra le stelle - quella che probabilmente diede i risultati piu vistosi. Oggi riesce dif­ ficile apprezzare il colossale balzo concettuale sottinteso nel postulato che la forza responsabile della caduta della famosa mela fosse indistinguibile da quella che vincolava i pianeti alle loro orbite. Fu questa la prima di una lunga se­ quenza di grandi«unificazioni» nella storia della fisica che portarono a inquadrare fenomeni naturali, a prima vista tra loro lontanissimi, come manifestazioni di uno stesso ef­ fetto. In questo, come in altri casi, l'intuizione dell'unità ri­ chiese una massiccia estrapolazione per sopperire alle ca­ renze delle possibilità di misura: Newton escogitò metodi utili a valutare la forza gravitazionale sulla Terra, ma do­ vette postulare che questa forza agisse alla scala del sistema solare e verificare la sua tesi studiando le conseguenze, al­ cune delle quali sarebbero diventate agibili alla sperimen­ tazione diretta qualche secolo appresso. Il colossale suc­ cesso della meccanica di Newton si identifica nel trasferi­ mento baldanzoso delle leggi di natura dall'ambito relati­ vamente angusto in cui possiamo collaudarle a contrade anche molto remote, non soltanto nello spazio o nel tem­ po, ma anche, ad esempio, nella densità della materia in gioco - d'altro canto, come vedremo, in certi settori della fisica la lezione è stata appresa a fondo. Per un centinaio d'anni dopo la morte di Newton il cor-

8

CAPITOLO PRIMO

so della fisica si dipanò senza scosse clamorose. Da un lato, si fecero grandi progressi applicando le sue leggi del moto a problemi di meccanica via via piii intricati- un' evoluzio­ ne che, a ben guardare, rientrerebbe però nell'area della matematica applicata, piii che della fisica, consistendo il problema semplicemente nella risoluzione delle equazioni di Newton per situazioni di complessità crescente: definite le forze e lo stato iniziale, si tratta di un'operazione pura­ mente matematica, anche se i «profitti» si raccolgono in territorio fisico. (Approfondirò l'argomento piii avanti). Questi sviluppi matematici produssero numerose eleganti riformulazioni delle leggi di Newton (ricordiamo ad esem­ pio il ben noto principio in base al quale un corpo segue tra due punti la traiettoria che, date certe condizioni, richiede il tempo piii breve); e, a conti fatti, alcuni di questi enun­ ciati alternativi avrebbero contribuito in misura decisiva, di li a un secolo o piu, al decollo della meccanica quantisti­ ca. Val la pena riflettere sul fatto che, ove avessero potuto disporre dei vantaggi dell'informatica, i matematici a ca­ vallo tra il XVIII e il XIX secolo sarebbero stati assai meno stimolati a elaborare queste eleganti riformulazioni, cosic­ ché il passaggio finale alla meccanica quantistica sarebbe stato con tutta probabilità ancor piu traumatico. In tutt'altra direzione, avanzamenti sostanziali, sia sul piano sperimentale che su quello teorico, si ebbero in que­ sto periodo a proposito di elettricità e magnetismo, ottica e termodinamica - ovverossia, il regno della fisica «classi­ ca». Dall'indagine dei fenomeni di elettrizzazione statica e degli effeti correlati emerse poco a poco il concetto di cari­ ca elettrica, assimilata a un liquido che nelle sue due varie­ tà, positiva e negativa, poteva essere presente in un corpo in quantità variabile. Si giunse a stabilire che la forza con cui due cariche si attraggonOI (se hanno segno opposto) o si respingono (se hanno segno uguale) è proporzionale al prodotto delle cariche e inversamente proporzionale al quadrato detla distanza che le separa (legge di Coulomb).

L'ALLESTIMENTO SCENICO

9

Di pari passo si andavano investigando le correnti elettri­ che, che a loro volta si rivelarono interagenti in base a una forza che variava col quadrato dell'inverso della distanza ma dipendeva dall'orientamento relativo dei conduttori percorsi da corrente (leggi di Ampère e di Biot-Savart). A poco a poco ci si rese conto di come fosse concettualmente piu semplice esprimere le leggi dell'elettricità e del magne­ tismo (ma anche la legge di gravitazione) in termini di cam­ pi anziché di interazioni dirette. Una carica elettrica, ad esempio, produceva un« campo elettrico», di intensità in­ versamente proporzionale al quadrato della distanza dalla carica, che esercitava una forza su qualsiasi altro corpo ca­ rico entrasse nel suo raggio d'azione. Analogamente, una corrente elettrica doveva generare un« campo magnetico» cui sarebbero state sensibili altre correnti (ovviamente era risaputo che anche sostanze magnetiche come il ferro po­ tevano creare tali campi ed esserne attivate, donde il no­ me); e un corpo massiccio, un«campo gravitazionale». In origine questi campi furono visualizzati come una sorta di distorsione o perturbazione fisica dello spazio, ma, come vedremo, acquistarono via via una connotazione sempre piu astratta, sino a diventare (con l'avvento della meccani­ ca quantistica) poco piu di una potenzialità di qualcosa che poteva accadere nel punto considerato. Secondo logica, si giunse ben presto a comprendere che la corrente di cui si potevano osservare gli effetti magnetici corrispondeva al flusso di cariche elettriche e, piu avanti, che era proporzio­ nale al campo elettrico nel conduttore in cui circolava (leg­ ge di Ohm). Una seconda connessione cruciale tra elettri­ cità e magnetismo si aggiunse con la scoperta di Faraday che il movimento di un magnete poteva indurre correnti in un conduttore o, se si preferisce, che un campo magnetico variabile produceva automaticamente un campo elettrico. Per quanto riguarda l'ottica, un'interminabile disputa sorse tra coloro che ritenevano la luce un fascio di particel­ le (punto di vista condiviso da Newton) e la scuola di pen-

IO

CAPITOLO PRIMO

siero che le attribuiva un moto ondulatorio analogo a quel­ lo delle onde marine. I fautori della teoria ondulatoria puntavano le loro carte sul fenomeno dell'interferenza; e, dal momento che questo fenomeno riveste un'importanza cosi basilare nella moderna fisica atomica e subatomica, ci sembra opportuno soffermarci un attimo per darne una spiegazione, ricorrendo a un modello artificioso e adusato ma pur sempre valido. Supponiamo di avere una fonte di particelle- pallottole, se vi piace- collocata a una certa di­ stanza dietro uno schermo sl in cui siano praticate due fen­ diture (fig. I.I). Un secondo schermo (S2) offre la possibilità di catturare e registrare le particelle. Ammettiamo poi che le particelle rimbalzino dalle pareti delle fenditure seguendo percorsi casuali non calcolabili né pronosticabili nel dettaglio, ri­ servandoci però l'opportunità di poter comunque contare il numero delle particelle che colpiscono ogni secondo una limitata regione di S2, lasciando aperte la fenditura r, quin­ di la 2 e infine entrambe, nell'ipotesi che la sorgente emetta Figura

I.I.

Esperimento per distinguere tra comportamento corpuscolare e ondulato· rio.

/ fenditura 1

'fenditura 2 s, s.

II

L'ALLESTIMENTO SCENICO

particelle con la stessa velocità durante tutto l' esperimen­ to. Supponiamo ancora (ma a questo proposito è possibile un controllo) che l'apertura o chiusura di una fenditura non abbia conseguenze fisiche sull'altra, e che nel sistema non si trovino mai particelle in quantità tale da influenzarsi reciprocamente. Date queste condizioni, indicando con N1, N2 e N12 le particelle che attraversano rispettivamente la prima, la seconda o tutte e due le fenditure aperte, ne di­ scende immediatamente che N12 N1 + N2• In termini piu espliciti, il numero totale delle particelle incidenti su quel­ la limitata regione di s2 dev'essere uguale alla somma delle particelle che sarebbero arrivate passando separatamente per ciascuna fenditura. Ferma restando ogni altra condizione, immaginiamo ora che l'intero sistema sia parzialmente immerso in un ba­ gno d'acqua e che la sorgente sia in realtà un agitatore ca­ pace di produrre non particelle, ma onde �ulla superficie liquida. Apriamo nuovamente soltanto la fenditura I e os­ serviamo le onde che vanno a colpire una particolare area di S2• Come descrivere la « forza » di queste onde? La scelta piu immediata sarebbe forse l'« ampiezza » - altezza del­ l'acqua sopra il suo livello originario-, che ha però il difet­ to di variare nel tempo e di poter assumere anche segno ne­ gativo (di fatto in condizioni normali si osserva una regola­ re sequenza di creste intervallate da ventri); molto piu con­ veniente è perciò prendere in considerazione l'« intensità» -energia media trasportata al secondo -, che si rivela pro­ porzionale alla media del quadrato dell'ampiezza ed è di conseguenza sempre positiva. Mettiamo ora il caso di re­ plicare la successione di operazioni relative alle fenditure che abbiamo adottato nell'esperimento precedente, regi­ strando però questa volta nelle tre situazioni i valori del­ l'intensità dell'onda, I1, I2 e I12• Varrà ancora la relazione I12 I1 + I2? E cioè, l'intensità dell'onda con le due fendi­ ture aperte sarà uguale alla somma delle intensità delle on­ de che penetrano ora l'una ora l'altra delle due fenditure? =

=

12

CAPITOLO PRIMO

Certamente no, poiché in alcuni punti dello schermo l'in­ tensità, pur positiva con una sola delle due fenditure aper­ ta, sarà nulla (o quasi) quando lo sono entrambe! La dimo­ strazione di questo effetto è banale nel caso di un'onda d'acqua, avendo l'ampiezza (altezza) dell'onda proprietà additive- nel senso che, aperte ambedue le fenditure, l'al­ tezza dell'onda in un punto e istante qualsiasi è la somma delle altezze delle onde in arrivo separatamente attraverso ciascuna fenditura. Sommandosi dunque le ampiezze, non è possibile possano farlo anche le intensità, che sono pro­ porzionali ai loro quadrati. Se A1, A2 e A 12 denotano le am­ piezze nelle varie condizioni poc'anzi menzionate, risulta che A 12 =A 1 + A2, per cui I12 =A 1/ =(A 1 + A Y =A / + A / + 2A1A2 dove la somma dii1 ei2 rende ragione di A/ + A/. Le due espressioni si differenziano dunque per il termine 2A1A2• In particolare, quando A 1 è uguale a A2 -ossia l'onda in­ cidente in un punto attraverso la fenditura 1 presenta una cresta esattamente dove quella che giunge dalla fenditura 2 ha un cavo, e viceversa - I 1 e I2 sono ambedue positive, ma I12 è zero. Sono queste le conseguenze dell'« interferenza » (in questo caso interferenza « distruttiva ») tra le onde che valicano le due fenditure. Il fenomeno dell'interferenza è peculiare delle manifestazioni ondulatorie e può essere fa­ cilmente riscontrato con ogni tipo di onda: onde d'acqua, onde acustiche, radioonde, e via dicendo. Tuttavia, è im­ portante sottolineare che la caratteristica essenziale di un'« onda » a questo riguardo non è quella di essere una perturbazione periodica regolare, ma di possedere un'am­ piezza che può essere tanto positiva quanto negativa; in mancanza di questo attributo non vi sarebbe alcuna possi­ bilità di interferenza distruttiva. S'intende che la reale na­ tura fisica dell'ampiezza dipende dal tipo di onda: altezza rispetto alla superficie teorica nel caso dell'acqua; scosta­ mento della densità o pressione dell'aria dall'equilibrio per -

L'ALLESTIMENTO SCENICO

13

le onde acustiche; valore del campo elettrico per le ra­ dioonde; e cosi via. Ma sempre è in gioco una grandezza che può avere l'uno o l'altro segno; e sempre, poiché ci è comodo che l'intensità dell'onda sia una quantità positiva, la scegliamo proporzionale al quadrato (o alla media del quadrato) di questa grandezza. In realtà l'intensità può es­ sere comunque definita semplicemente come flusso di energia; ne consegue, conservandosi l'energia globale del movimento ondulatorio (si veda oltre), che, se l'interferen­ za è distruttiva in una regione, devono esservi altre regioni in cui è « costruttiva » - cioè in cui I 12 è maggiore della som­ ma di I1 e I2• La prima metà del XIX secolo vide il moltiplicarsi di esperimenti di ottica che apparivano spiegabili soltanto in­ vocando l'interferenza e quindi rafforzavano l'interpreta­ zione della luce come fenomeno ondulatorio. MolÙ emi­ nenti scienziati, succubi forse in parte del torreggiante pre­ stigio di Newton, rimasero però ancorati all'ipotesi del fa­ scio di particelle. Nella storia della loro graduale conver­ sione, un episodio è particolarmente divertente. Sforzan­ dosi di confutare una teoria della diffrazione elaborata dai teorici della propagazione per onde, Poisson, accanito pa­ trocinatore della causa avversa, sostenne che per questa via si arrivava inevitabilmente alla previsione che nel centro dell'ombra di un oggetto circolare opaco comparisse una macchia luminosa - cosa, a suo giudizio, palesemente as­ surda. I sostenitori della teoria ondulatoria non si lasciaro­ no impressionare: detto fatto misero in piedi l'esperimento e dimostrarono che la macchia esisteva davvero! Esempi di siffatti autogol non sono infrequenti nella storia della fisi­ ca. Attorno alla metà del XIX secolo pochi dubitavano che la luce avesse natura ondulatoria - una conclusione, come vedremo piu avanti, un po' prematura. Grande impulso in questo periodo ebbe anche la termo­ dinamica - lo studio dei rapporti tra proprietà macrosco­ picamente osservabili dei corpi, come la pressione, il volu-

CAPITOLO PRIMO

me, la temperatura, la tensione superficiale, la magnetizza­ zione e la polarizzazione elettrica. Principio informativo di questo rapido progresso fu il concetto di conservazione deli'energia. L'« energia cinetica» di un corpo - associata al suo movimento - è data per convenzione in meccanica dalla metà del prodotto della massa per il quadrato della velocità, mentre l'« energia potenziale» è quella che pos­ siede in conseguenza delle forze che possono agire su di es­ so; ad esempio, un corpo in moto nel campo gravitazionale uniforme della Terra in prossimità della superficie ha un'e­ nergia potenziale pari al prodotto della massa per l'altezza dal suolo per l'accelerazione di gravità (approssimativa­ mente ro metri al secondo per secondo). Questa definizio­ ne di energia potenziale può essere spesso estesa al moto in un campo gravitazionale di carattere piu generale (ad esempio, ai pianeti che si spostano nel campo solare, non uniforme) o al caso di forze di origine non gravitazionale. La sua principale proprietà è che dipende esclusivamente dalla posizione del corpo, non dalla sua velocità né dall'ac­ celerazione. Ne consegue che per un sistema isolato sul quale agiscano soltanto forze come la gravitazione e l'elet­ tricità, in virtu delle leggi di Newton la somma delle ener­ gie cinetica e potenziale - o anche, l'energia meccanica to­ tale - cosi espresse rimane costante, pur potendosi le due energie trasformare l'una nell'altra. Questo teorema è noto come «principio di conservazione dell'energia ». I fisici hanno un debole per le leggi di conservazione, vuoi per la loro intrinseca eleganza e semplicità, vuoi perché non di rado semplificano in maniera sorprendente i calcoli. A vo­ ler essere pignoli, la prima legge di Newton nella sua for­ mulazione iniziale definisce semplicemente la legge di con­ servazione della quantità di moto (prodotto della massa per la velocità) per un corpo non soggetto a forze; mentre la terza, combinata con la seconda, stabilisce in effetti che per un sistema di corpi in mutua ed esclusiva interazione si mantiene costante la quantità di moto totale. Nel prosie-

L'ALLESTIMENTO SCENICO

15

gua incontreremo molti altri esempi di principi di conser­ vazione. Logico pertanto che si cercasse di allargare la legge di conservazione dell'energia non soltanto ai fenomeni ondu­ latori (cui si applica ottimamente), ma anche al dominio della termodinamica. Un trapianto in qualche caso dallo scontato esito favorevole: ad esempio, una massa appesa all'estremità di una molla poco pesante e lasciata oscillare soddisferà il principio di conservazione dell'energia, quan­ to meno per breve tempo, purché la definizione di energia potenziale venga dilatata a includere un fattore associato all'allungamento della molla. Almeno due obiezioni si pre­ sentano però subito alla mente. Innanzitutto, in presenza di forze d'attrito - dovute, supponiamo, alla viscosità del­ l' aria circostante - la massa tenderà a raggiungere lo stato di quiete, e non sarà difficile verificare che nel corso del processo la sua energia totale (somma delle componenti ci­ netica e potenziale) è diminuita. In secondo luogo, vi sono casi in cui un sistema sembra guadagnare energia senza evi­ denti ragioni meccaniche: se riempiamo d'acqua una latti­ na di caffè, serriamo forte il coperchio e riscaldiamo il tutto su una fiamma, a un certo punto la lattina verrà proiettata lontano a velocità considerevole-ovverossia, con un signi­ ficativo guadagno di energia cinetica, malgrado nori vi sia perdita di energia potenziale. Grazie a questo genere di esperimenti si arrivò infine a comprendere che il calore già concepito come un fluido, il « calorico », qualcosa di si­ mile al concetto contemporaneo di carica elettrica - era in realtà nulla piu che una forma di energia: l'energia cinetica e potenziale del moto casuale delle molecole, che ormai si andavano affermando, sulla scorta soprattutto dell'eviden­ za chimica, quali mattoni microscopici della materia. Tro­ vato il modo di misurare il calore e individuato il fattore di conversione tra le unità del calore ricavato per via tradizio­ nale e quelle dell'energia meccanica, divenne chiaro che l'energia totale- calore piu energia meccanica-restava in-

I6

CAPITOLO PRIMO

variata; nel caso della massa oscillante sulla molla, l'ener­ gia meccanica « dissipata » in attrito si trasforma, ad esem­ pio, semplicemente in un'equivalente quantità di calore. Questa versione generalizzata della legge di conservazione dell'energia è nota come prima legge della termodinamica. Il secondo principio, meglio conosciuto, enuncia il fatto che, pur potendosi in una certa misura trasformare calore in lavoro meccanico (o altre forme utili di energia) , il rendi­ mento di questo processo è soggetto a rigide limitazioni; in particolare, esiste una funzione dello stato di un sistema la sua « entropia » - tale per cui l'entropia totale dell'uni­ verso - con il che si intende il sistema piu tutto ciò che con esso interagisce - deve aumentare o, nella migliore delle ipotesi, rimanere costante. Sebbene un corpo non conten­ ga una « quantità di calore » fissa - il calore è soltanto una forma di energia, scambiabile con altre forme -, il calore aggiunto a un corpo è correlato alla sua variazione di entro­ pia, per cui viene spontaneo attribuire a questa grandezza il significato di misura dello stato di disordine di un siste­ ma molecolare. Il secondo principio della termodinamica dà insomma veste concreta all'intuizione che sia possibile tramutare un moto « ordinato » - come nelle oscillazioni della massa sulla molla - in modo « disordinato » - il movi­ mento casuale delle molecole - ma non rovesciare il pro­ cesso, per lo meno su scala globale. Raffreddando un cor­ po in frigorifero si ha una diminuzione di entropia cui deve corrispondere un incremento compensativo in altre parti dell'universo - in questo caso, la stanza si riscalda. Come vedremo, la meccanica statistica si incaricò in seguito di dare fondamenta piu quantitative all'interpretazione del­ l'entropia come indice di disordine. Nella seconda metà del XIX secolo giunsero a buon fine due essenziali aggregazioni di branche della fisica in appa­ renza scampagnate e si registrarono progressi decisivi ver­ so una terza. Volendo iniziare da quest'ultima, da tempo era noto che ogni elemento o composto chimico, quanto

L'ALLESTIMENTO SCENICO

meno in forma gassosa, emetteva luce non a caso ma secon­ do caratteristiche frequenze specifiche. Rifratte e disperse da un prisma ottico, le singole frequenze, raccolte sulla la­ stra fotografica di uno spettrometro, dànno luogo a una serie di righe verticali isolate. L'insieme delle lunghezze d'onda emesse da una sostanza ne rappresenta lo « spet­ tro » (di emissione) e il loro studio sperimentale costituisce la « spettroscopia ». Gli scienziati impararono rapidamen­ te a identificare i componenti chimici di sostanze ignote in base alle righe spettrali emesse, una tecnica oggi indispen­ sabile non soltanto nell'analisi chimica ma anche in astrofi­ sica (cfr. cap. m), e ben presto si accorsero che gli spettri degli elementi presentavano un certo numero di regolarità. In particolare, nel caso dell'idrogeno, riconosciuto come l'elemento piu semplice in considerazione del suo compor­ tamento chimico, tra le frequenze emesse risultarono rap­ porti ben definiti, espressi unicamente da numeri interi. Ovviamente la ricerca si accani su queste relazioni numeri­ che, che rimasero però alquanto oscure sino a quando non si rese disponibile un'immagine microscopica dell'atomo. Furono anche indagate a fondo, con risultati a dir poco im­ barazzanti, le proprietà della cosiddetta radiazione del corpo nero - caratteristica di una cavità isotermica prov­ vista di pareti completamente assorbenti (« nere »). Attenendosi all'ordine cronologico, la prima unificazio­ ne di grande portata ebbe a protagonisti ottica ed elettro­ magnetismo (e, cammin facendo, elettricità e magneti­ smo). La meccanica e la gravitazione newtoniane, cosi co­ me le successive teorie degli effetti elettrici e magnetici, erano implicitamente radicate nel concetto di « azione istantanea a distanza»- stando al quale, ad esempio, la for­ za gravitazionale esercitata da un corpo astronomico ver­ rebbe avvertita immediatamente da un secondo corpo di­ scosto, senza alcun ritardo finito. La questione del come la forza potesse essere trasmessa, all'istante o meno, era giu­ dicata irrilevante: l'azione istantanea a distanza semplice-

18

CAPITOLO PRIMO

mente si imponeva come una realtà che di per se stessa non necessitava di spiegazioni. Rendendosi conto dell'inconsi­ stenza metafisica di un simile approccio, molti avrebbero gradito un approfondimento delle modalità di propagazio­ ne della forza, ma gli assertori dell'azione a distanza ebbe­ ro buon gioco a rimarcare, pur ammettendo che il concetto potesse apparire cervellotico e persino contrario al «senso comune», che i calcoli teorici che ne derivavano sembra­ vano in eccellente accordo con i dati sperimentali. (Vedre­ mo in un altro capitolo che una situazione analoga si sta og­ gi instaurando a proposito della teoria della misura in mec­ canica quantistica). Del resto, sin dallo scorcio finale del xvn secolo le osservazioni astronomiche avevano permes­ so di fissare un limite alla velocità della luce (deducendo un valore assai vicino a quello accettato ai nostri giorni, ap­ prossimativamente 3 x Id metri al secondo); al fatto si era data però poca importanza, non essendovi particolari mo­ tivi di credere che la luce potesse svolgere un qualche ruolo speciale nel disegno della fisica. Intorno al 186o, passando in rassegna le leggi allora co­ nosciute dell'elettricità e del magnetismo, il fisico inglese J. C. Maxwell notò una curiosa asimmetria: un campo ma­ gnetico variabile poteva indurre un campo elettrico, ma, per quanto se ne sapeva, il contrario era fuori discussione. Colpito dall'incoerenza, Maxwell ipotizzò un termine mancante nell'equazione che descriveva il fenomeno os­ servato e giunse cosi a una conclusione stupefacente: i campi elettrici e magnetici potevano propagarsi nello spa­ zio vuoto sotto forma di onde. Per giunta, immettendo nel­ le equazioni le costanti misurate in laboratorio nel corso di esperimenti di elettricità e magnetismo, riusci a calcolare la velocità di quest'onda - che, guarda caso, si rivelò presso­ ché identica alla velocità della luce! Ne scaturiva logica­ mente che la luce è un'onda elettromagnetica - e cioè un'onda in cui i campi elettrici e magnetici oscillano in di­ rezioni perpendicolari tra loro e alla direzione di propaga-

L'ALLESTIMENTO SCENICO

zione della luce. Trovava infine spiegazione soddisfacente il fenomeno della «polarizzazione», da tempo conosciuto in via empirica: il piano di polarizzazione altro non è che il piano del campo elettrico. È appena il caso di ricordare che la luce visibile forma soltanto una modesta frazione dello «spettro elettromagnetico», corrispondente a onde appartenenti a una gamma di frequenze percepibili dal­ l'occhio (all'incirca da 4 x w-7 a 8 x w-7 metri); sappiamo che la propagazione delle onde elettromagnetiche avviene per qualsiasi lunghezza d'onda, À, in base alla relazione v = c l À ( ove v è la frequenza di oscillazione e c la velocità della luce), dalle radioonde nella regione di frequenze dei kilohertz (kHz) ai «raggi duri» presenti nella radiazione cosmica, con frequenze dell'ordine di I0 28 hertz (Hz). La suddivisione convenzionale dello spettro elettromagnetico è riportata in fig. 1.2. Una conseguenza immediata della teoria dei campi elettromagnetici sviluppata da Maxwell è che la velocità di propagazione delle manifestazioni elettromagnetiche è fi­ nita - pari, di fatto, alla velocità della luce, c. Azionando ad esempio un interruttore in laboratorio in modo da far pas­ sare corrente in un circuito, il campo magnetico prodotto da quella corrente in un punto a distanza R non è subito riFigura 1.2. La divisione convenzionale dello spettro elettromagnetico (approssimata; si noti che la scala è logaritmica, e cioè che ogni intervallo corrisponde a un aumento nella frequenza di un fattore rooo). "

-go

-�E

] �

···� ro'

ro•



' ro





.!: .s

!

12 10

B



� �

·� �



!

...,._, ,_..._ IO

U

Frequenza in Hz --+

� 'Oh gr

!

>-

'Oh gr

!

,.-"'--.. .--.._, ... 8 101

21 10

4 102

·

20

CAPITOLO PRIMO

levabile, ma richiede un tempo R/c per materializzarsi; so­ lo l'enormità della velocità della luce rispetto all'esperien­ za quotidiana ci dà l'illusione dell'azione istantanea a di­ stanza. Una domanda che nel contesto della costruzione newtoniana era «puramente filosofica» - come è possibile l'azione a distanza?- ha cosi acquisito non soltanto un si­ gnificato fisico ma una risposta diciamo pure appagante, almeno per quanto attiene all'elettromagnetismo: in paro­ le povere, non è possibile; i campi propagano l'interazio­ ne da un punto alle sue immediate vicinanze con velocità finita. La seconda grande sintesi del tardo XIX secolo pose in causa la teoria molecolare della materia e la termodinami­ ca. Era ormai accettato che le sostanze chimiche semplici fossero costituite da piccoli blocchi identici, le molecole, a loro volta formate da subunità definite atomi, essendo ogni elemento caratterizzato da una propria specie atomica; e che le reazioni chimiche coinvolgessero la frantumazione delle molecole e la ridistribuzione degli atomi in modo da formare sostanze diverse da quelle di partenza. L'esatta natura di atomi e molecole era avvolta nel mistero, ma vi erano situazioni in cui era lecito pensare che la loro intima struttura potesse non avere eccessiva importanza. Si sape­ va ad esempio che in un gas ragionevolmente diluito (di­ ciamo l'aria a temperatura e pressione ambiente) le mole­ cole sono piuttosto distanziate rispetto al tipico addensa­ mento che si ha in un liquido o in un solido; era dunque le­ gittimo in prima approssimazione paragonarle a minuscole palle da biliardo, ipotizzando che l'architettura interna fosse ininfluente ai fini del loro comportamento nel gas. Avere un modello non vuol dire però automaticamente po­ terne fare buon uso. Muovendosi nell'ambito della mecca­ nica newtoniana, il calcolo del moto delle molecole del gas presupponeva la conoscenza delle posizioni e velocità ini­ ziali di ciascuna molecola, per di piu con un grado di accu­ ratezza incredibilmente elevato. (Come è noto a ogni vir-

L'ALLESTIMENTO SCENICO

21

tuoso della stecca, anche con due o tre oggetti collidenti un trascurabile mutamento delle condizioni iniziali può de­ terminare in men che non si dica un cambiamento impres­ sionante nel moto successivo!) Nel XVIII secolo il materna­ tico francese Laplace aveva invero immaginato, in una sor­ ta di esercizio filosofico, un essere capace di inglobare ogni possibile informazione, non soltanto per un gas, ma per l'universo intero, arrivando a persuadersi che alla mente di una simile creatura passato e futuro dell'universo fossero completamente determinati e prevedibili. (Questa visione cosmica, talora indicata come «determinismo laplacia­ no», non manca di singolari echi in epoca moderna). Cio­ nonostante, si accolgano o meno le suggestioni della tesi, in pratica non ha alcun senso porre il problema in questi ter­ mini; non siamo in grado di procurarci le informazioni ne­ cessarie, né di elaborarle - ovvero risolvere le equazioni newtoniane del moto - in tempi ammissibili; ed è improba­ bile che qualsiasi progresso, per quanto spettacolare, nella potenza di calcolo concepibile in un futuro non troppo re­ moto possa modificare questo stato di cose. Per forttma ci soccorre quella che oggi chiamiamo «meccanica statistica», il cui presupposto è il riconosci­ mento che non soltanto è impossibile in pratica conoscere il comportamento di ogni singola molecola, ma che ad ogni modo ciò sarebbe inutile. Le proprietà misurabili dei corpi macroscopici - magnetizzazione, pressione, tensione su­ perficiale, e quant'altro - sono nella stragrande maggio­ ranza l'effetto cumulativo dell'azione di numeri immensi di molecole, e la scienza della statistica ha stabilito in mo­ do generale che queste medie sono insensibili ai dettagli del comportamento individuale. A titolo esemplificativo, prendiamo in esame la pressione esercitata da un gas sulle pareti del recipiente che lo contiene. Tale pressione non è altro che la somma delle forze applicate dalle singole mole­ cole che vanno a urtare, rimbalzando, le pareti; piu veloci sono le molecole incidenti, maggiore è la forza. Una qualsi-

22

CAPITOLO PRIMO

voglia molecola può avvicinarsi lenta o rapida alla parete, sviluppando in conseguenza una forza diversa: ma siccome la pressione misurata nasce da un gran numero di eventi in­ dividuali, le fluttuazioni in breve si appianano e la pressio­ ne che ne consegue è in genere costante entro la precisione degli strumenti di misura. Non è perciò necessario avere un quadro esatto di ciò che fa ciascuna molecola: tutto ciò che ci serve è informazione statistica cioè informazione sulla probabilità che una molecola scelta a caso abbia una velocità data. A questo provvede per l'appunto la meccani­ ca statistica. Ma quali sono i suoi metodi? Da un punto di vista stori­ co i due approcci che hanno avuto maggiore successo sono stati l'«ergodico» e quello fondato sulla «teoria dell' infor­ mazione», identici nelle risposte, almeno per quanto con­ cerne le applicazioni standard della meccanica statistica, ma piuttosto diversi nella formulazione degli assunti fon­ damentali. Alla base di entrambi i metodi sta la constata­ zione che in un sistema dinamico si conservano pochissime variabili macroscopiche. Ad esempio, per una nuvola iso­ lata di gas le uniche grandezze conservate sono l'energia totale, la quantità di moto totale e il momento angolare to­ tale 1; per un gas racchiuso in un matraccio isolato termica­ mente, soltanto l'energia totale; e cosi via. Sappiamo a dire il vero dell'esistenza di altri parametri invarianti, ma la loro estrema complessità suggerisce per lo piu di chiudere un occhio e di augurarsi che non ne derivino risultati fuor­ vianti. In estrema sintesi, il ragionamento che informa il meto­ do ergodico è il seguente: poiché la dinamica di un sistema macroscopico di particelle è éstremamente complessa, sia­ mo autorizzati ad affermare che, quale che sia lo stato ini-

l n momento angolare di una molecola rispetto a un punto di riferimento speci­ ficato è il prodotto della quantità di moto per la distanza misurata perpendicolar­ mente tra la direzione di movimento e il punto. n momento angolare totale è la som­ ma dei momenti angolari delle singole �olecole.

L'ALLESTIMENTO SCENICO

ziale, col tempo verranno toccati tutti gli altri stati compa­ tibili con le leggi di conservazione. (Nel caso del gas nel matraccio, ad esempio, tutti gli stati aventi energia totale uguale a quella di partenza). Dal momento che in un nor­ male esperimento su un sistema macroscopico in pratica si mediano le variabili osservate su tempi lunghissimi alla scala atomica, sembra lecito argomentare che si vada fa­ cendo una media estesa a tutti gli stati accessibili del siste­ ma. Il punto debole dell'impostazione ergodica è che l'ipo­ tesi di base - che il sistema assuma via via tutti gli stati pos­ sibili- può essere giudicata intuitivamente plausibile, ma è stata in realtà dimostrata soltanto per una classe estrema­ mente ridotta di sistemi, nessuno dei quali davvero accet­ tabile in una prospettiva sperimentale. Il secondo metodo aggira l'ostacolo postulando tout court che tutti gli stati compatibili con la conoscenza che abbiamo del sistema siano ugualmente probabili. Suppo­ niamo ad esempio di avere un sottosistema abbastanza pic­ colo (ma pur sempre macroscopico) che sia in contatto ter­ mico - vale a dire, possa scambiare calore - con un sistema molto piu grande (!'«ambiente»), il tutto isolato termica­ mente dall'esterno. (Si pensi a un cartone di latte in un fri­ gorifero). Dovendo essere costante l'energia, E, di tutto l'insieme, ma non quella dei sottosistemi, sorge la doman­ da: qual è la probabilità, P., che il sottosistema si trovi in uno stato particolare, n, di energia E.? La risposta in linea di principio è elementare: è semplicemente proporzionale al numero di stati disponibili all'ambiente che siano com­ patibili con l'ipotesi, ovvero che abbiano energia E - E L'obiezione dell'eventuale difficoltà di determinare quel numero viene spazzata via tenendo presente che nel caso di un sistema macroscopico è in realtà piuttosto agevole rintracciare un'espressione approssimata di errore trascu­ rabile, ammesso che il numero delle particelle sia sufficien­ temente grande. Il responso finale è che P. è una funzione semplice dell'energia E.- a voler essere piu precisi, il pro•.

CAPITOLO PRIMO

dotto di una costante per l'espressione (-E" l E0), dove E0 è una quantità avente le dimensioni dell'energia che caratte­ rizza lo stato. (Alla stessa risposta -la cosiddetta distribu­ zione di Boltzmann- perviene anche, sia pur piu indiretta­ mente, l'approccio ergodico). Confrontando le predizioni che risultano da quest'equazione relativa a parametri ma­ croscopicamente misurabili con le formule della termodi­ namica, si scopre che P è la temperatura, a patto che que­ st'ultima sia misurata in unità appropriate con un'origine adatta. La fisica odierna ha adottato un'origine «mirata», tale da consentire la misura delle temperature in base alla scala assoluta, o Kelvin, sulla quale lo zero assoluto corri­ sponde a -273° Celsius; tuttavia, per quanto possa appari­ re illogico, si continua a esprimere la temperatura in gradi anziché in unità di energia, per cui si è costretti a introdur­ re una costante per collegare E 0 alla temperatura conven­ zionale in gradi. Sussiste la relazione E0 kBT, dove la quantità kB, nota come costante di Boltzmann, vale nume­ ricamente 1,4 x ro-23 joule/grado. Da notare che kB, a diffe­ renza della velocità della luce, c, e della costante di Planck, h, non ha un vero significato fondamentale, non piu di quanto l'abbia la costante che serve a convertire i piedi in metri; fosse stato diverso il cammino della fisica, avremmo potuto fare benissimo a meno di unità separate di tempera­ tura, misurando il «calore» in unità di energia. Armati della distribuzione di Boltzmann, e delle tecni­ che utili a contare gli stati che ad essa hanno condotto, pos­ siamo non soltanto stabilire corrispondenze minuziose tra tutte le formule della termodinamica e i risultati conse­ guenti alla meccanica statistica, ma addirittura in molti ca­ si, partendo da specifici modelli microscopici, calcolare le grandezze che in termodinamica debbono essere ricavate per via sperimentale. Le leggi fenomenologiche classiche di Boyle e Charles, che legano tra loro pressione, volume e temperatura, trovano ad esempio esauriente spiegazione se prendiamo a modello di un gas un insieme di molecole =

L'ALLESTIMENTO SCENICO

25

in libero movimento a guisa di palle da biliardo. Questo genere di dimostrazione imperniato sulla corrispondenza tra realtà microscopica e parametri macroscopici costitui­ sce il punto d'appoggio essenziale di gran parte dtll.e attua­ li ricerche nella fisica della materia condensata (anche se nel quarto capitolo metterò in evidenza quanto sia facile equivocarne il senso). Una conseguenza di ordine generale emerge dal raffronto tra formule termodinamiche e mec­ canico-statistiche. La misteriosa entropia, venuta alla ri­ balta in un contesto termodinamico in associazione al se­ condo principio, si palesa collegata al numero di stati effet­ tivamente aperti al sistema vincolato ai dati di cui siamo in possesso. Insomma, l'entropia può essere assunta come in­ dice del «disordine» del sistema ma anche, e piu sorpren­ dentemente, come misura della nostra ignoranza in meri­ to. Il fatto che una grandezza assoggettabile a un'interpre­ tazione cosi antropomorfica possa avere un ruolo di primo piano nel comportamento termodinamico «oggettivo» del sistema è fonte di comprensibili perplessità, tanto piu che va posto in relazione con questioni ancor piu sconvol­ genti di cui mi occuperò nel quinto capitolo. Confortata da questi spettacolari progressi, la comunità dei fisici entrò nel xx secolo con passo baldanzoso. Tutte le tessere del mosaico sembravano andare al loro posto: la meccanica newtoniana era una descrizione completa del moto di ogni possibile corpo massivo, dai pianeti giu giu si­ no agli atomi; la teoria maxwelliana dell'elettromagneti­ smo non soltanto svelava i piu riposti segreti dell'ottica, ma adombrava la possibilità di comprendere le interazioni, supposte di natura soprattutto elettrica, tra atomi e mole­ cole; la meccanica statistica prometteva infine di spiegare le proprietà degli oggetti macroscopici come conseguenza di quelle dei loro componenti atomici. Restava, è vero, qualche punto oscuro: la struttura fine degli atomi e le ine­ splicabili regolarità dei loro spettri; l'inanità degli sforzi volti a estendere ai liquidi e ai solidi l'eccellente teoria mi-

CAPITOLO PRIMO

croscopica, qualitativa ed entro certi limiti anche quantita­ tiva, del comportamento macroscopico dei gas. Ma erano dettagli. Chi poteva dubitare che l'intelaiatura della fisica fosse solida e che alla fine questi enigmi sarebbero stati ri­ solti al suo interno? A suggello dell'ottimismo dilagante, il fisico inglese Lord Kelvin nel 1900 terminò una conferenza dedicata a un esame sommario dello stato di salute della «sua» scienza all'alba del nuovo secolo tratteggiando un orizzonte sereno al di là di un paio di «nuvolette» (ne ti­ parleremo tra breve); per il resto non v'era motivo di so­ spettare che il convoglio non fosse avviato nella giusta dire­ zione. Sulle soglie del Duemila, può essere un buon anti­ doto alle trionfanti divulgazioni delle recenti scoperte del­ la fisica delle particelle o della cosmologia mettersi nei panni dei nostri antenati nel 1900 e cercare di immaginare quanto dovessero loro apparire ferme e incrollabili le fon­ damenta della loro impresa, e inconcepibile l'idea che l'in­ tera impostazione fosse da rivedere. I fisici, ahimè, non sempre sono buoni profeti. Alla resa dei conti, tempo poco piu d'un ventennio, le nuvolette di Lord Kelvin erano esplose in un furioso uragano: l'edificio della fisica classica crollava a pezzi e alcune delle domande che ci si andava ponendo avrebbero lasciato attoniti i fisici dell'Ottocento. Facendo al piu eccezione per lo sfolgoran­ te momento di Newton, i primi trent'anni del nostro seco­ lo sono stati, secondo ogni ragionevole metro di giudizio, il periodo piu eccitante, e certo il piu rivoluzionario, nell'in­ tera storia della fisica. Una delle nubi di Lord Kelvin era l'esperimento di Michelson e Morley, che non era riuscito a dimostrare la prevista dipendenza della velocità della lu­ ce dal moto dell'osservatore; avrebbe guidato Einstein ­ sul filo logico, se non storico - dapprima alla teoria della relatività ristretta e poi a quella generale. La seconda nube era portata dal calore specifico di molecole poliatomiche, e si sarebbe dissolta soltanto con lo sviluppo della meccani­ ca quantistica. Le due teorie - relatività speciale e generale,

L'ALLESTIMENTO SCENICO

e meccanica quantistica - diedero uno scossone violentissi­ mo all'impalcatura concettuale entro la quale era stata for­ mulata la fisica classica. Riservandomi di approfondire le teorie della relatività nel contesto delle loro applicazioni cosmologiche, mi limi­ terò qui a riassumere gli aspetti della teoria speciale ineren­ ti agli argomenti che verranno trattati nel capitolo seguen­ te. Eccoli: la velocità della luce, c, è indipendente dal siste­ ma di riferimento in cui la si misura, ed è una costante fon­ damentale della natura; questa velocità rappresenta il limi­ te superiore di propagazione di qualsiasi tipo di effetto fisi­ co e nessun corpo di massa finita può essere accelerato sino a raggiungerla, anche se un corpo di massa zero (come la luce) automaticamente la possiede; l'energia, E, e la massa, m, sono interscambiabili in conformità con la famosa rela­ zione einsteiniana E = mc 2 ; per sistemi isolati, i principi di conservazione dell'energia e della quantità di moto vengo­ no a coincidere, essendo diverso soltanto il sistema di rife­ rimento, e in qualsiasi sistema di riferimento l'energia, E, e la quantità di moto, p, sono legate dall'equazione:

Ez = czpz + m2c4 (che si riduce a E = mc2 nel caso particolare di una parti­ cella a riposo- cioè, con p = O); «un orologio in movimen­ to va piu lento del normale», ovvero un fenomeno fisico, quale il decadimento di una particella, che si manifesti a una data velocità quando la particella è ferma appare ral­ lentato a un osservatore rispetto al quale la particella sia in moto. Prima di introdurre la meccan1ca quantistica, consenti­ temi una fuggevole digressione su un terzo sviluppo dei primi trent'anni del xx secolo che, sebbene in sé meno in­ novatore dal punto di vista concettuale della relatività o della teoria dei quanti, non di meno occupa una posizione centrale nella fisica moderna: la teoria della struttura ato­ mica. Una pista importante era stata trovata nell'ultima de-

CAPITOLO PRIMO

cade del secolo scorso con la scoperta che la carica elettri­ ca, quanto meno quella di segno negativo, non era un flui­ do divisibile a oltranza ma un insieme di unità discrete, le particelle cui oggi diamo il nome di «elettroni». La carica 1 dell'elettrone, e (circa 1,6 x w- 9 coulomb), è una costante fisica fondamentale. Essendo gli elettroni un elemento co­ stitutivo degli atomi, questi ultimi, elettricamente neutri, dovevano per forza contenere anche una carica positiva, di cui però restavano oscure natura e distribuzione. Toccò a Lord Rutherford, in una celebre serie di esperimenti, sco­ prire che la carica positiva era concentrata in una piccola zona centrale, detta nucleo, dove si racchiudeva quasi tutta la massa dell'atomo. E poiché la carica nucleare si presen­ tava soltanto in multipli di e, ecco farsi strada la deduzione dell'esistenza di una particella di carica positiva e e massa grossomodo 2000 volte maggiore di quella dell'elettrone ­ il «protone». Si precisò cosi !'immagine di un nucleo cen­ trale, di diametro dell'ordine di w-15 metri, contenente protoni e (col senno di poi ! ) magari altre entità, circondato da un fascio di elettroni in orbita a una distanza di circa 1 w- 0 metri. Gli elettroni ruotanti attorno al piccolo nucleo centrale avevano un comportamento assai simile a quello dei pianeti nei confronti del Sole, con la sostanziale diffe­ renza (a parte la scala) che la forza di attrazione che li man­ tiene in orbita è elettrostatica anziché gravitazionale; non per nulla, il modello atomico emerso dagli esperimenti di Rutherford è sovente definito «planetario». Nel moto dei pianeti interviene però l'accelerazione, e poiché l'elettrodinamica classica ci dice che una carica che aumenti di velocità emette radiazioni (principio su cui si fondano le trasmissioni radio), nel caso dell'atomo si affac­ ciano due grossi problemi: per prima cosa, sarebbe logico supporre che. gli elettroni possano dar luogo a spettri di emissione continui, mentre i dati sperimentali testimonia­ no che ogni specie atomica libera radiazioni soltanto a fre­ quenze ben determinate. In secondo luogo, irradiando, gli

L'ALLESTIMENTO SCENICO

elettroni perdono energia, per cui dovrebbero rapidamen­ te precipitare sul nucleo - provocando un collasso dell' ato­ mo. Impaziente di uscire dall'impasse, il fisico danese Niels Bohr formulò un'ipotesi che, alla luce della meccani­ ca classica, appariva del tutto arbitraria e ingiustificabile: gli elettroni erano obbligati a traiettorie particolari e, quando saltavano da un'orbita all'altra, la frequenza, v, della radiazione emessa era legata alla differenza di energia dei due livelli, t.E, dalla relazione t.E = hv. In questa for­ mula h rappresenta una costante che era stata introdotta da Planck qualche anno addietro nella teoria della radia­ zione del corpo nero ( « costante di Planck »), ha le dimen­ sioni di un'energia per un tempo e vale approssimativa­ mente 6,6 x ro-34 joule/secondo. Va tenuto presente che h, al pari della velocità della luce, c, ma a differenza della co­ stante di Boltzmann, kB, è una costante autenticamente fondamentale e non soltanto un fattore di conversione tra unità diverse prese ad arbitrio': laddove nulla ci impedisce di scegliere le unità di misura di lunghezza, tempo e massa (e perciò energia), in modo che h e/o c assumano il valore numerico I (una pratica usuale nella moderna fisica degli atomi e delle particelle), secondo Bohr i fenomeni mecca­ nici che coinvolgono valori del prodotto energia-tempo ragguagliabili a h o piu bassi (come il moto degli elettroni negli atomi) si differenziano da quelli in cui la stessa com­ binazione è di un ordine di grandezza maggiore di h (come nel moto dei pianeti del sistema solare) . L'affiorare di una siffatta « scala intrinseca » - e cioè il fatto che, misurando E x t in unità di h, si abbiano comportamenti contrastanti per E x t � r e per E x t � I è fenomeno assolutamente alieno alla meccanica newtoniana classica, tanto che non esito ad affermare (in vista di alcune riflessioni che farò in -

2 Una divertente postilla storica: pare assodato che lo stesso Planck avrebbe pre­ ferito che i posteri legassero il suo nome non a h, ma alla costante molto meno fonda­ mentale k8.

CAPITOLO PRIMO

seguito) che nessuno, semplicemente indagando la mecca­ nica classica «dall'interno », avrebbe potuto arguirne non dico l'esistenza, ma neppure la possibilità. Tutto sommato ci è stata imposta dalle risultanze sperimentali e può trova­ re una sua sistemazione razionale soltanto nel quadro di una teoria integralmente nuova che rigetti l'impostazione classica in toto: la meccanica quantistica. Seguendo una prassi consolidata quando si vogliano il­ lustrare nuovi concetti in fisica, prendiamo lo spunto da un esperimento magari artificioso dal punto di vista della pra­ ticità o anche della storicità, ma che ha il merito di incorpo­ rare in modo limpido e lineare elementi che nella vita reale vengono dedotti da esperienze piu indirette e articolate: la « doppia fenditura » descritta in figura r . r . Abbiamo visto che scagliando delle comuni particelle (pallottole, o palle da biliardo) attraverso quest'apparato, a prescindere dalle traiettorie di rimbalzo in corrispondenza delle fenditure, il numero totale di particelle che raggiungono un determina­ to punto sullo schermo s2 quando entrambe le fenditure sono aperte è uguale alla somma di quelle che arrivano se­ paratamente attraverso ciascuna fenditura quando questa sola rimanga aperta; propagando invece un'onda (a pelo d'acqua, ad esempio) , l'intensità misurata in un punto qualsiasi su s2 con le due fenditure aperte non è in generale pari alla somma delle intensità in arrivo attraverso ciascuna fenditura separatamente, ma presenta gli effetti di interfe­ renza caratteristici dei fenomeni ondulatori. Abbiamo già avuto modo di notare che proprio in base a osservazioni di questo tipo si pervenne alla conclusione che la luce era un fenomeno ondulatorio e non una corrente di particelle. Supponiamo ora di ripetere l'esperimento con un filamen­ to caldo in grado di emettere elettroni e di smorzare questa sorgente (ovvero di inserire un filtro tra di essa e S 1 ) in mo­ do da rendere trascurabile la probabilità che a un dato istante nell'apparato vi sia piu di un elettrone, scegliendo inoltre come S2 uno schermo che registri l'arrivo separato

L'ALLESTIMENTO SCENICO

di ogni singolo elettrone (operazione realizzabile senza dif­ ficoltà con opportuni amplificatori). Quali ne saranno i ri­ sultati? In primo luogo, una conferma del comportamento particellare degli elettroni, ognuno dei quali fornisce in un punto specifico dello schermo un segnale che non si dif­ fonde su un'area estesa. Tutto lascerebbe dunque pensare che « qualcosa» abbia colpito un punto definito e che non vi siano validi motivi per dubitare che l'elettrone sia effetti­ vamente una particella nel senso in cui lo è una palla da bi­ liardo. Ma attenzione: se aumentiamo via via il numero di elettroni e teniamo esatto conto dei punti di arrivo, a poco a poco, al di là della casualità di percorso di ciascun elettro­ ne, prende forma un disegno generale; in certe zone dello schermo gli elettroni si infittiscono tanto da delineare una figura di interferenza assai simile a quella che otterremmo per un'onda d'acqua (o per la luce). Volendo poi verificare se il numero di elettroni che vanno a incidere su un punto specifico con entrambe le fenditure aperte sia uguale alla somma di quelli che attraversano separatamente le fendi­ ture, si scoprirebbe che vi sono zone dove giungono elet­ troni esclusivamente quando è aperta una sola delle due fenditure. In altri termini, si ha l'impressione che gli elet­ troni sperimentino un fenomeno di interferenza analogo a quello associato alle manifestazioni ondulatorie. A questo punto sorge spontanea una domanda: visto che un elettrone presenta aspetti tipici delle onde, può la luce condividere per qualche verso la natura delle particel­ le? La risposta è positiva. Se ci serviamo di uno strumento di misura grezzo, quale viene in genere adottato per gli esperimenti di ottica nelle scuole secondarie, avremo come unico risultato l'intensità luminosa media che interessa una determinata area di s2 su tempi abbastanza lunghi, con gli effetti di interferenza caratteristici di un'onda; ma se ri­ corriamo ad apparecchi piu sofisticati, in grado di racco­ gliere intensità deqolissime, sarà facile constatare che in realtà la luce arriva a intermittenza, sotto forma di « pac-

CAPITOLO PRIMO

chetti » discreti. Almeno per certi scopi, la luce può dun­ que essere visualizzata come un flusso di particelle elemen­ tari, i cosiddetti « fotoni ». Le «particelle » tradizionali co­ me gli elettroni e le « onde » tradizionali come la luce parte­ cipano in definitiva di una duplice natura, ondulatoria e corpuscolare, nel quadro di quel fenomeno della meccani­ ca quantistica noto come « dualità onda-particella ». Volendo dare al discorso maggiore concretezza, con­ centriamoci sugli elettroni (il caso dei fotoni, o di altre par­ ticelle come i protoni, può essere trattato in modo analo­ go). Immaginiamo allora di associare a un elettrone in un dato stato un'onda, per il momento di tipo sconosciuto, supponendo che nei riguardi dell'interferenza si comporti come una qualsiasi onda liquida. Indipendentemente dagli itinerari tracciati, le ampiezze saranno perciò sommabili ­ A12 = A1 + A2 - a differenza delle intensità, proporzionali come al solito ai quadrati delle ampiezze - 112 !- 11 + 12• At­ tribuendo all'intensità dell'onda il significato di misura della probabilità di scoprire un elettrone nel punto in que­ stione, avremo se non altro una spiegazione qualitativa del­ l'interferenza osservata. Per renderla quantitativa, do­ vremmo metterei in condizione di valutare con esattezza il comportamento dell'onda e perciò individuare una formu­ la che ci permetta di stabilire una corrispondenza tra l'a­ spetto ondulatorio e quello corpuscolare. L'equivalenza che, allo stato dei fatti, si è dimostrata vincente è la seguen­ te: se l'elettrone, considerato come particella, si trova in uno stato di quantità di moto p, l'onda associata possiede una lunghezza d'onda definita, À, correlata a p per mezzo dell'equazione À h/p, dove h è la costante di Planck. Quest'equazione fondamentale è conosciuta come « rela­ zione di de Broglie». Applicando le formule della relatività speciale, si ricava che l'energia, E, della « particella » è lega­ ta alla frequenza, v, dell'« onda» associata tramite l' espres­ sione E hv (che vale anche tra la frequenza di una norma­ le onda luminosa e l'energia dei fotoni associati). =

=

33

L'ALLESTIMENTO SCENICO

Avvalendoci di queste uguaglianze, e delle ipotesi cru­ ciali avanzate in merito all'interpretazione dell'intensità dell'onda come probabilità di trovare una particella in un punto dato, possiamo dare una connotazione quantitativa alla figura d'interferenza osservata e avviarci sulla strada della comprensione dei motivi del successo dei postulati di Bohr sul comportamento degli elettroni negli atomi. Si consideri, ad esempio, un elettrone che ruoti attorno al nucleo atomico in un'orbita circolare di raggio r. È vero­ simile che l'onda associata ritorni al punto di partenza du­ rante un percorso orbitale - vale a dire, che la circonferen­ za, 21tr, contenga un numero intero, n, di lunghezze d'on­ da, À : nÀ = 21tr. Ma, in forza della corrispondenza di cui sopra, avremo allora che pr nh/27t, e cioè esattamente la condizione postulata in origine da Bohr per un'orbita « consentita ». D'altro canto, quando l'elettrone salta di li­ vello, in generale emette un unico fotone; stando al princi­ pio di conservazione dell'energia, l'energia del fotone, E, dev'essere pari alla differenza tra le energie delle orbite elettroniche implicate, 11E, per cui dalla relazione E = hv si trae 11E hv, secondo i dettami di Bohr. Una descrizio­ ne quantitativa del comportamento dell'ampiezza dell'on­ da quanto-meccanica è data dall'equazione fondamentale della meccanica quantistica non relativistica, l'equazione di Schrodinger; ma non va dimenticato che, di per sé, que­ st' ampiezza non possiede alcun significato fisico - assegna­ bile, in senso probabilistico, soltanto all'intensità. Nell'ottica della fisica classica, la meccanica quantistica pullula di stravaganze. Tanto per cominciare, le sue predi­ zioni si esauriscono nella probabilità che un elettrone o fo­ tone venga rivelato in un punto particolare sullo schermo; perché proprio quell'elettrone sia arrivato in quel punto, e non altrove, è questione cui la teoria non è in grado di dar risposta, neppure in linea di principio. (Sarebbe bastato questo a gettare nella piu viva costernazione la maggioran­ za dei fisici del secolo scorso ! ) In secondo luogo, essa non =

=

34

CAPITOLO PRIMO

ci offre il mezzo di riconoscere simultaneamente a un'enti­ tà microscopica quale un elettrone un insieme completo e definito di proprietà «corpuscolari». Per esempio, la fisica classica ci dice che una particella in ogni istante ha una po­ sizione, x, e una quantità di moto, p, precisabili, mentre in meccanica quantistica la probabilità di localizzare la parti­ cella è soggetta a un'intensità d'onda, e un'onda di lun­ ghezza perfettamente definibile non ha in pratica limiti spaziali. Se si vuole che l'intensità si estenda solo a una re­ gione finita di spazio, occorre prendere una combinazione di onde di lunghezza diversa, con la conseguenza, per ef­ fetto dell'equazione À = h/p, di una dispersione, o indeter­ minazione, del valore della quantità di moto, p, della parti­ cella. Questo concetto si riassume nel famoso principio di indeterminazione di Heisenberg' t:.p t:.x ·



h/41t

ove t:.p esprime l'«incertezza» opportunamente definita della quantità di moto e 1tX quella della posizione. Analoga relazione, ancorché di interpretazione piu sottile, sussiste tra l'indeterminazione, M, nel momento t in cui si verifica un processo (o, per dirla in termini grossolani, della sua durata) e l'indeterminazione dell'energia che vi è associata, t:.E : t:.E M � hl41t. A voler essere piu espliciti, se uno stato intermedio del sistema «dura» per un tempo M, la sua energia risulterà indeterminata entro una quantità dell'ordine di hl41tM, per cui potremo «prendere a presti­ to» un'energia di quell'ordine di grandezza senza violare il principio di conservazione dell'energia. Ne vedremo un'applicazione nel prossimo capitolo. Ancor piu allarmante è il fatto che, secondo la meccani·

3

La parola tedesca Unbestimmtheitsprinzip («indeterminatezza>> o . Si tratta di unaversione fuorviante, poiché lascia intendere che l'elettrone abbia una posizione e una quantità di moto definite sulle quali si è insicuti. In realtà, il formali­ smo quantistico non consente di attribuire simultaneamente le due grandezze.

L'ALLESTIMENTO SCENICO

35

ca quantistica, per lo meno prima facie, nell'esperimento delle due fenditure l'elettrone debba comportarsi in modo qualitativamente diverso quando è lasciato a se stesso - ov­ vero nel passaggio attraverso l'apparato - e quando è sot­ toposto a osservazione (sullo schermo fisso). Nella prima situazione agisce come un'onda, sottostando al fenomeno dell'interferenza; nella seconda, come una particella (for­ nendo sullo schermo un segnale ben individuabile; un'on­ da produrrebbe un segnale diffuso). Perché allora non piazzare un rivelatore in corrispondenza di ciascuna delle fenditure per accertare quale viene effettivamente attra­ versata? Per questa via non è difficile rendersi conto che ogni singolo elettrone passa per l'una o l'altra delle fendi­ ture, non per entrambe - senza però che si manifesti un fe­ nomeno di interferenza nella distribuzione delle intensità. Curiosamente, dunque, l'elettrone sembra condursi come un'onda sintantoché viaggia in libertà, per trasformarsi in particella non appena si sente osservato ! Su questo caso particolare di un paradosso molto piu generale e, a giudi­ zio di molti, preoccupante nelle fondamenta della mecca­ nica quantistica torneremo nel quinto capitolo. Negli ultimi sessant'anni il formalismo della meccanica quantistica, arricchito delle generalizzazioni necessarie per inglobare la relatività speciale e la teoria dei campi, ha avu­ to un successo a dir poco straordinario, diventando il car­ dine della fisica atomica e subatomica, una componente essenziale della fisica della materia condensata e un ele­ mento di importanza crescente in cosmologia. Quasi tutti i fisici militanti sono convinti che sia questa la descrizione corretta della natura e inclinano a pensare che qualsiasi problema fisico, oggi o in futuro, potrà essere risolto sol­ tanto in chiave quanto-meccanica. Ciononostante, resiste una minoranza tenace e, a detta dei colleghi, talora irritan­ te nel sostenere che la meccanica quantistica, come teoria assoluta dell'universo, ha piedi d'argilla e « reca in sé i semi

CAPITOLO PRIMO

della sua stessa distruzione ». Ne approfondiremo le ragio­ ni nel quinto capitolo. A compimento di quest'introduzione, vorrei spendere qualche parola sul rapporto tra fisica e altre discipline e sulle «linee guida » che debbono ispirare il lavoro del fisi­ co. Quanto alle distinzioni tra fisica da un lato e chimica o astronomia dall'altro, esse hanno rilevanza soprattutto sto­ rica. Comuni, in larga misura, sono la metodologia e le leg­ gi di natura che ne sono a fondamento, mentre il fatto che stelle e molecole organiche complesse vengano studiate in facoltà universitarie diverse da quelle che si occupano dei solidi cristallini o delle particelle subatomiche va conside­ rato un accidente dello sviluppo della scienza (d'altronde, l'inconsistenza di una netta linea divisoria è testimoniata da incroci come la chimica fisica e l'astrofisica). Piii interessante è il rapporto nei confronti di discipline di parentela meno stretta, come la matematica e la filoso­ fia. Fisica e matematica hanno avuto destini intrecciati: molti problemi erompenti dalla prima hanno stimolato im­ portanti progressi nella seconda (un esempio eccellente è lo sviluppo del calcolo, sollecitato dalla necessità di risol­ vere le equazioni newtoniane del moto); per contro, la preesistenza di feudi di matematica all'apparenza astratta è stata essenziale alla formulazione di nuovi modi di guarda­ re al mondo fisico (tra l'altro, nella nascita della meccanica quantistica). Oggi nella gran parte i fisici, in particolare quelli portati alla speculazione piii che all'esperimento, at­ traversano avanti e indietro la linea di demarcazione tra le due scienze con tale frequenza da esserne a mala pena con­ sapevoli. Tuttavia esistono differenze da non sottovalutare. Sup­ poniamo che un fisico si trovi di fronte a un nuovo tipo di fenomeno che esula dalle sue conoscenze, avendo (lui o un suo collega), tanto per dirne una, misurato la magnetizza­ zione totale di un pezzo di ferro in funzione della sua « sto­ ria» - ossia di quanto ha subito in passato - e riscontrato

L'ALLESTIMENTO SCENICO

37

un comportamento imprevisto. A grandissime linee pos­ siamo scindere il suo attacco al problema in due stadi. La mossa d'apertura è il tentativo di identificare le presunte variabili critiche e dar forma concreta e corretta alle rela­ zioni che tra loro dovrebbero sussistere - in altri termini, costruire un « modello » plausibile del sistema. Nel nostro caso, egli potrebbe decidere che i parametri cruciali siano la densità di magnetizzazione in ciascun punto del campio­ ne e corrispondentemente il campo magnetico locale e la temperatura, correlando queste grandezze in uno specifi­ co insieme di equazioni differenziali. Nella decisione che proprio quelle variabili ed equazioni esprimano compiuta­ mente il fenomeno riconosciamo l'azzardo di un'ipotesi ra­ gionata (cfr. cap. IV) e dunque un genuino « far fisica ». Es­ sendo però assai raro che la risposta alla domanda essen­ ziale - in quale modo la magnetizzazione dipende dalle vi­ cende trascorse? - zampilli dalle equazioni tracciate, oc­ corre a questo punto procedere al secondo 'stadio e assog­ gettarsi alla routine spesso contorta e tediosa di risolvere le equazioni per produrre l'informazione richiesta. La fisica lascia qui il campo alla matematica; diciamo pure che in questa fase le equazioni potrebbero essere benissimo affi­ date a un matematico puro completamente ignaro di ciò che rappresentino nel mondo fisico i simboli in esse conte­ nuti senza pregiudizio alcuno rispetto alla soluzione (a pat­ to, beninteso, che il fisico abbia avuto l'accortezza di spie­ gare per filo e per segno al matematico quale informazione si riprometteva di estrarre) . Superfluo dire quanto questo schema elementare sia idealizzato; forse si avvicina al mo­ do di procedere in certi settori della fisica delle particelle e della cosmologia, ma certo non rende giustizia alla tipica situazione nella fisica della materia condensata, dove la prassi vuole che il fisico allestisca un modello, risolva le inerenti equazioni, constati che la soluzione predice risul­ tati manifestamente ridicoli nelle loro implicanze fisiche (ad esempio, che la magnetizzazione cresce senza limiti), si

CAPITOLO PRIMO renda conto di aver tralasciato qualche elemento essenzia­ le, torni allo stadio I, costruisca un nuovo modello e ripeta il ciclo, talora piu volte. Di fatto, come vedremo nel quarto capitolo, la realtà non di rado è ancora piu articolata. Comunque, benché questo disinvolto (e a volte incon­ scio) saltabeccare tra gli stadi che ho definito I e 2 sia pecu­ liare della ricerca fisica moderna, è importante tenere pre­ sente la natura fondamentalmente diversa dell'esercizio nei due momenti. La seconda fase è mirata a ricavare, per mezzo del rigoroso processo deduttivo caratteristico della matematica, l'informazione in un certo senso già implicita nelle equazioni di partenza; un eventuale errore a questo punto non ha a che fare con il mondo reale bensi con la lo­ gica. All'opposto, la prima fase è un tentativo di « interfac­ ciare » la propria descrizione matematica con il mondo reale: un qualsiasi intoppo va semplicemente imputato a una cattiva ipotesi sul modo di operare della natura. La di­ stinzione acquista rilievo soprattutto alla luce dell'uso sempre piu diffuso dei computer nello stadio 2; nonostan­ te l'affermarsi in anni recenti di quella che è stata chiamata «fisica al calcolatore », gli elaboratori non fanno della fisi­ ca - fanno della matematica applicata - e i loro output so­ no validi, o inefficaci, quanto i modelli introdotti da pro­ grammatori umani a seguito di considerazioni maturate nel primo stadio. La questione del rapporto tra fisica e filosofia è affasci­ nante e controversa; avrò occasione di dibatterla, implici­ tamente, nel quinto capitolo, limitandomi qui a pochi commenti. I fisici contemporanei tendono in maggioranza a usare l'aggettivo « filosofici » (sovente aggregato all'av­ verbio «puramente » ! ) in riferimento a problemi inerenti alla struttura portante della fisica e al linguaggio in cui ven­ gono posti. Eccone alcuni esempi: le dimostrazioni in fisi­ ca debbono in ultima analisi assumere sempre la forma «A accade ora perché B è accaduto in passato »?; può essere adeguata una teoria (si pensi alla meccanica quantistica)

L'ALLESTIMENTO SCENICO

39

che rifiuti assiomaticamente di fornire spiegazioni dei mo­ tivi di eventi singoli?; all'osservatore cosciente andrebbe riconosciuto un ruolo speciale ? Poiché simili domande, per loro natura, non sono suscettibili di risposta sperimen­ tale (almeno sintantoché gli esperimenti sono intesi nei li­ miti dell'edificio concettuale oggi dominante), il termine « filosofico» è diventato, nel gergo di molti fisici contem­ poranei, piu o meno sinonimo di « irrilevante alla pratica della fisica». La legittimità di questo punto di vista sarà og­ getto di discussione nel quinto capitolo. È singolare che, tra i filosofi che si sono maggiormente interessati all' evolu­ zione concettuale della fisica moderna, le opinioni diverga­ no su un punto: secondo una corrente di pensiero, il suc­ cesso della meccanica quantistica (un esempio tra tanti) di­ mostra di per sé che qualsiasi obiezione aprioristica, « filo­ sofica» al formalismo viene automaticamente a cadere, e che tocchi alla filosofia adattarsi alla fisica, e non_viceversa; secondo l'altra, una robusta opposizione concettuale de­ duttiva è sufficiente a trasformare una teoria fisica, ancor­ ché proficua, ben che vada in una transeunte approssima­ zione alla verità. Volgiamo ora fuggevolmente l'attenzione ad alcuni aspetti della concezione globale che la maggioranza dei fi­ sici accetta, spesso in maniera passiva, quando ragiona in­ torno al mondo. Va da sé che la gran parte di questo qua­ dro di riferimento non è in alcun modo peculiare alla fisica, ma proprio in senso lato di quelle attività che usiamo clas­ sificare « scientifiche »; d'altro canto, è forse piu agevole analizzarlo nel contesto della fisica e probabilmente non è un caso che chi ambisce a dar veste « scientifica» alle sue ricerche - i sociologi, ad esempio - guardi alla fisica come al paradigma da imitare. L'assunto principale che sottende tutta la fisica, e se è per questo tutta la scienza nel significa­ to corrente del vocabolo, è verosimilmente che l'universo sia in linea di principio accessibile alla mente dell'uomo; che la colpa dell'incapacità di comprendere un qualsiasi

CAPITOLO PRIMO fenomeno sia da ricercare in noi stessi, non nel cosmo, e che un giorno o l'altro un ingegno superiore ci indicherà la via. Sull'esatto significato di quel « comprendere» si po­ trebbero naturalmente accendere discussioni a non finire e avremo modo piu avanti di riprendere il filo di questo di­ scorso. Pure, ci sembra evidente che, ave non nutrissimo profonde convinzioni al proposito, la stessa ricerca scienti­ fica perderebbe qualunque seria motivazione. Un presupposto un po' piu specifico è che nel mondo vi sia una sorta di regolarità e costanza nello spazio e nel tem­ po: che le « leggi di natura » non mutino ad arbitrio di gior­ no in giorno, o di luogo in luogo. Ad esempio, una teoria incentrata sull'ipotesi che il rapporto delle frequenze di oscillazione di due orologi atomici fosse un milione di anni fa diverso da quello che è oggi verrebbe accolta con note­ vole scetticismo, a meno che potesse proporre una formu­ la generale per la variazione temporale del rapporto e, di preferenza, avanzare previsioni sui risultati sperimentali futuri. Come suggerisce questa osservazione, un altro ingre­ diente richiesto dai fisici in tutto ciò che vuol essere una « spiegazione » è il potere predittivo, inteso nel senso che una teoria dovrebbe non soltanto dar conto dei fatti già no­ ti, ma anche pronosticare le conseguenze di esperimenti ancora da compiere. In una prospettiva puramente razio­ nale, si tratta invero di un requisito a dir poco bislacco: la correlazione logica tra i risultati teorici e quelli sperimenta­ li non può dipendere dall'ordine temporale in cui sono sta­ ti ottenuti. Ma i fisici sono esseri umani, e ognuno sa quan­ to sia piu semplice a livello psicologico - e molto meno fruttuoso - partorire una spiegazione esauriente per una serie di esperimenti già effettuati che prevede l'esito di un solo esperimento di là da venire. Uno dei segni rivelatori dei saggi del tipo che i fisici amano definire « eccentrici » senza alcun riferimento a loro stessi! - è il fatto che, pur ap­ parentemente in grado di spiegare una caterva di dati esi-

L'ALLESTIMENTO SCENICO stenti, quasi mai si azzardano ad anticipare i risultati di qualsivoglia esperimento ancora allo stadio di progetto. Non merita far notare che vi sono casi in cui la richiesta di potere predittivo non può essere ragionevolmente soddi­ sfatta: gli eventi di cui si occupano la cosmologia e l' astrofi­ sica, appartengono sovente, per loro natura, al passato re­ moto o sono talmente lontani nel futuro da essere fuori della portata sperimentale; del resto, come abbiamo ri­ scontrato anche nella fisica piu ancorata alla Terra, l'esi­ genza di previsioni esatte per quanto concerne eventi isola­ ti è venuta meno con l'avvento della meccanica quantisti­ ca. Eppure, poche cose destano l'attenzione del fisico me­ dio piii di una limpida predizione di un fenomeno qualita­ tivamente nuovo - ad esempio una particella elementare mai vista prima. A tutti è noto che la fisica è una scienza empirica, ma mi si consenta di rammentare che questa constatazione non sarebbe parsa affatto ovvia ai nostri progenitori medievali, inclini in massa a giudicare la sperimentazione sostanzial­ mente irrilevante per risolvere le questioni di fondo. (Un atteggiamento, vien fatto d'aggiungere, diffuso ancor oggi tra certi frequentatori di dipartimenti di fisica teorica o «matematica », dove può succedere di sentir risuonare la parola « esperimento » usata senza traccia d'ironia per de­ scrivere una soluzione ottenuta al calcolatore di un proble­ ma schiettamente matematico! Si faccia riferimento a quanto detto in precedenza sui rispettivi ruoli della fisica e della matematica) . Capita spesso di udire che l'affermarsi del « metodo sperimentale » coincide con la nascita della scienza moderna. Qual è il nostro modo di porci, a livello piu o meno conscio, nei confronti della natura e della fun­ zione dell'esperimento? Innanzitutto, diamo per scontato che i risultati degli esperimenti siano intersoggettivi, e cioè che non traggano origine da chi agisce materialmente o analizza ciò che è successo. Se voi mi dite che le lancette di un orologio a mu-

42

CAPITOLO PRIMO

ro indicano le quattro del pomeriggio, io dovrei essere in grado di confermare che l'ora segnata è proprio quella, e lo stesso dovrebbe poter fare chiunque abbia familiarità con i simboli e le convenzioni in uso. Vi saranno sempre, com'è logico, discordanze di poco conto dovute a ogni sorta di motivi banali, ma è sottinteso il riconoscimento della pos­ sibilità di ridurle indefinitamente ricorrendo a occhiali piu perfezionati, isolamenti acustici migliori, ecc. È significati­ vo che anche le interpretazioni piu fantasiose della mecca­ nica quantistica (ne vedremo qualcuna nel quinto capito­ lo) avvertano il bisogno di conservare l'intersoggettività sperimentale. Anzi, quando a osservatori diversi un accor­ do appaia irraggiungibile, gli scienziati tendono quasi au­ tomaticamente a liquidare i fenomeni in questione come il­ lusioni e puri e semplici prodotti della condizione mentale dell'osservatore. Per dirla con altre parole, siamo propensi a dividere i dati della nostra esperienza soggettiva imme­ diata in due classi: quelli riproducibili da qualsiasi osserva­ tore competente e utilizzabili dalle cosiddette scienze du­ re, fisica in testa, e quelli che scaturiscono esclusivamente dallo stato psicologico dell'osservatore e non hanno esi­ stenza «oggettiva ». Del resto, l'ipotesi che tutta l'espe­ rienza debba ricadere nell'una o nell'altra classe non è af­ fatto ineluttabile: consentitemi, con un tocco di stravagan­ za, di chiamarla ipotesi « via i fantasmi ». Potremmo defini­ re un fantasma, o apparizione spettrale, come un fenome­ no la cui osservazione richieda sia la presenza di certe condizioni fisiche oggettivamente verificabili (una dimora frequentata da presenze inquietanti, il giusto anniversario), sia un particolare stato mentale o doti medianiche nell'os­ servatore. (Com'è noto, molti, ivi compreso il sottoscritto, appaiono del tutto incapaci di vedere i fantasmi, mentre al­ tre persone, del pari ragionevoli, sembrano non avere alcu­ na difficoltà in proposito - e non intendo fare dell'ironia) . L'attuale metodologia della scienza presuppone implicita­ mente che i fantasmi, cosi definiti, non esistano; o, piu mo-

L'ALLESTIMENTO SCENICO

43

destamente, che non siano comunque soggetto appropria­ to all'indagine scientifica. Non è detto che i nostri discen­ denti nel xxv secolo condivideranno questo punto di vista. Vn secondo assunto è che, in fisica, sia vantaggioso ci­ mentarsi soltanto con i fenomeni suscettibili di qualche ti­ po di misurazione quantitativa. Molti dei progressi piu si­ gnificativi nella storia della fisica sono stati in effetti prece­ duti dall'invenzione del modo di misurare (e quindi defini­ re in senso quantitativo) concetti sino ad allora descritti in termini tutt'al piu qualitativi; come abbiamo già ricordato, la meccanica galileiana non sarebbe mai venuta alla luce in assenza di orologi relativamente precisi (costruiti in un passato piuttosto recente); e lo sviluppo di termometri at­ tendibili fu essenziale alla nascita della moderna scienza della termodinamica. Si può immaginare che lo studio di sistemi altamente organizzati - ad esempio, biofisici - rice­ verà un impulso decisivo soltanto quando saremo riusciti a escogitare una misura fisica (non matematica ! ) quantitati­ va di quella caratteristica (per ora) qualitativa che va sotto il nome di « complessità». Scegliendo di limitarsi ai fenomeni misurabili, è natura­ le attendersi che si possa arrivare a descriverli nel linguag­ gio della matematica formale (sarebbe invero assurdo af­ fannarsi a scovare metodi di misura se non potessimo trar­ ne vantaggio) . Per parecchi secoli non ci si discostò da uno schema elementare: ognuna delle grandezze valutate speri­ mentalmente (distanza, tempo, massa . . . ) era rappresentata da una corrispondente quantità nel modello matematico; e viceversa, ogni simbolo matematico aveva un equivalente piu o meno diretto in termini di variabili sperimentali. Tut­ tavia già sul finire del XIX secolo cominciarono a spuntare all'orizzonte le prime nubi: di un importante concetto ter­ modinamico - l'entropia - si è potuta dare soltanto una de­ codificazione sperimentale alquanto indiretta, e il campo elettromagnetico in spazio libero, postulato da Maxwell come conseguenza di vibrazioni meccaniche di un etere

44

CAPITOLO PRIMO

onnipervasivo, alla fin fine si è rivelato un'entità elusiva, ben che vada riassumibile in ciò che accadrebbe a una parti­ cella carica se capitasse da quelle parti. A inquinare ancor piu le acque è sopraggiunta la meccanica quantistica mo­ derna: secondo le interpretazioni piu accreditate, la « fun­ zione d'onda », elemento chiave nella descrizione teorica, non ha alcuna controparte nell'universo fisico osservabile; nel quinto capitolo esploreremo alcuni dei paradossi e del­ le controversie che ne derivano. Esauriti i preliminari, per ragioni di spazio troppo af­ frettati, nei prossimi capitoli prenderemo in esame lo stato dei fatti in tre dei piu importanti settori della fisica contem­ poranea: fisica delle alte energie, cosmologia, e fisica della materia condensata.

Capitolo secondo Di che cosa è fatta la materia?

Allo scienziato, ma anche al profano, del xx secolo po­ che cose paiono piu naturali o intuitive dell'idea che per comprendere le proprietà e il comportamento di un ogget­ to complesso occorra scinderlo nei suoi elementi costituti­ vi; e che raggiunto il livello di un aggregato di componenti non ulteriormente suddivisibili e afferrati i rapporti tra quei componenti e i modi in cui essi interagiscono, si di­ sponga « in teoria » di una conoscenza completa dell'og­ getto nella sua totalità. Questo modo di pensare è forse ri­ duttivo, e sull'argomento mi soffermerò a conclusione del libro; ma certo ci ha reso spettacolari servigi in passato e non dobbiamo stupirei che gran parte del fascino - e delle risorse - della fisica moderna continui a concentrarsi nella ricerca dei « costituenti ultimi » della materia - l'impresa che conosciamo sotto il nome di fisica delle particelle o meglio, per motivi che chiarireno tra breve, fisica delle alte energie. Come ben sappiamo, innumerevoli testimonianze di or­ dine fisico e chimico inducono ad arguire che la materia ordinaria tutto attorno a noi sia composta di atomi ', e che ogni elemento chimico corrisponda, per dirla in soldoni, a un diverso tipo di atomo. A loro volta i vari atomi sono for­ mati da un microscopico nucleo di carica positiva (con rag­ gio pari a circa ro-15 metri), dove s'addensa la massa atomi1 Ironicamente in questo contesto, il significato letterale del termine « atomo » è « indivisibile ».

CAPITOLO SECONDO ca, circondato da una « nuvola » di elettroni carichi negati­ vamente dello SpeSSOre approssimatiVO di l angstrom ( ro-IO metri). La struttura dell'atomo secondo Rutherford era as­ similabile a quella del sistema solare, ma dal punto di vista della moderna meccanica quantistica non ha senso utiliz­ zare un modello elementare, potendosi affermare soltanto che vi sono buone probabilità di trovare un elettrone in un punto qualsiasi entro una distanza di circa I angstrom dal nucleo. Gli elettroni sono vincolati al nucleo per effetto dell'arcinota attrazione coulombiana (elettrostatica) tra cariche opposte; ciononostante, vengono facilmente scam­ biati o condivisi tra atomi diversi nelle reazioni chimiche (come, ad esempio, quando un atomo di cloro (Cl) « cattu­ ra » l'elettrone esterno di un atomo di sodio (Na) per for­ mare una molecola di sale comune (Na+ CI-). È consuetu­ dine misurare la massa di una particella elementare in base all'energia equivalente « a riposo », secondo la relazione einsteiniana E = mc 2• Un MeV (megaelettronvolt) è l' ener­ gia acquistata da un elettrone accelerato attraverso una dif­ ferenza di potenziale di un milione di volt; è pari a r,6 x ro-n joule. In queste unità l'elettrone ha una massa (energia a ri­ poso) di 0,51 MeV; inoltre possiede una carica (negativa) di r,6 x ro-19 coulomb (convenzionalmente indicata con -e) e un momento angolare intrinseco (spin) rh nelle unità naturali hl21t. Lo si ritiene assolutamente stabile, nel senso che, abbandonato a se stesso nello spazio libero, non subi­ sce disintegrazione. n nucleo atomico è costituito da protoni e neutroni, chiamati nell'insieme « nucleoni », di massa rispettivamen­ tè pari a 938,3 MeV e 939,6 MeV e dunque assai piu pesanti a fronte dell'elettrone. Ambedue hanno uno spin Il2 in unità naturali. n protone ha carica +e, cioè esattamente uguale e opposta, per quanto è noto, a quella dell'elettro­ ne; il neutrone, come implica il nome, è elettricamente neutro - ovvero, privo di carica. Il numero dei protoni nel nucleo ne determina perciò la carica totale e per conse-

DI CHE COSA È FATTA LA MATERIA?

47

guenza fissa il numero degli elettroni (dovendosi rispettare la neutralità dell'atomo), che a sua volta definisce il com­ portamento chimico; tutti gli atomi aventi lo stesso nume­ ro di protoni nel nucleo corrispondono perciò allo stesso elemento chimico. n numero dei neutroni nel nucleo non ha effetti sostanziali sulle manifestazioni chimiche e influi­ sce soprattutto sulla massa atomica. Atomi con il medesi­ mo numero di protoni ma diverso numero di neutroni so­ no detti « isotopi» di un elemento. Ad esempio, il nucleo dell'atomo dell'idrogeno, che è il piu semplice (e il piu leg­ gero), è formato da un solo protone. Aggiungendovi un neutrone, abbiamo l'« idrogeno pesante » o deuterio, che rivela proprietà chimiche (pressoché) analoghe all'idroge­ no ma ha massa doppia; aggiungendovi invece un secondo protone si ottiene l'isotopo leggero dell'elio CHe), di attri­ buti chimici completamente diversi. Il protone è ritenuto (o meglio, come vedremo, lo era si­ no a non molto tempo addietro) assolutamente stabile. Non cosi il neutrone: lasciato in libertà, decade in un pro­ tane, un elettrone e una terza particella, elettricamente inerte e di ardua individuazione, cui è stato dato il nome di neutrino (piu esattamente, un antineutrino elettronico). Questa disintegrazione è il prototipo di quello che è cono­ sciuto come « processo di decadimento radioattivo »: lad­ dove per un singolo neutrone la disintegrazione avviene se­ condo modalità del tutto casuali e imprevedibili, per una moltitudine di neutroni si registra un comportamento sta­ tistico ben definito, corrispondente a una probabilità di decadimento suppergiu pari a rh 5 al minuto: dopo un mi­ nuto si saranno trasformati circa r/r5 dei neutroni nel cam­ pione; dopo il secondo minuto, circa rh5 dei soprav­ vissuti, e via dicendo. Diciamo che il neutrone, nello spazio libero, ha una «vita media » di 15 minuti'. 2 La vita media vale approssimativamente 1.4 volte il « tempo di semitrasforma­ zione» - vale a dire, il periodo dopo il quale rimane all'incirca metà del campione originario.

CAPITOLO SECONDO Quando il neutrone si trova all'interno di un nucleo ato­ mico le cose si fanno piu complicate. Con certi nuclei ra­ dioattivi può decadere come nello spazio libero, sia pure con una vita media variabile, a seconda del nucleo, da me­ no di un milionesimo di secondo a milioni di anni, mentre in altri si dimostra perfettamente stabile. A rendere ancora piu intricata la situazione, talora un protone può decadere, producendo, ad esempio, un neutrone e due particelle piu leggere (un neutrino elettronico e un positrone: cfr. oltre). La spiegazione di questo sbalorditivo proliferare di comportamenti diversi risiede nel fatto che qualuque pro­ cesso comportante trasformazione o decadimento di parti­ celle deve soddisfare certi principidi conservazione: vi sono cioè grandezze che debbono conservare esattamente lo stesso valore prima e dopo il processo. Abbiamo già fatto la conoscenza nel primo capitolo della legge di conserva­ zione dell'energia, efficace quando sono in gioco sia parti­ celle « elementari» che corpi macroscopici'. L'energia to­ tale di una particella non soggetta a vincoli è data dalla somma dell'energia a riposo, mc2, e dell'energia cinetica associata al suo moto; essendo quest'ultima nulla quando la particella è immobile e positiva in tutti gli altri casi, .e avendo noi comunque sempre la possibilità di scegliere di operare in un sistema di riferimento (si veda il capitolo ter­ zo) nel quale la particella che decade sia ferma, ne discende che un processo di decadimento può aver luogo nello spa­ zio libero soltanto se la massa totale (e quindi l'energia a ri­ poso) dei « prodotti di decadimento» (le particelle emes­ se) è minore di quella della particella originaria. Nel caso del decadimento di un neutrone (massa 939,6 MeV) questa condizione è esaudita: poiché il protone ha massa 938,3 3 È interessante che questo principio, oggi accettato dalla quasi totalità dei fisici, sia stato in passato messo in discussione. Nel travaglio della nascita della meccanica quantistica, un famoso articolo di Bohr, Kramers e Slater sollevò la questione se la conservazione dell'energia fosse applicabile a processi individuali ovalesse esclusiva­ mente sulla media statistica. Gli esperimenti provvidero tosto a rimuovere il dubbio.

49

DI CHE COSA È FATTA LA MATERIA?

MeV, l'elettrone 0,5 MeV e il neutrino massa di riposo ze­ ro', la massa totale dei prodotti di decadimento è inferiore a quella del neutrone di o,8 MeV, spesi in energia cinetica. D'altra parte è evidente che in spazio libero un protone non può decadere in un neutrone piu qualcos'altro. In un nucleo la situazione è però diversa, giacché l'energia totale di ciascun membro dell'equazione deve comprendere, ol­ tre all'energia a riposo e a quella cinetica, l'energia di lega­ me della particella, diversa per un medesimo nucleo a se­ conda che si tratti di un protone o di un neutrone. In rela­ zione all'entità della differenza, possiamo dunque avere tre scenari: instabilità di un neutrone, instabilità di un proto­ ne, o stabilità di entrambi '. Va da sé che, decaduto il primo neutrone (poniamo), il nucleo è cambiato e i calcoli vanno rifatti; prima o poi, magari dopo una serie di decadimenti, raggiungeremo un nucleo con protoni e neutroni stabiliti e pertanto non radioattivo. Quanto abbiamo delineato non esaurisce l'argomento della stabilità del protone e del neutrone. Ad esempio, chi ci dice che il protone (massa 938,3 MeV) non possa deca­ dere in due elettroni (massa totale 1,02 MeV) ? La conser­ vazione dell'energia non avrebbe nulla in contrario, ma qui entra in gioco, inter alia, un'altra legge di conservazione, di applicazione altrettanto universale, e cioè la conservazione della carica elettrica totale (il protone ha carica +e, i due elettroni -2e). Amplieremo il discorso piu avanti. Come abbiamo già messo in evidenza, la forza che trat­ tiene gli elettroni nell'atomo è la consueta attrazione elet­ trostatica tra cariche di segno opposto (gli elettroni negati­ vi e il nucleo positivo). Rimanendo nell'ambito dei nucleo­ ni, questa forza non dovrebbe però avere alcun effetto sui 4 A dire il vero, oggi si dibatte se il neutrino abbia massa di riposo dawero nulla o soltanto molto piccola (forse attorno a ro eV). ' Per completezza si dovrebbe aggiungere che in pochissimi nuclei, per ragioni che esulano dalla portata di quest'opera, il neutrone e il protone sono entrambi instabili. ·

50

CAPITOLO SECONDO

neutroni, elettricamente inerti, e dovrebbe tenere distan­ ziati i protoni, poiché cariche uguali si respingono. Come fa allora il nucleo a stare insieme? La risposta chiama in causa una forza completamente diversa, la cosiddetta inte­ razione forte, che agisce in senso comunque attrattivo (a questo livello) tra i nucleoni lasciando invece indifferenti gli elettroni. Come implica il suo nome, l'interazione forte è molto piu intensa di quella elettromagnetica (e perciò può relegarla in secondo piano), ma ha una « portata » al­ quanto ridotta (circa w-15 metri, grosso modo il raggio di un nucleo di piccole dimensioni) ; oltre questa distanza de­ cade esponenzialmente anziché, come l'interazione elet­ tromagnetica, in ragione dell'inverso del quadrato. Le tre particelle sinora esaminate - elettrone, protone e neutrone - hanno tra l'altro in comune una massa a riposo finita (e, in conseguenza, una velocità inferiore a quella della luce), una ragionevole stabilità nello spazio libero e la capacità di essere deflesse da un campo elettrico e/o ma­ gnetico. (Malgrado sia privo di carica, il neutrone possiede un momento di dipolo magnetico e può essere perciò de­ viato, per quanto debolmente, da un campo magnetico). Una descrizione completa non può insomma prescindere da considerazioni quanto-meccaniche, ma in molti casi il comportamento di queste particelle può essere assimilato a quello di minuscole palle da biliardo - l'immagine che presumibilmente si affaccia alla mente del profano nell'u­ dire la parola « particella ». Un poco diversa è la quarta « particella» con cui abbia­ mo a che fare nella nostra esistenza quotidiana. Sappiamo dal primo capitolo che quando un'onda luminosa di fre­ quenza v interagisce con particelle cariche - ad esempio, nel processo di ionizzazione che costituisce il primo stadio nell'annerimento di una lastra fotografica - l'energia si tra­ sferisce in pacchetti, o « quanti », di valore hv (dove h è la costante di Planck), cui diamo il nome di fotoni. Applican­ do la relazione (classica) tra la frequenza, v, e la lunghezza

DI CHE COSA È FATTA LA MATERIA?

51

d'onda, À, di un'onda, v = ci"A, e il postulato (quantico) di de Broglie, p hi"A, si ricava che il fotone trasporta una quantità di moto, p, legata alla sua energia, E, dalla formula E = cp. Nella teoria della relatività una simile relazione sa­ rebbe caratteristica di una particella con massa di riposo nulla automaticamente lanciata alla velocità della luce, c. Che il fotone, in molti contesti, si comporti esattamente come una particella di questi attributi risulta con chiarezza dal cosiddetto effetto Compton (diffusione della luce ad opera di elettroni liberi), che nella sua essenza si manifesta semplicemente trattando il fotone come qualsiasi altra par­ ticella e applicando i principi di conservazione dell' ener­ gia e della quantità di moto alla sua « collisione » con l'elet­ trone. A parte la massa a riposo zero (e il fatto che non viene deviato da un campo elettrico o magnetico) , il fotone si di­ versifica dalle altre tre particelle per due aspetti rilevanti. Primo: benché stabili nel vuoto, i fotoni si possono creare e distruggere con gran facilità laddove vi sia materia; ad esempio, incontrando un atomo un fotone può sbalzare un elettrone a un livello energetico superiore, cedendogli la sua energia, E = hv, e scomparendo nel processo. (All'op­ posto, a un elettrone non è mai concesso di svanire senza lasciarsi indietro un'altra particella: cfr. oltre) . Secondo: moltissimi fotoni possono occupare il medesimo stato, condizione anzi necessaria ove si voglia recuperare l'onda luminosa « classica » che servi da matrice all'idea dei foto­ ni. Queste differenze sono in realtà semplici sintomi di una distinzione molto piu fondamentale, tra il fotone da un lato e il succitato terzetto dall'altro, su cui ci soffermeremo tra breve. Da quanto precede, si potrebbe avere l'impressione che le interazioni elettrostatiche (e magnetiche) delle particelle cariche tra loro e con i fotoni non abbiano alcun legame di parentela. In realtà, le prime possono essere considerate una conseguenza delle seconde e, trattandosi di un caso =

52

CAPITOLO SECONDO

particolare di un concetto molto pili generale che si pone al centro della moderna fisica delle particelle, mi sembra op­ portuno scavare un po' piu a fondo. Si immagini un elet­ trone nel vuoto, scegliendo, in ossequio alla teoria della re­ latività speciale un sistema di riferimento in cui si trovi a ri­ poso. Date queste condizioni, il principio di conservazione dell'energia gli vieta di emettere un fotone « reale », cioè in grado di propagarsi all'infinito. Si ipotizzi però la presenza di un altro elettrone a distanza r e si ammetta la possibilità di un processo in cui un fotone venga emesso dal primo elettrone e assorbito dal secondo (fig. 2.1); un siffatto foto­ ne è definito «virtuale », non comparendo nello stato fina­ le del sistema. Nel processo il fotone dovrebbe sottrarre energia e quantità di moto dal primo elettrone e traslocarle al secondo; nell'insieme si ha perciò una collisione o ime­ razione, tra i due elettroni. L'intervallo di tempo, M, per cui deve esistere il fotone «virtuale » è quello necessario a percorrere la distanza r, vale a dire rlc. Ora, sulla base del « rapporto di intederminazione energia-tempo » cui abbia­ mo fatto cenno nel primo capitolo, se un processo quanti­ co dura un tempo !::.t, è lecito « mutuare » per esso un' ener­ gia t:.E, purché questa non sia maggiore di circa h/41tM.

Figura 2.1. L'interazione tra elettroni mediata da un fotone virtuale.

fotone

DI CHE COSA È FATTA LA MATERIA?

53

Se la massa di quiete del fotone fosse finita, poniamo m, il valore minimo di !lE sarebbe la sua energia a riposo, mc 2, per cui il valore massimo di M tollerabile sarebbe dell'or­ dine di hlmc2 e il valore massimo di r in corrispondenza di h/mc. Tutto il processo equivarrebbe dunque a un'intera­ zione, o forza, tra i due elettroni operante soltanto per di­ stanze suppergiu inferiori a h/mc (il cosiddetto «raggio d'azione » dell'interazione). Poiché in realtà la massa di quiete del fotone è zero, la forza prodotta naturalmente ha raggio d'azione infinito, ma si attenua in modo inver­ samente proporzionale alla distanza. Di fatto, un diligen­ te calcolo quanto-meccanico dimostra che i processi di « scambio di fotoni virtuali » generano a un tempo le ben note forze di Ampère tra correnti elettriche e (con qualche accorgimento tecnico su cui preferisco non indugiare) le interazioni elettrostatiche (coulombiane) tra cariche stati­ che. Sappiamo del resto, anche se non risulta ovvio da quanto precede, che l'interazione coulombiana cosi otte­ nuta è repulsiva tra cariche uguali e attrattiva tra cariche opposte, mentre quella di Ampère è attrattiva tra correnti parallele e repulsiva tra correnti antiparallele. Tra la parti­ cella carica e il fotone si avrebbe perciò un'interazione « elementare », dalla quale deriverebbe l'interazione delle particelle cariche tra loro. La teoria costruita in questo mo­ do va sotto il nome di « elettrodinamica quantistica ». Le proprietà e il comportamento della materia che è sot­ to i nostri occhi si possono perciò in gran parte spiegare in­ vocando quattro particelle in apparenza « elementari » ­ l'elettrone, il protone, il neutrone e il fotone (le altre cui abbiamo accennato - il neutrino, l'antineutrino e il posi­ trone - si rinvengono soprattutto nei processi di decadi­ mento radioattivo, per cui non sono costituenti permanen­ ti della materia comune) . Tuttavia, nell'ottica della moder­ na fisica delle particelle, la materia quale è percepita dai nostri sensi non ha alcun motivo di inorgoglirsi; altro non è che un fenomeno « di bassa energia», con peculiarità che

54

CAPITOLO SECONDO

dipendono esclusivamente da una temperatura ambiente bassa rispetto a tutte le energie che determinano la struttu­ ra e le interazioni delle particelle (si pensi all'energia di ri­ poso del protone). A voler mettere i puntini sulle i, come vedremo nel capitolo successivo, è assai probabile che agli albori dell'universo la temperatura fosse molto piu elevata e le «particelle » dominanti avessero poco in comune con quelle che ci sono familiari. Il miglioramento delle nostre cognizioni sulla struttura della materia a livello subnuclea­ re negli ultimi tre decenni è in effetti dovuto quasi per inte­ ro a esperimenti nei quali si studiano collisioni e interazio­ ni di particelle a energie elevatissime in confronto a quelle in gioco nei fenomeni terrestri (donde la denominazione moderna « fisica delle alte energie » in sostituzione di « fisi­ ca delle particelle »). Le alte energie offrono due grossi vantaggi. Innanzitut­ to, vi sono molte particelle con masse a riposo quanto me­ no dell'ordine di grandezza di quella del protone; essendo instabili, sono di norma assenti nella materia ordinaria, ma si formano con relativa facilità nelle collisioni ad alta ener­ gia. La loro analisi rivela molti indizi sulla struttura della materia che mai avrebbero potuto essere forniti dalle parti­ celle stabili. Per giunta, piu di una volta un'ipotesi avanza­ ta sul comportamento di particelle note è sfociata nella predizione ineluttabile di nuove particelle, spesso in un campo di energie al di fuori delle possibilità pratiche. Va da sé che simili previsioni, talora convalidate in maniera spettacolare, rappresentano un potente stimolo alla ricer­ ca. In secondo luogo, occorre tener presente che le distan­ ze nel cui ambito possiamo investigare la struttura e le iute­ razioni di corpuscoli sono inversamente proporzionali al­ l'energia coinvolta in un esperimento di collisione. Al fine di rendercene conto, cominciamo col ricordare che nell'ottica classica la risoluzione conseguibile - ovve­ ro la distanza minima tra due punti affinché possano esse­ re visti distinti attraverso lo strumento - usando luce di

DI CHE COSA È FATTA LA MATERIA?

55

lungezza d'onda À è per l'appunto confrontabile a À. Nella meccanica quantistica, come abbiamo osservato nel primo capitolo, le particelle presentano un aspetto « ondulato­ rio », e anche in questo caso le pili piccole strutture apprez­ zabili sono dell'ordine della lunghezza d'onda, À, che, non dimentichiamolo, in omaggio alla relazione di de Broglie, è inversamente proporzionale alla quantità di moto, p, della particella: À = h/p. Ma nel dominio relativistico (velocità prossima a quella della luce), quando l'energia totale, E, della particella è grande rispetto alla sua energia di quiete, mc2, E, è approssimativamente pari a cp; di conseguenza, À si avvicina a h c!E, per cui la scala strutturale esplorabile è tanto pili ridotta quanto maggiore è l'energia. Ove, ad esempio, si nutrisse il sospetto che il protone, con un rag­ gio intorno a w-15 metri, sia un aggregato di oggetti piu semplici, e si volesse accertare l'ipotesi per mezzo della dif­ fusione di un elettrone, bisognerebbe conferire a questo ultimo un'energia di almeno hc/(w-15), vale a dire, circa 2 x w-10 joule, o 3 GeV (r GeV - gigaelettronvolt - è w 9 elet­ tronvolt o woo MeV) . Analogamente, se desiderassimo penetrare a fondo nella struttura fine dell'interazione « de­ bole » responsabile del decadimento del neutrone (cfr. ol­ tre), che si ritiene abbia un raggio d'azione venti volte piu piccolo di quello del protone, dovremmo utilizzare un'e­ nergia non inferiore a 6o GeV. La fisica delle alte energie è perciò automaticamente anche la fisica del microscopio. Ovvio dunque che la fisica sperimentale delle particelle elementari negli ultimi trent'anni abbia finalizzato i suoi sforzi al raggiungimento di energie sempre piu cospicue per le particelle collidenti. Sino a non molto tempo addie­ tro, la tecnica sperimentale piu accreditata prevedeva l'uso di un bersaglio mobile - ad esempio, i protoni in una came­ ra a bolle - e l'accelerazione di un fascio di protoni o elet­ troni che venivano indirizzati sui protoni bersaglio. Pur­ troppo, non appena si passa a energie comparabili a quelle a riposo in essere, la maggior parte dell'energia data al fa-

CAPITOLO SECONDO" scio va perduta, limitandosi a spingere innanzi l'intero complesso (particella del fascio piu protone bersaglio), laddove l'unica cosa che ha importanza è l'energia del mo­ to relativo. (Il danno prodotto da un camion di 20 tonnella­ te che vada a colpire a 5 0 chilometri l'ora un'auto ferma è uguale -trascurando gli attriti di frenata e altri fattori con­ simili - a quello che si avrebbe invertendo le posizioni, an­ che se nel primo caso l'energia cinetica è molto maggiore che nel secondo: infatti l'energia dell'autocarro viene spe­ sa quasi tutta per spostare in avanti i due veicoli). Se la meccanica newtoniana avesse validità universale, l'ostaco­ lo sarebbe aggirabile, poiché una frazione costante dell'e­ nergia impartita in origine sarebbe se non altro disponibile al moto relativo (come nell'analogia indicata). Disgraziata­ mente si debbono fare i conti con la relatività ristretta: l'e­ nergia utilizzabile cresce soltanto in ragione della radice quadrata di quella iniziale. Per questo motivo, i piu recenti acceleratori a energia ultraelevata sono stati del tipo « a fa­ sci collidenti »; anziché accelerare un unico fascio di parti­ celle per colpire un bersaglio fisso, si fanno scontrare due fasci di uguale energia ma accelerati in direzioni opposte. In questo modo tutta l'energia posseduta inizialmente si rende disponibile all'urto . Potendosi accelerare solo po­ che particelle in ciascun fascio, il numero di collisioni per secondo è molto inferiore a quello che si ha in un apparec­ chio a bersaglio fisso, ma gli scienziati sono convinti che questo sia un prezzo modesto da pagare. Al momento in cui scrivo, in un anello di pochi chilometri di diametro presso il Fermi National Accelerator Laboratory, nelle vi­ cinanze di Chicago, si è raggiunta un'energia di circa 2 TeV (2 x m12 elettronvolt), ovvero 2000 volte l'energia a riposo del protone. I costi di costruzione di un acceleratore del genere sono dell'ordine delle centinaia di miliardi, con un consumo di potenza in fase d'esercizio attorno ai 5 0 mega­ watt (circa o,I per cento del consumo totale di energia elet­ trica degli Stati Uniti) . Oggi negli Stati Uniti si va attiva-

DI CHE COSA È FATTA LA MATERIA?

57

mente discutendo del progretto di un nuovo acceleratore, il cosiddetto supercollisore superconduttore\ che molti­ plicherebbe per dieci o venti questi numeri. Cercherò di spiegare tra poco perché tanta gente ritenga giusto stanzia­ re quattro miliardi di dollari per una macchina. Un tipico esperimento di fisica delle alte energie richie­ de una tecnologia molto sofisticata, ma sul piano concet­ tuale è estremamente semplice. Si tratta soltanto di inviare l'uno contro l'altro un fascio di particelle di tipo A e uno di tipo B e di stare a guardare cosa succede. A voler scendere nel dettaglio, trova sempre piu credito l'idea che una parti­ cella, poniamo un elettrone o un protone, sia caratterizza­ bile con non piu di tre variabili, ad esempio la direzione di propagazione, l'energia posseduta e un'opportuna com­ ponente del suo momento angolare intrinseco, o spin. Se dunque si fa in modo che i fasci di particelle A e B abbiano valori ben definiti di questi tre parametri, lo stato iniziale delle tre particelle collidenti è completamente determinato (in pratica, spesso si sfruttano fasci « non polarizzati », controllandone soltanto la direzione e l'energia; nell'anali­ si teorica occorre mediare sui differenti stati di spin) . Allo stesso modo, se nella collisione si produce una particella, potremo descriverla sulla base di tre sole informazioni: l'e­ nergia, la componente di spin e la direzione di emissione. I dati estraibili da un qualsiasi esperimento si concretizzano perciò in un elenco di sezioni d'urto differenziali, che rap­ presentano la risposta alle seguenti domande: se si scara­ venta un fascio di particelle di tipo A contro un fascio di ti­ po B con una data energia (e magari un dato spin) e si piaz­ zano i rivelatori in modo de catturare ciò che vien fuori a un angolo prefissato rispetto alla direzione del fascio, quante particelle di tipo C, D, E .. ottengo, e quali ne sono l'energia e lo spin (includendo ovviamente anche A e B) e quali correlazioni si possono tracciare (ad esempio, qual è .

' Oggi in fase di costruzione.

CAPITOLO SECONDO la probabilità che una particella di tipo C emerga a un an­ golo di 20° con un'energia di 2 GeV, supposto che una par­ ticella di tipo D sia uscita a -I0° con un'energia di 8oo MeV) ? Questa sequela di numeri - i valori delle sezioni d'urto -, integrata da pochissimi altri elementi ricavati so­ prattutto dalla fisica atomica, costituisce l'intera banca di dati sperimentali per le teorie correnti sulla struttura fon­ damentale della materia (è appena il caso di ricordare che in molti esperimenti non si riesce a fare il « pieno » di infor­ mazioni possibili; ad esempio, per motivi pratici si deve a volte rinunciare alla misura dello spin delle particelle emergenti) . A ogni piè sospinto i media ci illuminano sulla scoperta di una «nuova particella ». Quale ne é il vero significato? Come fanno i fisici delle alte energie a sapere di aver indivi­ duato un nuovo tipo di particella? Nel caso piu banale, quando la particella è dotata di carica e di lunga vita, essa ionizzerà gli atomi nel rivelatore e lascerà una traccia visi­ bile in una lastra fotografica (ovvero sarà registrata auto­ maticamente per mezzo di un'apparecchiatura elettroni­ ca). Misurando le proprietà della traccia, vale a dire la den­ sità di ionizzazione, la curvatura in un campo magnetico e cosi via, gli sperimentatori potranno dedurre la massa e la carica della particella nonché a volte lo spin, attraverso la distribuzione dei « prodotti di decadimento » al suo disin­ tegrarsi (a questo scopo occorre analizzare numerosi even­ ti di decadimento distinti) . Se invece la particella è priva di carica, bisogna procedere per vie traverse. Supposto che si trasformi in particelle cariche di vita media « ragionevole » - tanto per intenderei, w·10 secondi, com'è tipico dei deca­ dimenti causati dall'interazione debole (cfr. oltre) - anche se non ci è dato di «vedere » la particella vera e propria, possiamo arguirne le proprietà in base alle tracce lasciate dai suoi prodotti di decadimento. (In alternativa, se ne può ricostruire la traiettoria studiando gli effetti delle sue colli­ sioni con i_ nuclei, ammesso che queste siano abbastanza

DI CHE COSA È FATTA LA MATERIA?

59

frequenti, come si verifica con il neutrone) . Un'altra possi­ bilità consiste nel calcolare l'energia totale, E, e la quantità di moto, p, dei «prodotti di collisione » osservati (particel­ le in uscita) e verificare che equivalgano all'energia e alla quantità di moto dei fasci incidenti. In caso contrario, e a patto che l'energia e la quantità di moto « mancanti », Em e Pm, soddisfino la relazione Em2 - c2p 2m = una costante, è le­ gittimo inferire che nell'urto si sia formata anche una parti­ cella inosservata di massa pari a c-4 volte la costante; l'ener­ gia e la quantità di moto portate via da questa particella compensano il deficit. Com'è facile intuire, questo metodo trae la sua ragion d'essere dai principi di conservazione dell'energia e della quantità di moto, che si presumono di applicazione universale e circostanziata a tutte le collisioni. Fu cosi che negli anni '30 venne « scoperto » il neutrino, che la comunità dei fisici fu lesta ad accogliere anche se do­ vevano passare altri vent'anni prima che se ne potessero accertare di prima mano gli effetti grazie all'intensa produ­ zione nei reattori nucleari. Alcune delle particelle di mag­ giore interesse individuate negli ultimi anni sono tuttora circondate dallo stesso alone di ambiguità che avvolgeva il neutrino negli anni '30 e '40. D'altra parte, molte delle sedicenti particelle venute di recente alla ribalta sono talmente effimere da essersi meri­ tate il nome di « risonanze ». Per avere un'idea del signifi­ cato di questo termine, è necessario aprire una breve di­ gressione sulla spettroscopia atomica e considerare ciò che succede proiettando un fascio di luce (fotoni) su un gas di atomi e misurando la sezione d'urto differenziale di diffu­ sione - ovverossia, il numero di fotoni deviati di un angolo specificato, in funzione della frequenza della luce, v, o, il che è equivalente, dell'energia fotonica, E = hv. Come no­ to, gli elettroni in un atomo possono occupare soltanto li­ velli energetici ben delineati, discreti. Si supponga che al­ l'inizio dell'esperimento si trovino tutti nello « stato fonda­ mentale » (stato di minima energia) e che lo stato successi-

6o

CAPITOLO SECONDO

vo piu basso (il primo « eccitato ») abbia un'energia mag­ giore della quantità E,xc· Se l'energia del fotone, hv, non è particolarmente vicina a E,.c, la diffusione della luce è de­ bole e non evidenzia alcuna dipendenza spettacolare dalla frequenza. Approssimandosi però hv a Eexc la diffusione ' aumenta enormemente, raggiungendo un massimo quan­ do hv è esattamente uguale a Eexc> per poi subire di nuovo una riduzione via via che hv si allontana da questo valore. Riportando su un grafico in ordinata la sezione d'urto di diffusione e in ascissa l'energia del fotone, in corrispon­ denza di E,.c hv0, si nota un picco caratteristico la cui am­ piezza, definita hr (cfr. fig. 2.2), costituisce la « risonan­ za». Se volessimo dare del fenomeno una lettura in chiave classica (nello stile del tardo XIX secolo, prima della mecca­ nica quantistica), potremmo sostenere che gli elettroni si comportano come oscillatori con una frequenza di riso­ nanza v0 EexJ h, e che, quando la frequenza della luce, v , è attigua a v0, gli oscillatori sono eccitati « in modo risonan­ te » e quindi in grado di assorbire, e riirradiare, una grande =

=

Figura 2.2. Comportamento della sezione d'urto per lo scattering di un fotone ad ope­ ra di un atomo in funzione dell'energia (o della frequenza) del fotone.

E�, ( = hv0)

Energia, E (o frequenza E/h)

DI CHE COSA È FATTA LA MATERIA?

61

quantità di energia. L'ampiezza, r, del picco di risonanza sarebbe una misura dello smorzamento degli oscillatori (dovuta al processo di riirradiazione) . Nell'universo quan­ tistico, quando l'energia fotonica, hv, è prossima a E exc il ' fotone viene assorbito, provocando una transizione degli elettroni dal livello fondamentale a quello eccitato; in se­ guito lo stato eccitato decade, nel senso che gli elettroni tornano alla condizione originaria, riemettendo il fotone, in generale secondo una direzione diversa. La quantità IlE hr, che in certo qual modo esprime il grado di inde­ finitezza dell'energia dello stato eccitato, è una misura del­ l'inverso della « vita media » dello stato eccitato - cioè il tempo che impiega, in media, l'elettrone a perdere la sua energia (esattamente come, nel quadro classico, il tempo necessario a un oscillatore per cedere l'energia che gli è sta­ ta conferita è l'inverso dello smorzamento, f). L'incertez­ za relativa all'energia, IlE, e la vita media, M ( - r-1), sod­ disfano intrinsecamente la già citata « relazione di indeter­ minazione » flE;:; M � hl41t. In una sostanza, esprimendo il grado di diffusione dei fotoni (luce) in funzione dell'e­ nergia, siamo in grado di ricavare sia l'energia media, Eexc ' che la vita media, r-I, dello stato eccitato dell'atomo. È conveniente (seppur forse non del tutto naturale in un con­ testo atomico) configurare lo stato eccitato come una « particella» instabile a pieno diritto - una decisione che ha una sua logica sintantoché l'energia (come avviene sempre per gli atomi) è ragionevolmente ben definita (IlE � E,xJ Chiusa la parentesi, torniamo alle nostre particelle. Si supponga di analizzare la deviazione della particella A ad opera della particella B in funzione dell'energia totale, E (comprensiva dell'energia a riposo di A e B) e di osservare un brusco incremento della diffusione in prossimità dell'e­ nergia E0, corrispondente, in figura 2.2, a un picco di am­ piezza IlE. Se ne può dedurre l'esistenza di una «particel­ la » con energia E0, e quindi massa E0/c2 e vita media =

CAPITOLO SECONDO hlilE. A differenza del caso dei fotoni dispersi da un ato­ mo, le particelle A e B si trovano su un piano di parità, però non è affatto scontato che la nuova particella sia uno stato eccitato di A o B. Anzi, spesso non è neppure corretto rite­ nerla uno stato eccitato del complesso A + B, poiché in molti casi esattamente all'energia della risonanza si ha una forte probabilità anche del processo A + B -t C + D, dove C e D sono diversi da A e B. (Ad esempio, nella diffusione di pioni negativi a contatto con protoni si registra una netta risonanza a un'energia nel baricentro di circa 1230 MeV, con annessa forte probabilità che il sistema si trasformi in un pione neutro e un neutrone). Sembra dunque piu natu­ rale pensare alla « risonanza» come a una « particella » a pieno titolo, un'entità con varie opposizioni di decadimen­ to (A + B o C + D, o altre ancora). Le risonanze piu comu­ ni negli esperimenti con gli acceleratori mostrano tipica­ mente ampiezze ilE di - wo MeV, corrispondenti a vite medie sui I0-23 secondi; poiché in un intervallo cosf breve, anche viaggiando alla velocità della luce, possono coprire soltanto un esiguo segmento del raggio atomico, è evidente che non è possibile rilevarne le tracce in una camera a bolle o in qualsiasi altro dispositivo ; anzi, a un certo punto (quando ilE diventa confrontabile a E 0 viene davvero da chiedersi se abbia senso classificarle tra le particelle. Per buona sorte, alcune delle risonanze piu essenziali all'attua­ le incastellatura teorica vantano vite medie notevolmente piu lunghe di ro-23 secondi (ancorché non lunghe a suffi­ cienza per lasciare una traccia osservabile) . Le particelle scoperte in questi ultimi anni assommano ormai a parecchie centinaia e non avrebbe scopo darne un elenco o una descrizione completa, tanto piu che per la maggior parte non sono piu reputate veramente « elemen­ tari ». Maggior costrutto ha il passare in rassegna i principi cui si ispira la sistematica delle particelle, un mix di dati sperimentali e considerazioni teoriche attinte alla teoria quantistica dei campi che costituisce il quadro di riferi-

DI CHE COSA È FATTA LA MATERIA? mento concettuale usato per rappresentare la materia a questo livello (cfr. oltre). Ogni «particella » è caratterizzata da un certo numero di grandezze invarianti, cioè indipendenti dai particolari del suo moto. Una di queste, manco a dirlo, è la massa, che, per quanto risulta allo stato delle conoscenze, può avere in pratica qualsiasi valore, mentre quasi tutte le altre grandez­ ze sembrano poter assumere soltanto valori discreti - di so­ lito interi o frazioni semplici - e sono definite «numeri quantici ». Taluni di questi numeri quantici, come quello di spin (momento angolare intrinseco proprio della parti­ cella in stato di quiete, misurato nelle unità naturali hh7t) ', sono intrinsecamente positivi, mentre altri, ad esempio la carica elettrica, possono essere positivi, negativi o neutri. Una predizione d'indirizzo generale della teoria quantisti­ ca dei campi, ampiamente confermata dagli esperimenti, è che ad ogni particella corrisponda un'« antiparticella » ovvero una particella con lo stesso valore, ad esempio, di massa e spin, ma valori opposti di numeri quantici come la carica elettrica. In certe disintegrazioni radioattive tra i prodotti dì decadimento figura una particella, chiamata per ragioni storiche « positrone » anziché antielettrone, di massa e spin (rh) uguali all'elettrone, ma carica +e in luo­ go di -e. Analogamente, al protone corrisponde l'antipro­ tone, e al neutrone l'antineutrone. Persino lo sfuggente neutrino, dalla massa a riposo quasi nulla, ha un antineu­ trino. In pochissimi casi particella e antiparticella coinci­ dono, come avviene per il fotone, privo di numeri quantici « reversibili». A dirla in parole semplici, la produzione di un'antiparticella è equivalente all'assorbimento della cor­ rispondente particella, e viceversa, salvo, beninteso, che nell'equazione di conservazione dell'energia la massa a ri­ poso compaia all'altro membro. Ad esempio, un protone, 7 Nel caso di particelle di massa zero, mai in quiete in qualsiasi sistema di riferi­ mento, si rende necessaria una definizione dello spin leggermente diversa.

CAPITOLO SECONDO p, che in un nucleo radioattivo decada in un neutrone, n, un positrone, e+, e un neutrino, v - (p .... ne• v) - può anche trasformarsi assorbendo un elettrone atomico, e-, e produ­ cendo soltanto un neutrone e un neutrino - (pe- .... nv) -, la cosiddetta cattura K. Similmente, poiché in opportune circostanze un elettrone, e-, può assorbire un fotone, y ( e-y --'> d -, data un'energia maggiore del doppio dell'ener­ gia a riposo dell'elettrone, il fotone è in grado di materializ­ zare una coppia elettrone-positrone, scomparendo nel processo - ( y .... e• e-) - che va sotto il nome di « produzione di coppie». (Dovendosi conservare sia la quantità di mo­ to che l'energia, questo fenomeno non può manifestarsi nel vuoto). La distinzione forse piu importante riguardo le particel­ le è quella tra « bosoni» e « fermioni ». La teoria quantisti­ ca dei campi impone allo spin di una particella (cfr. sopra) esclusivamente valori interi o seminteri (o, 1l2, 1, 3l2 ... ) e prevede che un insieme di particelle identiche si comporti in modo completamente diverso a seconda che lo spin sia semintero (1/2, 312 . . . ) o intero (o, I, 2 . . . ) Nel primo caso, si ha che non piu di una particella può occupare un determi" nato stato quantico; si dice che queste particelle, dette « fermioni » seguono la « statistica di Fermi-Dirac ». Rien­ trano nella categoria il protone, il neutrone, l'elettrone e il neutrino (tutti con spin Il2). Quanto all'elettrone, il divie­ to di doppia occupazione di uno stato (il cosiddetto princi­ pio di esclusione di Pauli) è alla base della struttura elettro­ nica dell'atomo e quindi di tutta la chimica; considerazioni analoghe per il protone e il neutrone delimitano la struttu­ ra di nuclei complessi. Viceversa uno stesso stato quantico può ospitare un numero illimitato di particelle con spin in­ tero, che anzi in un certo senso preferiscono un' occupazio­ ne multipla; si dice che queste particelle, chiamate « boso­ ni» obbediscono alla « statistica di Base-Einstein ». L'uni­ co bosone « elementare » con cui abbiamo a che fare nella vita di tutti i giorni è il fotone, di spin I ; non a caso si tratta

DI CHE COSA È FATTA LA MATERIA? della sola particella elementare stabile osservata che si as­ soci a un'onda classica (luce) ; diciamo pure che la nostra càpacità di produrre, in condizioni appropriate, un'onda luminosa classica è legata al fatto che la statistica di Base­ Einstein consente a un grandissimo numero di fotoni di trovare alloggio in un singolo stato quantico. Altri bosoni, assodati e/ o ipotizzati, includono molte particelle e riso­ nanze instabili, il « gravitone » (il presunto quanto con spin 2 della sinora fantomatica onda gravitazionale: cfr. cap. m), i « bosoni di gauge » (W, Z e gluoni) , che vedremo in seguito, e complessi di numeri pari di fermioni come l'ato­ mo 4He (cfr. cap. IV). Il teorema noto come teorema di Pauli in base al quale le particelle seguono la statistica di Fermi-Dirac o quella di Base-Einstein a seconda che ab­ biano spin semintero piuttosto che intero nasce da astratte considerazioni della teoria quantistica dei campi ed è forte la tentazione di rimpolparlo visualizzando i fermioni come una sorta di dislocazione dello spazio-tempo tale che due dislocazioni applicate in successione si annullino; almeno sino ad oggi non è però emerso un quadro coerente in que­ sto senso, per cui la maggioranza dei fisici preferisce atte­ nersi al formalismo della teoria quantistica dei campi senza cercare di darne un'interpretazione. Una seconda importante discriminazione separa i « lep­ toni » dagli « adroni ». Le particelle sinora scoperte vanno per la massima parte soggette all'interazione «forte » che tiene insieme il nucleo (cfr. sopra) e prendono il nome di « adroni », distinguendosi ulteriormente in « barioni» se si tratta di fermioni (ad esempio, il protone o il neutrone) e in « mesoni » se si tratta di bosoni. A parte il fotone, collocato in una classe a sé stante insieme a qualche cugino di recente acquisto del quale parleremo tra poco, vi sono soltanto sei particelle (con relative antiparticelle) insensibili all'intera­ zione forte. Le uniche due oggetto di esperienza quotidia­ na sono l'elettrone e il suo neutrino (senza dimenticarne le antiparticelle), ma le ricerche sui raggi cosmici e le speri-

66

CAPITOLO SECONDO

mentazioni con gli acceleratori hanno rivelato l'esistenza di altre due coppie. Ecco dunque il mesone mu, o muone, identico all'elettrone in tutto fuorché per la massa (vale al­ l'incirca ro6 MeV, cioè 200 volte quella dell'elettrone), e l'associato neutrino, muonico o tJ-, dissimile dal consueto neutrino (elettronico) come testimonia il fatto che non in­ duce le medesime reazioni. Ciascuna delle coppie (e-, v,) e (!J--,v ) forma una « generazione ». Da poco gli acceleratori hanno sfornato una terza generazione, composta dal lep­ tone tau, r (massa 17 84 MeV) in binomio con il suo neutri­ no, v,. Al momento nessuno può dire se in lista d'attesa vi siano altre, e magari infinite, generazioni di leptoni. Occupiamoci ora delle interazioni tra particelle elemen­ tari. È oggi opinione prevalente che da un punto di vista fe­ nomenologico sussistano quattro, o forse cinque, forze «fondamentali». La piu importante a livello atomico e molecolare è naturalmente l'interazione elettromagnetica, che opera solo tra particelle cariche (respingendole se han­ no lo stesso segno e attraendole in caso contrario), a raggio d'azione teoricamente infinito ( diminuendo l'intensità del­ le forze sia elettriche che magnetiche in proporzione all'in­ verso del quadrato della distanza) , e si manifesta attraverso lo scambio di fotoni virtuali nel modo che abbiamo de­ scritto a suo tempo. L'aggregazione del nucleo non può però essere spiegata dalle forze elettromagnetiche, che an­ zi tenderebbero a smembrarlo allontanando tra loro i pro­ toni, e richiede l'intervento della cosiddetta interazione forte. Questa è molto piu potente dell'interazione elettro­ magnetica, ma ha una portata assai ridotta, essendo la sua intensità funzione esponenziale della distanza. Limitata­ mente alle particelle che abbiamo sin qui esaminato, è sem­ pre attrattiva. L'azione della forza forte non è confinata ai nucleoni stabili (protone e neutrone) , ma condivisa da tutti gli adroni. Un terzo tipo di interazione si evidenzia soltan­ to nei decadimenti radioattivi e in pochi altri processi che sarebbero altrimenti vietati per motivi di simmetria: le si

DI CHE COSA È FATTA LA MATERIA? dà il nome di interazione debole e anch'essa agisce su di­ stanze piccolissime. Vi è poi una categoria di fenomeni che infrangono ancor piu vincoli di simmetria dei normali pro­ cessi di interazione debole (cfr. oltre); si tende a conside­ rarli una sottoclasse degli effetti dell'interazione debole, ma talora anche evidenza di un'altra interazione « fonda­ mentale », l'interazione « superdebole ». Infine, quali che siano le forze cui sono sensibili le particelle, per quanto ci consta tutte subiscono gli effetti dell'interazione gravita­ zionale. Questa si avvicina all'interazione elettromagnetica per l'estensione (anch'essa diminuisce in rapporto all'in­ verso del quadrato della distanza), ma se ne discosta per l'azione universalmente coesiva (con un'intensità propor­ zionale al prodotto delle masse in gioco). Esprimendo le intensità delle varie interazioni in unità « naturali », l'ordi­ ne di grandezza risulta grossomodo il seguente: interazio­ ne forte, r; elettromagnetica, ro-2; debole, ro-'3; superde­ bole, ro-'6; gravitazionale, ro-39• Per colmo d'ironia, la forza che piu d'ogni altra condiziona la nostra esistenza quoti­ diana, la gravitazione, a livello di particelle elementari è di gran lunga la piu inconsistente ! A questo punto val la pena di fare una rapida divagazio­ ne storica. Quasi tutti i fisici sono convinti che le quattro interazioni (esclusa la superdebole) sopra elencate siano le uniche « fondamentali » e che, appaiate ai dati cosmologici, esse possano spiegare « in linea di principio » tutti i feno­ meni naturali conosciuti. Su cosa si fonda questa fiducia? E in particolare, perché siamo cosi sicuri che la sola intera­ zione ad ampio raggio tra corpi elettricamente neutri sia quella gravitazionale? Non potrebbe ad esempio esserci una forza di grande estensione capace di agire in modo di­ verso su protoni e neutroni e perciò funzione del materia­ le? Sul piano sperimentale, quest'interrogativo equivale al­ la domanda se il rapporto tra massa gravitazionale (appa­ rente) e massa inerziale (cfr. oltre, pp. r22) sia uguale per tutti i corpi, quale ne sia la natura. La questione venne af-

68

CAPITOLO SECONDO

frontata dal fisico ungherese E6tv6s e dai suoi collaborato­ ri in una celebre serie di esperimenti i cui risultati vennero pubblicati dopo la sua morte nel 1922. La conclusione, e cioè che nei limiti dell'errore sperimentale (circa uno su rd) il rapporto tra le due masse è indipendente dal mate­ riale impiegato, era esattamente quella che ci si poteva at­ tendere nel 1922 alla luce della teoria einsteiniana della re­ latività generale (e anche, a dire il vero, di considerazioni di ordine piu generale). Per piu di sessant'anni non si mosse foglia; a quanto pare, nessuno si è mai preso la briga di re­ plicare l'esperimento di E6tv6s nella sua forma originaria. Agli inizi del 1986 comparve però un articolo in cui gli au­ tori, semplicemente analizzando i dati di Eò"tviis, sosteneva­ no di aver scoperto una deviazione sistematica del rappor­ to da materiale a materiale ben al di fuori dell'errore citato, e coerente con l'ipotesi di una forza di portata intermedia che agisce in modo diverso su protoni e neutroni. È troppo presto per stabilire se l'effetto sia reale, o se sia dovuto, po­ niamo il caso, a un errore sistematico e inspiegato nell'e­ sperimento primitivo; sia come sia, la morale è che è persin troppo facile ignorare o accantonare piccole anomalie che al momento non sembrano avere importanza teorica (si pensi al caso della precessione del perielio di Mercurio, di­ scusso.nel prossimo capitolo). Dovesse rivelarsi autentica la postulata « quinta forza », non v'è dubbio che d'improv­ viso verrebbe a galla una miriade di fenomeni che le quat­ tro interazioni fondamentali canoniche non sono in grado di spiegare e che, col senno di poi, soltanto la nostra cecità ci ha impedito di osservare ! Quando si cerchi di dar ordine alle stupefacenti varietà . di particelle individuate e ai modi in cui interagiscono e de­ cadono l'una nell'altra, non si può non dare il giusto risalto al ruolo rivestito dalle leggi di « simmetria » (o « invarian­ za ») e annessi principi di conservazione. Ci è ormai fami­ liare, nel contesto della fisica classica, l'idea che le leggi fi­ siche non dipendano dal luogo in cui ci troviamo o dal mo-

DI CHE COSA È FATTA LA MATERIA? mento in cui eseguiamo un particolare esperimento. Tec­ nicamente, si dice che le leggi sono « invarianti rispetto a una traslazione nello spazio e nel tempo ». Queste regole di invarianza già nella meccanica classica si traducono in principi di conservazione: l'invarianza rispetto alla trasfor­ mazione temporale sottintende che sia conservata (non cambi nel tempo) l'energia totale di un sistema isolato di particelle, mentre quella rispetto alla trasformazione spa­ ziale comporta la costanza della quantità di moto totale. (Ad esempio, quando un razzo espelle gas, la quantità di moto del sistema globale, gas piu razzo, rimane inalterata, per cui il razzo subisce un'accelerazione) . Secondo quanto insegna la relatività speciale, caratterizzata da uno stretto legame fra traslazioni spaziali e temporali, le conservazioni dell'energia e della quantità di moto sono due facce dello stesso fenomeno. I principi di conservazione costituiscono i pilastri della fisica moderna e qualsiasi esperimento mi­ nacciasse di incrinarli verrebbe accolto con una buona do­ se di scetticismo. Un altro caposaldo, anche della meccanica classica, è l'« isotropia », l' invarianza nei confronti della rotazione vale a dire che per un sistema isolato le direzioni nello spa­ zio sono tutte equivalenti. Per quanto ci risulta, questo principio vale non soltanto in laboratorio, ma nell'univer­ so intero (cfr. cap. m). Ne erompe un'altra legge di conser­ vazione che si presume di applicazione universale, quella del momento angolare totale di un sistema isolato di parti­ celle. Passando alla meccanica quantistica, si nota una differenza significativa tra gli effetti dell' invarianza rispetto alla traslazione spazio-temporale (nello spazio infinito) e alla rotazione, imputabile quest'ultima sostanzialmente al fatto che continuando a ruotare un corpo nella medesima direzione alla fine si torna al punto di partenza: in altri ter­ mini, le grandezze conservate nel primo caso (energia e quantità di moto) possono anche nella meccanica quanti­ stica assumere qualsiasi valore, laddove la proprietà inva-

CAPITOLO SECONDO riante corrispondente alla rotazione - il momento angolare - è quantizzata': misurato in unità hhrt può assumere sol­ tanto valori interi o seminteri; piu esattamente, trattandosi di una grandezza vettoriale, il suo modulo deve essere pari a V ](]+I) x hh rt, dove J è intero o semintero, e la sua proiezione su un qualsiasi asse può avere i valori J, J 1 -J + I,-]. Per una particella isolata in stato di quiete, J è co­ stante e caratteristico della particella: come abbiamo visto, prende di solito il nome di « spin ». Lo si può raffigurare in modo intuitivo come la conseguenza di un movimento ro­ tatorio intrinseco della particella, ma non è il caso di pren­ dere troppo alla lettera quest'immagine se si vuole evitare di trovarsi in un pantano di difficoltà. Un punto che dovre­ mo tenere ben presente esaminando simmetrie piu astratte è che, da un punto di vista puramente formale, è possibile costruire una particella di spin arbitrario intero o seminte­ ro combinando un numero adeguato di particelle con spin Il2. Se si prendono ad esempio due particelle di spin I/2 e le si uniscono in modo che la proiezione di ciascuno spin su un dato asse (z, tanto per fissare le idee) sia +Ih, non soltanto la risultante proiezione dello spin su quell'asse sa­ rà +I, come è giusto che sia, ma, meno ovviamente, il mo­ mento angolare totale cosi prodotto sarà v'2 come richie­ sto per una particella J I. Associando invece le stesse par­ ticelle di spin Ih in modo che le loro componenti lungo l'asse z siano opposte, si otterrà una «particella » con proiezione e spin totale entrambi uguali a O ossia, una particella J O Analogamente si possono confezionare « particelle » con spin 3/2, 2 I due possibili stati con spin totale J Ih e rispettive proiezioni +Ih e -I h si possono perciò considerare i mattoni partendo dai quali è possibile fabbricare sta ti di spin piu elevato (e spin nullo) . Si noti, a futura memoria, che una rotazione del sistema di coordi­ nate sull'asse z lascia immutati i nostri due mattoni, mentre una rotazione di I80° attorno a uno dei due assi nel piano -

=

-

=

.

.•.

=

8

Cfr. la discussione dell'elettrone nell'atomo affrontata a pp. 33·34·

. ..

DI CHE COSA È FATTA LA MATERIA? xy provoca un interscambio;

con rotazioni diverse si hanno effetti un po' piu complicati, poiché da ognuno dei matto­ ni si ottiene quella che in meccanica quantistica è definita una « combinazione lineare » dei due. Un altro concetto che è utile introdurre a questo punto è quello di « simmetria spezzata ». A questo proposito, mal­ grado quanto affermato poco fa, e cioè che per un sistema perfettamente isolato tutte le direzioni spaziali sono equi­ valenti, occorre osservare che in un laboratorio terrestre viene molto piu naturale distinguere la direzione verticale dalle altre; sintantoché nei calcoli non si include in modo esplicito la Terra, va da sé che le leggi del moto di una palla di cricket non possono essere invarianti in rapporto alla ro­ tazione! Si dice che la simmetria originaria (invarianza) ri­ spetto alla rotazione tridimensionale è stata « spezzata » da un fattore esterno - nel nostro caso, il campo gravitaziona­ le del pianeta. Ovviamente la rottura è soltanto parziale, dal momento che anche per una palla da cricket le leggi del moto sono inalterate per effetto della rotazione su un asse verticale. Considerando la palla un sistema isolato, si può perciò affermare che si conserva la componente verticale del suo momento angolare, ma non le componenti oriz­ zontali. Nell'esempio accennato l'isotropia originaria delle leggi del moto è stata distrutta da un agente esterno ; si parla di « rottura di simmetria esterna». In questi ultimi anni è pe­ rò venuta prepotentemente alla ribalta anche la « rottura di simmetria spontanea », un concetto sviluppatosi nel conte­ sto dei grandi agglomerati di particelle con cui deve cimen­ tarsi la fisica della materia condensata. Mi vedo cosi co­ stretto ad anticipare alcune riflessioni che scandaglierò piu in profondità nel quarto capitolo. Si immagini un modello molto idealizzato di un materiale magnetico un modello in cui gli elettroni siano assimilabili a minuscoli magneti di­ sposti in un reticolo che interagiscano secondo forze com-

CAPITOLO SECONDO pletamente isotrope. Si supponga inoltre che l'energia di interazione (energia potenziale mutua) di una particolare coppia di «magneti » elettronici sia al minimo quando essi sono orientati parallelamente ma non dipenda dalla dire­ zione in cui entrambi puntano. È evidente che in un simile modello tutte le direzioni spaziali sono assolutamente equivalenti e che le leggi del moto dei magneti sono inva­ rianti nei riguardi della rotazione. Se il sistema possedesse una magnetizzazione, dovrebbe essere orientato in una di­ rezione precisa, il che a prima vista parrebbe essere in con­ traddizione con il principio dell'isotropia. Eppure, a tem­ perature sufficientemente basse ciò è esattamente quanto awiene; i magneti elettronici si volgono a poco a poco tutti nella stessa direzione, dando luogo a una magnetizzazione macroscopica. Le leggi del moto sono conservate per quanto concerne la rotazione, ma lo stato di equilibrio del sistema viola l'invarianza. D'accordo, la realtà è legger­ mente piu complessa, nel senso che comunque la direzione di magnetizzazione prescelta sarà in pratica determinata da piccoli campi magnetici casuali tali da distruggere la ri­ gorosa simmetria rotazionale e da provocare in conseguen­ za una rottura di simmetria esterna; ma il punto essenziale nel presente contesto è che, aumentando via via le dimen­ sioni del sistema, si arriva a una situazione in cui basta un campo sempre piu ridotto per scegliere la direzione. Si è insomma tentati di argomentare (superando problemi concettuali di owia delicatezza ! ) che nell'ambito di un si­ stema infinito la rottura di simmetria spontanea possa veri­ ficarsi anche in completa assenza di un campo esterno, es­ sendo perciò la direzione eletta del tutto arbitraria. Le leggi di simmetria che abbiamo sinora preso in esame hanno rapporto con variazioni continue - traslazioni e ro­ tazioni - del sistema di riferimento spazio-temporale e, per quanto ci è dato sapere, sono universalmente valide. Non vanno però dimenticati due cambiamenti discontinui: l'o­ perazione di passaggio da un insieme di assi coordinati de-

DI CHE COSA È FATTA LA MATERIA?

73

strorso a uno mancino (conosciuta tecnicamente come operazione P, da « parità ») e quella di rovesciamento della direzione dell'asse del tempo, T. Sono invarianti le leggi della fisica relativamente a P e T? O se si preferisce, può la Natura distinguere tra destra e sinistra, ovvero tra « futu­ ro » e « passato »? D'acchito verrebbe fatto di dire che di­ cotomie del genere, in particolare quella destra-sinistra, abbiano un significato puramente antropomorfico, e che la Natura - come si può pensare diversamente? - non sia in grado di apprezzare la differenza. Questa versione, forma­ to « saggezza popolare », tenne banco tra i fisici sino al 1956, anno in cui, dapprima su basi teoriche e in seguito con tanto di verifica sperimentale, acquistò crescente vigo­ re l'ipotesi che l'interazione debole, a differenza delle sue colleghe forte, elettromagnetica e (presumibilmente) gra­ vitazionale, non obbedisse all'invarianza sotto P e T. Or­ mai è definitivamente accertato che l'interazione debole viola « principalmente » P; ad esempio, un neutrino emes­ so in un decadimento radioattivo è sempre polarizzato « in modo mancino » rispetto alla direzione di movimento - vi­ sto lungo la direzione del moto, ruota in ogni caso in senso antiorario. (Per quanto ci è noto, non esistono in natura neutrini « destri », anche se la questione è dibattuta). Tut­ tavia, se insieme alla parità, P, applichiamo anche la coniu­ gazione di carica, C - cioè trasformiamo ogni particella nella sua antiparticella - la simmetria viene ripristinata; ad esempio l'antineutrino è sempre « destro ». L'interazione responsabile del normale decadimento radioattivo dei nu­ clei è perciò invariante rispetto all'operazione combinata CP, benché non lo sia nei riguardi di C o P separatamente. Purtroppo, a far chiarezza non contribuisce certo l' esisten­ za di una minoranza di processi di disintegrazione (all'ap­ parenza) indotti dall'interazione debole che perdono la simmetria anche sotto l'azione contemporanea di C e P. Qualcuno, come già osservato, vorrebbe attribuirli a una forza « superdebole ». Una delle colonne portanti della

74

CAPITOLO SECONDO

teoria quantistica dei campi, il cosiddetto teorema CPT, si­ nora sopravvissuto impavido ad ogni verifica sperimenta­ le, afferma che tutte le interazioni debbano essere invarian­ ti sotto l'applicazione simultanea di C, P e T: si dovrebbe perciò supporre che l'inversione del tempo non abbia ef­ fetto sull'interazione superdebole. Rimane comunque il fatto che questo fenomeno della « violazione di CP» è an­ cora piuttosto nebuloso. Tutte le trasformazioni che abbiamo esaminato, con l'eccezione della coniugazione di carica, si riferiscono a va­ riazioni nel sistema di riferimento spazio-temporale. Esiste però un'altra classe di operazioni di simmetria - le cosid­ dette simmetrie «interne » - che ha avuto enorme impor­ tanza nella classificazione delle particelle elementari e che, a quanto risulta, non ha alcun rapporto con la struttura spazio-temporale. Storicamente, l'idea nacque dall'osser­ vazione che neutrone e protone hanno non soltanto massa « uguale a meno di I su 6oo ma anche, tenuto conto degli effetti puramente elettromagnetici dovuti alla carica del se­ condo, interazioni pressoché identiche (ad esempio, de­ tratta la componente elettromagnetica, i dati della fisica nucleare dimostrano che l'interazione di due protoni si di­ scosta pochissimo da quella di due neutroni). Logico dun­ que che neutrone e protone venissero a essere considerati due stati di una stessa entità, il nucleone, allo stesso modo in cui una particella con spin Il2 può trovarsi in due stati corrispondenti alle proiezioni +Ih e -Ih sull'asse z, e si postulasse l'esistenza di un corrispettivo « spazio » astratto (« spazio di spin isotopico ») in cui almeno l'interazione forte fosse invariante rispetto a rotazioni arbitrarie. Di conseguenza, tutte le componenti dello « spin isotopico » sarebbero conservate nell'interazione forte. Quest'ipotesi, estesa anche agli altri adroni (ora) conosciuti, offre subito frutti copiosi: non soltanto molte particelle si inseriscono in schemi piuttosto semplici (« multipletti », vale a dire gruppi di particelle con spin [reale] uguale e massa con-

DI

CHE COSA È FATTA LA MATERIA?

75

frontabile), ma non di rado acquistano un senso i rapporti tra le sezioni d'urto di diffusione osservate. È opinione ge­ nerale che lo spin isotopico si conservi nell'interazione for­ te, ma non in quella elettromagnetica o debole; quest'ulti­ ma romperebbe la simmetria piu o meno come il campo gravitazionale terrestre spezza la simmetria rotazionale nel normale spazio tridimensionale. Ne consegue che, quando lo spin isotopico totale dei prodotti di decadimento di una data particella è diverso da quello della particella in se stes­ sa, il suo decadimento non può essere indotto dall'intera­ zione forte ma solo da quella elettromagnetica o debole: poiché la vita media, a grandi linee, è inversamente pro­ porzionale all'intensità dell'interazione responsabile del decadimento, se ne deve concludere che la particella è no­ tevolmente piu longeva di quanto si potesse supporre. Via via che la tribu delle particelle si arricchiva di nuovi membri e se ne studiavano interazioni e decadimenti, di­ ventava sempre piu chiaro che la simmetria di spin isotopi­ co non esauriva l'argomento. Occorreva ipotizzare quanto meno un nuovo numero quantico, chiamato per ragioni storiche « stranezza», che si conservasse per effetto delle interazioni forte ed elettromagnetica, ma non dell'intera­ zione debole. Dobbiamo dir grazie esclusivamente alla conservazione della stranezza se molte particelle instabili lasciano tracce spettacolari nei rivelatori (camere a bolle in testa); non fosse per questo principio, quelle medesime particelle, anziché decadere attraverso un'interazione di ti­ po debole (vita media - 10-10 secondi) seguirebbero la via dell'interazione forte (tipicamente - 10-23 secondi) o al piu quella elettromagnetica ( 10-19 secondi), per cui sarebbe­ ro osservabili soltanto come risonanze. Nei primi anni '6o ci si rese conto che si potevano otte­ nere risultati molto piu soddisfacenti assegnando alla con­ servazione dello spin isotopico e della stranezza il ruolo di casi particolari di invarianza nei riguardi di un'operazione di simmetria astratta molto piu generale descritta tecnica-

CAPITOLO SECONDO mente dal gruppo di simmetria noto ai matematici come SU(3). Senza addentrarci in un inestricabile intrico di equazioni, cerchiamo di farcene un'idea nei termini della consueta simmetria rotazionale. Anziché considerare pri­ maria l'operazione di rotazione degli assi spaziali e prodot­ ti derivati gli stati di spin totale rh e proiezione dello spin ± rh, è piii utile dare a questi ultimi la funzione di gran­ dezze fondamentali. Con qualche riserva tecnica sulla qua­ le non è il caso di diffondersi, si può dire che il gruppo di rotazioni nello spazio tridimensionale sia equivalente al­ l'insieme astratto di operazioni, note ai matematici come SU(2), che in sostanza trasformano due oggetti di base, complessi in senso matematico, in « combinazioni lineari » l'uno dell'altro. Allo stesso modo, SU(3) è l'insieme di ope­ razioni che trasforma mutuamente tre elementi costitutivi complessi. A poco a poco si coagulò l'ipotesi che, pur escludendo un'identificazione dei «blocchi da costruzio­ ne » con le particelle elementari osservate, la maggioranza degli adroni che saltavano fuori negli acceleratori potesse essere costituita, almeno sul piano teorico, da una combi­ nazione di questi e di quelli che, ove essi avessero rappre­ sentato particelle reali, sarebbero corrisposti alle loro anti­ particelle. Grazie a questa teoria veniva ridimensionato il caos delle particelle subatomiche e delle loro aggrovigliate interazioni e decadimenti: ad esempio, se si battezzano u, d e s (dalle iniziali delle parole inglesi up [su], down [giii] e strange [strano] ) i tre blocchi e u il e s i relativi « anti­ blocchi », il protone può essere assemblato unendo due u e un d, e il neutrone allineando due d e un u, mentre la parti­ cella (instabile ma abbastanza longeva) conosciuta come pione positivo o mesone pi ( 1r •) è equivalente a un u piii un il. li blocco s, come implica il suo nome, è necessario come costituente delle osservate particelle « strane ». Oltre a da­ re conveniente sistemazione a quasi tutti gli adroni sino ad allora usciti allo scoperto, la simmetria SU(3) rivelò eccel­ lenti qualità profetiche. In particolare si era andato deli-

DI CHE COSA È FATTA LA MATERIA?

77

neando un multipletto di dieci particelle, nove delle quali identificabili con risonanze già note. Ebbene, applicando la simmetria, fu possibile predire le caratteristiche del de­ cimo membro del multipletto, massa inclusa, e dimostrare che avrebbe potuto disintegrarsi soltanto in seguito a una variazione della stranezza - vale a dire, attraverso l'intera­ zione debole; avrebbe dovuto avere una vita media intorno a ro-10 secondi ed essere osservabile non come risonanza, ma come autentica « particella » tale da lasciare una traccia in una camera a bolle. Immaginatevi la sensazione provo­ cata qualche mese piu tardi della scoperta di una particella (O -) che aveva esattamente le proprietà previste. Come ve­ dremo, in questi ultimi anni si è stati costretti ad aumenta­ re il numero dei blocchi - che costituiscono i cosiddetti « sapori » - per dar conto, inter alia, di nuove particelle; ma il principio rimane valido. A parte la simmetria SU( 3 ) (con relativi « sapori »), ap­ plicabile insieme alle sue piu recenti estensioni alle intera­ zioni forti degli adroni, si ritiene che altre simmetrie inter­ ne valgano per le particelle note, a titolo universale o limi­ tatamente a specifiche interazioni, e generino conformi leggi di conservazione. Ad esempio, la conservazione della carica elettrica può essere fatta risalire a un'invarianza (in­ violata) rispetto alle rotazioni attorno a un particolare asse in (un altro ! ) spazio astratto. Sulla medesima falsariga si pone il «numero elettronico », che sino a poco tempo fa si riteneva immutabile in qualsiasi frangente (all'elettrone e al neutrino si assegna numero elettronico +I, al positrone e all'antineutrino -r: in tutti i processi di decadimento sino­ ra analizzati in effetti il numero elettronico totale si conser­ va). Come vedremo, recentemente si è avvertita la necessi­ tà di una simmetria piu sofisticata per spiegare le numerose proprietà delle interazioni deboli ed elettromagnetiche. Prima di congedarci dall' argomento, ci sembra oppor­ tuno accennare a un altro tipo di simmetria che negli ultimi vent ' anni ha avuto enorme importanza nella fisica delle al-

CAPITOLO SECONDO te energie: l'invarianza di gauge. Concetto di estrema ele­ ganza matematica, l'invarianza di gauge si rivela refrattaria a una visualizzazione intuitiva'. Forse la miglior cosa da fa­ re è di richiamare alla memoria un'ovvia conseguenza della meccanica classica ordinaria. È prevedibile che un sistema di coordinate fisso, indipendente dal tempo, obbedisca al­ le leggi newtoniane e, in particolare in assenza di forze esterne, si muova a velocità costante. Nulla vieta però di optare per un sistema di coordinate subordinato al tempo, e anzi la scelta è perfettamente naturale nel caso si debba­ no effettuare esperimenti in un laboratorio terrestre, dal momento che gli assi cui vengono riferite le osservazioni ruotano insieme alla Terra. Si può insomma optare per un sistema di coordinate ruotante (cioè variabile nel tempo) , a patto di introdurre simultaneamente altre (apparenti) for­ ze - nella fattispecie, la forza di Coriolis e la forza centrifu­ ga. E se volessimo che il nostro sistema di coordinate fosse funzione non soltanto del tempo ma anche della posizione nello spazio? Nessun problema, sempre che, beninteso, si pongano in campo forze aggiuntive, seguendo un procedi­ mento incluso nel formalismo della relatività generale (che, in pratica, costituisce storicamente la prima teoria di gauge) . Orbene, tutto ciò è applicabile non solo alla scelta di un normale sistema di coordinate spaziali tridimensionali, ma anche alla selezione di « assi » che definiscano le simmetrie interne del sistema. Del resto, passando a una descrizione quanto-meccanica, le forze addizionali si configurano co­ me campi (bosonici) extra (cfr. oltre), caratterizzati in ge­ nerale da una propria dinamica. L'esempio piu semplice e antico di questi campi agenti su una simmetria interna è l'elettromagnetismo. Come già detto, la conservazione del­ la carica elettrica può essere vista come una simmetria ri9 n termine «gauge>> fu adottato per ragioni esclusivamente storiche; l'espres­ sione che a volte compare nella letteratura russa- « invarianza di gradiente>> -reca in sé molte piu informazioni.

DI CHE COSA È FATTA LA MATERIA?

79

spetto alla rotazione su un particolare asse (poniamo l'asse

z) in uno spazio astratto, e il campo introdotto al momento della decisione di rendere gli assi x e y dipendenti dallo spazio e/o dal tempo è appunto il campo elettromagnetico o, in chiave quanto-meccanica, il fotone. Ciò che importa è che il fotone ha una sua dinamica, per cui, se in una regione spaziale leghiamo gli assi interni al tempo o allo spazio, l'associato campo elettromagnetico (fotone) si propagherà rapidamente ai punti vicini e interagirà con eventuali per­ turbazioni degli assi; in questo modo si manifesta l'usuale interazione elettromagnetica di cariche e correnti. Da molti anni era nota la possibilità di dare all'elettro­ magnetismo veste gaugiana, ma nessuno l'aveva presa in seria considerazione perché non ne scaturivano risultati che non potessero essere ottenuti per altra via, fondamen­ talmente perché in questo caso la simmetria non è altro che una rotazione attorno a un unico asse nello spazio astratto. Simili rotazioni godono della proprietà che l'ordine in cui sono effettuate è irrilevante (una rotazione di 6o0 seguita da un'altra di 20° ci conduce esattamente allo stesso punto di una rotazione di 20° seguita da una di 6o0); il gruppo delle rotazioni è tecnicamente definito « abeliano » e le re­ lative teorie sono chiamate teorie (di gauge) abeliane. La fecondità e il potenziale delle teorie di gauge cominciarono a emergere appieno soltanto quando gli addetti ai lavori si decisero a prendere in esame teorie non abeliane - vale a dire teorie in cui il risultato delle operazioni dell' appro­ priato gruppo di simmetria è condizionato dalla sequenza di esecuzione. A questa peculiarità risponde l'insieme di tutte le possibili rotazioni in uno spazio tridimensionale, geometriche o astratte: ad esempio, è ovvio che ruotando ° un oggetto simmetrico quale un libro dapprima di 90 at­ ° torno a un asse verticale e poi di 90 attorno a un asse oriz­ zontale si ottiene un risultato diverso da quello che si ha compiendo le due operazioni nell'ordine inverso. Le teorie di gauge non abeliane sono di gran lunga piu refrattarie al-

Bo

CAPITOLO SECONDO

l'analisi che non le loro consorelle e sfociano in conseguen­ ze per molti versi inattese (cfr. oltre) . Ciò è dovuto in so­ stanza al fatto che, diversamente da quanto si verifica in una teoria abeliana, i « bosoni di gauge » - i campi cui è ne­ cessario far ricorso - devono avere le stesse proprietà degli oggetti iniziali. Cosi, mentre nell'elettromagnetismo (una teoria abeliana) l'elettrone possiede una carica elettrica che è negata al fotone, in una teoria nella quale la simme­ tria da prendere in considerazione sia l'intero gruppo delle rotazioni di spin isotopico i bosoni di gauge debbono essi stessi in generale avere uno spin isotopico. L'idea che sta alla base delle teorie di gauge si è dimostrata talmente ferti­ le che oggi vi sono pochissime teorie autorevoli sull'intera­ zione delle particelle elementari che non rientrino in que­ sta categoria. Sinora non ho fatto cenno ai problemi di calcolo che de­ ve affrontare un terorico delle particelle. In realtà i presup­ posti essenziali - la teoria lagrangiana dei campi quantizza­ ti - sono cosi elementari da consentire un rapido abbozzo. Per prima cosa ad ogni tipo di particella, insieme alla sua antiparticella, si attribuisce un « campo » - cioè una quan­ tità (in linea di massima, un numero complesso nel senso matematico ma privo di concretezza fisica) che ad ogni istante è data in funzione delle coordinate spaziali. Poi si caratterizza lo stato temporale del sistema in esame - tanto per chiarire le idee, uno stato corrispondente allo sparare un fascio di particelle di tipo A contro uno di tipo B in una data direzione con un'energia prefissata - non specifican­ do un'unica « configurazione di campo » - ossia il valore del campo in ogni punto dello spazio -, ma piuttosto for­ nendo un'« ampiezza di probabilità », relativa al verificarsi di ogni possibile configurazione (si tratta di una generaliz­ zazione del concetto di ampiezza di probabilità sfruttato dalla meccanica quantistica in riferimento a una particella isolata; cfr. cap. I). Detto per inciso, l'insieme delle am­ piezze di probabilità che il campo abbia un certo valore in

DI CHE COSA È FATTA LA MATERIA?

8r

un punto preciso definisce la probabilità di trovare in quel punto una o piu particelle del tipo in questione, per cui è legato a grandezze sperimentalmente misurabili come la sezione d'urto differenziale. Date queste premesse, non è difficile descrivere il siste­ ma delle particelle. Ma come possiamo prevederne il com­ portamento? A questo fine è necessario valutare la varia­ zione nel tempo delle ampiezze di probabilità a partire da uno stato iniziale fissato. Le modalità operative possono apparire a prima vista cervellotiche, ma rispecchiano un'e­ voluzione storica lunga e un po' tortuosa. Si tratta sempli­ cemente di scegliere in modo acconcio la funzione «la­ grangiana », che dipende dai vari campi esistenti e dalle lo­ ro derivate rispetto al tempo e allo spazio. Si potranno cosi ricavare univocamente le equazioni del moto del sistema che esprimono il modificarsi temporale delle ampiezze di probabilità - e quindi avanzare previsioni su quanto av­ verrà di parametri sperimentali come le sezioni d'urto di diffusione. La lagrangiana non può essere una funzione ar­ bitraria, essendo soggetta a numerosi vincoli - ad esempio, quelli imposti dalla relatività speciale e dai principi di sim­ metria cui si ritiene debbano obbedire le interazioni delle particelle (che sono, in un certo senso, incorporate nella la­ grangiana); non fosse per questo, l'intero procedimento si ridurrebbe a un puro esercizio di manipolazione dei dati, mentre viceversa le conseguenze dell'imposizione di obbli­ ghi all'aspetto innocenti si rivelano sorprendentemente ge­ nerose. Anche se l'espletam�nto del programma richiede, come ovvio, notevole sofisticazione e capacità tecniche, il principio che lo informa è quello che ho tratteggiato : scelta la natura dei campi e la forma della funzione lagrangiana, l'impostazione è automatica; tutto il resto è calcolo. In realtà, quando un teorico delle particelle sostiene di aver formulato una « nuova teoria» di un fenomeno nella fisica delle alte energie, molto spesso vuole semplicemente dire di aver elaborato una nuova lagrangiana, magari coinvol-

82

CAPITOLO SECONDO

gente un paio di campi corrispondenti a particelle ancora da dimostrare. Ciò che non intende - o lo fa assai di rado ­ è di aver in qualche modo modificato il quadro di riferi­ mento concettuale della teoria lagrangiana dei campi nel cui contesto lui e i suoi colleghi si muovono. Gli ultimi due decenni di fisica delle particelle sono stati dominati da due importanti sviluppi che vanno sotto il no­ me di « cromodinamica quantistica » e ro14 GeV) è di­ versa per un fattore > ro12 da quella dei vettori bosoni in­ termedi elettrodeboli (W+, W± e Z0) ? Quark e leptoni so­ no a loro volta costituiti da entità piu elementari? Del re­ sto, se la teoria quantistica dei campi ci fornisce un'ade­ guata descrizione delle proprietà di simmetria astratte delle varie interazioni, il motivo della loro presenza o assenza è assolutamente oscuro. Perché, tanto per dirne una, do­ vrebbe esserci una simmetria corrispondente alla carica elettrica? E perché dovrebbe essere quantizzata in unità (o semplici frazioni) della carica sperimentalmente osservata dell'elettrone? Come mai le interazioni deboli violano la conservazione della parità? A cosa va fatta risalire la viola­ zione di CP in certi processi di interazione debole? E so­ prattutto, perché l'universo che conosciamo possiede una dimensione temporale e tre spaziali? Un possibile approccio a una parte di questi problemi consiste nell'augurarsi, dissezionando la struttura della teoria lagrangiana dei campi e imponendovi qualche vin­ colo d'ordine assai ampio e generale, che alla fine salti fuo­ ri un'unica formulazione sistematica compatibile con tutte queste limitazioni. In altri termini, non si può escludere che al cosmo siano state comminate un certo numero di di­ mensioni spazio-temporali e una lagrangiana con simme­ trie annesse (e altre forse escluse) semplicemente per dare coerenza matematica alla descrizione. Detto di sfuggita, non è essenziale che le dimensioni spaziali e temporali nel­ la teoria fondamentale debbano essere rispettivamente tre e una: è del tutto lecito iniziare con un numero maggiore e « compattarne » (arrotolarne) alcune su cerchi di raggio talmente piccolo da non essere avvertibile nell'esperienza ordinaria. In questi ultimi anni ha acquistato grande popo­ larità una classe di teorie (denominate di « superstringa » per il fatto che l'oggetto fondamentale su cui sono costrui-

CAPITOLO SECONDO te non è piu una particella puntiforme, ma una cordicella o « stringa ») che hanno per l'appunto questa caratteristica. La speranza è che i nodi imposti esclusivamente dall'esi­ genza di compatibilità matematica siano tanto forti da mo­ dellare un'unica teoria possibile, e che lavorando sulle con­ seguenze di questa teoria si riesca alla fine a dimostrare la necessarietà dell'esistenza di particelle aventi proprio le masse, le interazioni e tutte le altre proprietà delle particel­ le elementari conosciute: se preferite, che il mondo in cui viviamo sia ilsolo possibile. Questo programma è ancora in fasce, e certo è troppo presto per giudicarne le probabilità di successo. Ma anche supponendo che vada a buon fine, la fisica delle particelle sarebbe pur sempre attraversata da interro­ gativi sostanziali: perché la Natura dovrebbe voler essere descritta dalla teoria quantistica lagrangiana dei campi e quindi sottomettersi ai rigorosi limiti che questa impone? Il formalismo è di validità universale, anche quando sem­ bra dar luogo a rigidi paradossi (cfr. cap. v) ? Qual è il si­ gnificato delle simmetrie interne astratte che la riduzione in formule matematiche pare pretendere? O simili doman­ de sono di per se stesse « prive di senso »? Tornerò sull'ar­ gomento nel capitolo conclusivo.

Capitolo terzo L'universo: struttura ed evoluzione

L'uomo abita un piccolo pianeta, mediamente distante centocinquanta milioni di chilometri da una stella uguale a tante altre, a sua volta incastonata in una galassia che non ha in sé nulla di straordinario. Ancora in un passato piutto­ sto recente le nostre escursioni fisiche erano circoscritte al­ la superficie di questo pianeta, con un'« autonomia » che possiamo valutare attorno ai 10 7 metri. Da una ventina d'anni a questa parte siamo riusciti ad atterrare ripetuta­ mente sul principale satellite di quel pianeta, la Luna, mol­ tiplicando cosi per poco piu di trenta la portata dei nostri vagabondaggi; oggi costruiamo e lanciamo sonde spaziali in grado di trasmetterei informazioni dalle estreme frontie­ re del sistema solare, lontane qualcosa come 3 x 1012 metri. Eppure sappiamo, o crediamo di sapere, molte cose sulle proprietà e sulla storia dell'universo sino a I026 metri - ol­ tre 10 13 volte la gittata dei veicoli che ultimamente abbiamo fiondato nello spazio. Come è possibile? Immaginate un microbo installato sulla superficie di un microscopico gra­ nello di polvere galleggiante nel bel mezzo della cattedrale di San Paolo: ebbene, i problemi che gli si porrebbero nel definire le caratteristiche della cattedrale, o magari della Terra intera, sarebbero uno scherzo se confrontati a quelli che a noi tocca risolvere. L'unica via che ci è dato percorrere è ipotizzare che le leggi della fisica, cosi come ci si presentano qui sulla Terra, siano applicabili al cosmo nella sua globalità. Nelle parole di un eminente cosmologo:

IOO

CAPITOLO TERZO

L'uomo scientifico moderno ha in larga misura perduto il suo timore reverenziale nei confronti dell'universo. Egli è fidu­ cioso che la comprensione di tutto ciò che sta al di là delle stelle sia solo questione di intelligenza, perseveranza, tempo e dena­ ro; giudica che quanto vede sulla Terra e nelle sue vicinanze sia una brillante esposizione di leggi e oggetti di natura ed è con­ vinto che nulla di ciò che appare lassu non possa essere spiega­ to, previsto o estrapolato da conoscenze ottenute quaggiu; cre­ de fermamente di andare esplorando un buon campione del­ l'universo, se non in proporzione alle sue dimensioni, che so­ spetta infinite, comunque in rapporto alle sue peculiarità su grande scala. Pochi progressi sarebbero consentiti alla cosmo­ logia senza quest'atteggiamento presuntuoso, e la Natura stes­ sa sembra incoraggiarlo, come vedremo, con certe coincidenze numeriche che sarebbe arduo considerare accidentali '.

Non si sottolineerà mai abbastanza che, applicando la fisica all'universo in blocco, molto spesso si è costretti a estrapolare a condizioni diverse per molti ordini di gran­ dezza leggi che sono state verificate direttamente solo su una gamma molto ristretta di densità, temperature e altri parametri. Peggio ancora, in molti casi si azzardano ipotesi che non trovano conforto in conferme sul campo, ma sono state dedotte da una complessa serie di esperimenti indi­ retti. Una strada invero irta di insidie; ma non vi sono alter­ native praticabili, e se non altro siamo in buona compa­ gnia. Dopo tutto, nessuna estrapolazione nella cosmologia moderna uguaglia per audacia intellettuale il colossale bal­ zo compiuto da Newton derivando la dinamica dei pianeti dagli effetti gravitazionali osservati sulla Terra. Val la pena ricordare che prima dei recenti progressi in campo missili­ stico questa estrapolazione non era mai stata sottoposta a « collaudo », per il semplice motivo che non potevamo condurre esperimenti controllati ma dovevamo acconten­ tarci di ciò che la Natura si era degnata di elargirci; ciono1 W. Rindler, Essential Relativity, p. 213.

van

Nostrand Reinhold, New York 1969,

L'UNIVERSO: STRUTTURA ED EVOLUZIONE

101

nostante la « meccanica celeste » di Newton era dogma già da un paio di secoli, e pochissimi sarebbero stati disposti a scommettere un centesimo sull'eventualità che il Voyager II non raggiungesse Urano in conseguenza, poniamo il ca­ so, della comparsa - alla scala del sistema solare - di nuove forze non misurabili (o non misurate) sulla Terra. Per quanto riguarda la cosmologia, test diretti e controllati probabilmente saranno fuori discussione nel futuro preve­ dibile. Allo stato attuale della tecnologia dei razzi, un vei­ colo spaziale impiegherebbe diecimila anni circa a rag­ giungere la stella piu vicina, Sole escluso; e anche se av­ vicinassimo la velocità della luce, l'esplorazione delle re­ gioni piu a portata di mano della Via Lattea darebbe risul­ tati che soltanto i nostri discendenti remoti potrebbero uti­ lizzare. Nondimeno, molti cosmologi contemporanei guar­ dano a una parte almeno delle loro idee sull'universo, a torto o a ragione, con la stessa certezza che gli astronomi della metà del secolo scorso ostentavano nei confronti del­ la teoria newtoniana del sistema solare. Sarebbe opportu­ no tenere presente che un'insignificante discrepanza fra la teoria nev;toniana e l'osservazione - sulla precessione del perielio di Mercurio, cfr. oltre - per lungo tempo accanto­ nata come anomalia irritante ma secondaria, ora, a poste­ riori, ci segnala che l'intero edificio era pericolante o, quanto meno, insufficiente. Quante simili discordanze ri­ velatrici nell'odierna cosmologia ci verranno rinfacciate dai nostri bisnipoti? Non ne abbiamo, come logico, la piu pallida idea e l'unica cosa che possiamo fare è continuare ad applicare la fisica che ci è familiare sino a quando le no­ stre previsioni non verranno contraddette da un qualche esperimento davvero spettacolare. Ad ogni buon conto, visto che ci proponiamo di servirei della nostra fisica terrestre per interpretare il creato, quale tipo di informazioni possiamo ricavarne, e con quali stru­ menti? Come abbiamo già detto, dobbiamo affidarci a ciò che la Natura offre, che si riduce poi - a parte qualche

!02

CAPITOLO TERZO

frammento di materia di origine relativamente locale (me­ teoriti, polveri lunari e poco altro) - alle particelle e onde elettromagnetiche in arrivo dallo spazio esterno. Non tutto questo materiale raggiunge la superficie terrestre: ad esem­ pio, i raggi X sono in gran parte assorbiti dall'atmosfera, il che spiega perché la capacità acquisita negli ultimi vent' an­ ni o giu di li di spedire in orbita satelliti ricolmi di attrezza­ ture abbia notevolmente arricchito il nostro bagaglio di in­ formazioni. Tra le particelle massive provenienti dallo spazio ester­ no la parte del leone spetta ai protoni, sia pure accompa­ gnati da elettroni, nuclei di elio ed elementi piu pesanti. I dati forniti da queste particelle sono piuttosto evasivi. Es­ sendo dotate di massa, esse non viaggiano alla velocità del­ la luce, né necessariamente in linea retta (chi ci dice che non siano state deviate dal campo magnetico galattico ?), per cui è tutt'altro che agevole individuarne l'origine o tracciarne le vicende. Di questi inconvenienti non soffrono i neutrini, ma qui intervengono problemi di rilevazione. Insomma, ciò che sappiamo dell'universo ci viene in larga misura dallo studio della radiazione elettromagnetica in ar­ rivo dalle profondità del cosmo. All'alba dell'astronomia, l'unica parte dello spettro elettromagnetico utilizzabile era il piccolissimo segmento apprezzabile dall'occhio umano; oggi, con l'aiuto di satelliti, interferometri a lunga base e al­ tri sistemi specializzati di rivelamento siamo in grado di analizzare l'intero spettro, dalle radiofrequenze ai raggi y duri (cfr. cap . r). Tanto per fissare le idee, concentriamoci sulla radiazione visibile (luce) e supponiamo di avere a che fare con una stella visibile (come il nostro Sole). La luce che possiamo produrre sulla Terra (per mezzo di candele, filamenti elettrici, lampade ad arco... ) viene emessa da atomi o molecole nelle transizioni tra gli stati energetici consentiti; ogni singolo atomo o molecola, se opportunamente isolato, dà luogo a un insieme caratteri­ stico di righe spettrali, nel senso che emette radiazioni solo

L'UNIVERSO: STRUTTURA ED EVOLUZIONE di frequenze (e quindi lunghezze d'onda) ben definite. Os­ servando una di queste distribuzioni di righe nella luce emessa da una stella, viene perciò naturale inferire nella stella la presenza dell'elemento che sulla Terra produce proprio quello spettro'. In certi casi favorevoli si può addi­ rittura individuare non soltanto l'elemento, ma un suo par­ ticolare isotopo; ad esempio, è possibile distinguere l'idro­ geno pesante (deuterio) dalla varietà comune. Ne vien fuo­ ri una tabella delle abbondanze degli elementi in determi­ nate stelle e anche nello spazio interstellare e intergalatti­ co. Ma non basta: poiché l'intensità della luce emessa da una sorgente terrestre dipende dalla temperatura della sor­ gente e la sua polarizzazione è legata ai campi elettrici e magnetici presenti, per estrapolazione si può calcolare il valore di queste grandezze in riferimento a una stella. Co­ noscendo la distanza della stella e misurando l'energia to­ tale ricevuta, possiamo risalire alla sua magnitudine assolu­ ta. Infine, a volte la luce che ci perviene da una sorgente presenta variazioni temporali che ci inducono a sospettare un qualche tipo di moto regolare o irregolare; cosi sono state scoperte le pulsar, ritenute dai piu stelle di neutroni ruotanti. Sulla base di queste informazioni e di quanto sappiamo dai laboratori di fisica nucleare, una stella tipica (come il Sole) è dunque una sorta di gigantesca centrale nucleare, che genera calore per mezzo del cosiddetto processo di fu­ sione nucleare, nel quale l'idrogeno viene gradualmente convertito in elio ed elementi piu pesanti liberando grandi quantità di energia (un processo che, sfortunatamente, si­ nora siamo riusciti a riprodurre solo in maniera incontrol­ lata, nelle esplosioni atomiche) . La temperatura alla super­ ficie è dell'ordine delle migliaia di gradi, mentre nel noc­ ciolo, dove si sviluppa la combustione nucleare, si raggiun2 L'elio venne rivelato per la prima volta spettroscopicamente nel Sole, donde il nome.

104

CAPITOLO TERZO

gono i milioni di gradi. A simili temperature la materia or­ dinaria non esiste; gli atomi sono completamente ionizzati, essendo stati gli elettroni strappati dai nuclei, e la densità è un centinaio di volte maggiore di quella dei solidi terrestri. Questa situazione, conseguibile sulla Terra per un'infinite­ simale frazione di secondo in una bomba termonucleare, rappresenta lo stato permanente dell'interno di una stella sintantoché non si esaurisce la sua scorta di combustibile. Trasformatosi tutto l'idrogeno in elio, questo può a sua volta convertirsi in elementi piu pesanti, carbonio o ferro soprattutto, ma a questo punto il processo si arresta per mancanza di combustibile e la stella comincia a raffreddar­ si e a collassare su se stessa, talora con agonie spettacolari. (Proprio mentre sono in corso le operazioni di stampa, nel­ la nostra galassia si sta verificando, per la prima volta in 300 anni, l'esplosione di una « supernova», visibile a oc­ chio nudo da latitudini australi) . A seconda della massa, la fase finale può concretizzarsi in una nana bianca, una stella a neutroni o magari un buco nero. Le nane bianche contengono i costituenti della nor­ male materia terrestre (nuclei ed elettroni), però raggru­ mati a una densità circa un milione (ro6) di volte superiore a quella di un liquido o un solido sul nostro pianeta. Le stelle a neutroni, come lascia intendere il loro nome, sono essenzialmente formate da neutroni (con elettroni e proto­ ni sparsi), impacchettati alla densità incredibilmente eleva­ ta di ro 15 volte quella della materia ordinaria, vale a dire il triplo rispetto ai protoni e ai neutroni nel nucleo atomico, tanto che in un certo senso una stella a neutroni può essere paragonata a un nucleo gigantesco, con un raggio non già di ro-13 centimetri, ma di qualcosa come ro chilometri ! Ov­ viamente quanto abbiamo appreso in laboratorio sul com­ portamento della materia non è di alcuna utilità per le nane bianche e, a maggior ragione, per le stelle a neutroni, per cui siamo costretti a ripartire in pratica da zero nel tentati­ vo di scandagliare le proprietà della materia a densità cosi

L'UNIVERSO: STRUTTURA ED EVOLUZIONE

I05

inverosimili. Soluzione obbligata è l'usuale ipotesi conser­ vativa che valgono le leggi fondamentali della fisica scoper­ te sulla Terra - in altri termini, che la pura e semplice com­ pressione della materia a densità enormi su grande scala non modifichi le regole del gioco. Non essendo alla nostra portata un esperimento diretto, la plausibilità di questo as­ sunto dev'essere verificata confrontando i risultati dei cal­ coli con l'evidenza naturale delle caratteristiche della ra­ diazione emessa dalle stelle di neutroni. Sinora vi è stato un accordo discreto, tanto da consentirci di asserire che in ba­ se alle osservazioni possiamo benissimo fare a meno di po­ stulare nuovi principì, pur senza escludere - e prevedibil­ mente non ne saremo mai in grado - che possano saltar fuori d'improvviso. Ci corre però l'obbligo di avanzare una riserva. È opinione prevalente che quando il rapporto tra massa e raggio di un sistema raggiunge un valore critico si realizzi quella peculiare deformazione dello spazio-tem­ po che va sotto il nome di « buco nero » e comporta il deca­ dimento o, a voler essere piu esatti, l'inaridirsi come sor­ gente di informazioni utili, delle normali leggi fisiche (tor­ nerò sull'argomento piu avanti). Se dunque una stella di massa leggermente superiore a quella del nostro Sole do­ vesse collassare allo stato di stella a neutroni, si tocchereb­ be il valore critico'e la fisica che conosciamo non ci sarebbe piu di alcuna utilità in questo contesto. Di giorno, il Sole oscura ogni altro corpo celeste; di not­ te, possiamo distinguere a occhio nudo forse qualche mi­ gliaio di stelle, la piu vicina delle quali (Sole a parte) si tro­ va già a circa 4 anni-luce, ovvero 4 x I0 13 chilometri di di­ stanza. (Vedremo tra poco come facciamo a saperlo). Con l'ausilio dei moderni telescopi abbiamo imparato che le stelle visibili rappresentano una minuscola frazione di un raggruppamento di ro11 stelle - la Galassia - distribuite un po' a caso ma in modo che la densità sia massima nel piano della Via Lattea (donde il nome, avendo gala in greco il si­ gnificato di « latte ») . Il diametro della Galassia è dell'ardi-

106

CAPITOLO TERZO

ne di 1021 metri (105 anni-luce), con il Sole piazzato a due terzi circa del percorso dal centro al bordo esterno (diffu­ so), piu o meno nel piano di massima densità (ecco perché la Via Lattea ci appare come una regione a forte densità stellare) . Oggi sappiamo che la nostra galassia non com­ prende tutto l'universo, come si credeva sino a non troppi anni or sono, ma è parte di un ammasso chiamato gruppo locale (con una punta di ironia, considerato che il nostro vicino piu studiato, la nebulosa di Andromeda, occhieggia a un paio di milioni di anni-luce !), a sua volta inserito in un « superammasso », in tutto e per tutto simile a innumere­ voli fratelli disseminati nel cosmo sin dove si spingono i te­ lescopi. La nostra non è in alcun modo una posizione privi­ legiata. Esaminando quella parte dei contenuti dell'universo che si concentra nelle stelle si notano due caratteristiche magari banali a prima vista, ma in realtà di grande interes­ se. Innanzitutto, su scala locale si intravvede un'organizza­ zione: la materia è concentrata in stelle, le stelle sono rag­ gruppate in galassie, le galassie in ammassi e questi a loro volta in superammassi. Vi sono poi vaste regioni («vuoti ») dove la densità delle galassie è di gran lunga inferiore alla media. Lo studio di come possano essersi formate queste gigantesche strutture rappresenta oggi una branca molto attiva della cosmologia. D'altra parte, sulla massima scala accessibile alle nostre osservazioni l'universo appare in media omogeneo e isotropo: vale a dire che, in una visione d'insieme, non sussistono differenze di proprietà (omoge­ neità) né direzioni privilegiate (isotropia) tra i suoi vari set­ tori. Si noti che omogeneità non sottintende isotropia; le galassie avrebbero potuto ad esempio essere distribuite in modo casuale nello spazio, ma con i piani di massima den­ sità in prevalenza (poniamo) paralleli a quello della Via Lattea. Ciò non è accaduto e l'universo quale si presenta ai nostri strumenti è al contempo omogeneo e isotropo. Co­ me vedremo, queste prerogative non vengono meno anche

L'UNIVERSO: STRUTTURA ED EVOLUZIONE se nell'equazione si introduce la materia non accentrata nelle stelle: si tratta dunque di un punto fermo con cui de­ ve misurarsi qualsiasi teoria cosmologica che abbia qual­ che ambizione. In realtà non è affatto assodato che nel cosmo la materia, tutta o per la maggior parte, sia adunata nelle stelle. Senza dubbio all'interno della nostra galassia (e perciò presumi­ bilmente in altre galassie simili) vi è una quantità conside­ revole di « polvere interstellare » (materiale nello spazio compreso tra le stelle), costituita essenzialmente da idroge­ no atomico o molecolare ma anche da atomi e molecole pili pesanti (inclusi, udite udite, alcuni degli amminoacidi in­ dispensabili all'evoluzione di sistemi biologici) . Tutto ci è noto grazie alla facoltà che hanno questi atomi e molecole di assorbire radiazione elettromagnetica di determinate lunghezze d'onda. Ancora si discute se nello spazio inter­ galattico (cioè lo spazio che si estende tra galassie o am­ massi galattici) vi sia materia in quantità apprezzabilmente superiore a quella (circa un atomo per metro cubo !) già os­ servabile grazie agli spettri di assorbimento, ma in ogni ca­ so un'analisi approfondita della stabilità e del moto delle galassie nel loro insieme porta a una straordinaria condu­ zione: buona parte della massa delle galassie deve esistere in una forma che sinora è sfuggita ai nostri strumenti ! Que­ sto problema della « massa mancante » o « materia oscu­ ra », al pari di tanti altri in cosmologia, può essere schivato - ad esempio, postulando nuove forze, o una modificazio­ ne di forze conosciute, sulla scala galattica -, ma attual­ mente quasi tutti gli studiosi preferiscono prenderlo di petto. Molti sono i candidati al ruolo di «materia oscura »: alcuni si identificano in particelle elementari già previste nel contesto della fisica delle alte energie (neutrini massivi, assioni, fotini e via discorrendo); altri sgorgano con tutta naturalezza dalla teoria generale della relatività (buchi ne­ ri); altri ancora, siatene pur certi, presto presenteranno le loro credenziali. Comunque, ora come ora, letteralmen-

I08

CAPITOLO TERZO

te non sappiamo di cosa sia fatto l'universo (almeno per la maggior parte). Sinora abbiamo lasciato intendere che tutta la radiazio­ ne elettromagnetica ricevuta sulla Terra sia stata emessa da stelle, o quanto meno da materiale interstellare. Ma la real­ tà è diversa. Uno dei progressi piu significativi degli ultimi venticinque anni in cosmologia è stata la scoperta della co­ siddetta radiazione cosmica del corpo nero. La radiazione del corpo nero si riferisce al flusso di energia radiante che si dovrebbe avere in equilibrio termico a temperatura co­ stante (cfr. cap. I); il relativo diagramma dell'intensità in funzione della frequenza (ovvero della lunghezza d'onda) è del tutto particolare e consente di evincere la temperatu­ ra in base al valore della lunghezza d'onda alla quale l'in­ tensità si trova al punto massimo. Nel 1965 venne accertato che la Terra è immersa in una corrente di radiazioni elet­ tromagnetiche la cui distribuzione di intensità corrispon­ derebbe abbastanza bene a una temperatura di circa tre gradi assoluti; la lunghezza d'onda dell'intensità massima si colloca nella regione spettrale delle microonde, a circa I millimetro. Da rilevare che, tenuto conto del moto del Sole rispetto alle stelle vicine e di altri fattori, le radiazioni paio­ no isotrope nell'ambito della precisione delle misure attua­ li - in altri termini, da ogni direzione ne arriva la stessa quantità. L'esistenza, l'intensità e la temperatura effettiva della radiazione cosmica del corpo nero costituiscono un altro dato critico della cosmologia. Come già accennato nel capitolo precedente, secondo la teoria quantistica la radiazione elettromagnetica viene tra­ sportata sotto forma di « granuli» cui si dà il nome di foto­ ni. Misurando la radiazione cosmica del corpo nero, si può ottenere direttamente il numero di fotoni per unità di volu­ me ad essa associati. Nei limiti della nostra galassia, anche la luce emessa dalle stelle dà un suo contributo in fotoni, ma sulla scala dell'universo questo effetto dovrebbe essere trascurabile. Di conseguenza, ammettendo che la radiazio-

L'UNIVERSO: STRUTTURA ED EVOLUZIONE

!09

ne cosmica del corpo nero riscontrata sulla Terra rispecchi quella esistente nello spazio intergalattico (e al momento non abbiamo motivo di supporre il contrario), possiamo calcolare il numero di fotoni per unità di volume nell'inte­ ro universo. Un veloce confronto di questo valore con il numero di barioni per unità di volume, anch'esso mediato sull'universo osservabile (un confronto suggerito dal fatto che vi sono ragioni teoriche per ritenere che ambedue i nu­ meri siano rimasti pressoché invariati nel passato recente), ci rivela che il rapporto fra fotoni e barioni (osservati) è cir­ ca 109: r. (I barioni sono in prevalenza protoni, isolati o in veste di idrogeno atomico). Anche questa realtà deve tro­ var posto in qualsiasi teoria sulle origini e l'evoluzione dell'universo. Ma eccovi un altro enigma: l'universo che abbiamo im­ parato a conoscere sembra contenere pochissima antima­ teria (cfr. cap. n). S'intende che questa è una congettura: in pratica è impossibile distinguere nitidamente l'antima­ teria dalla materia (analizzando le proprietà della radiazio­ ne emessa, ad esempio) e l'assenza di antimateria viene de­ dotta soprattutto dalla mancanza di evidenza, sotto forma di copiosi raggi y, di fenomeni di annichilazione materia­ antimateria (e dalle ridottissime quantità che colpiscono la Terra). L'ostacolo verrebbe forse a cadere ipotizzando « galassie di antimateria » sufficientemente differenziate ri­ spetto a quelle consuete, ma se davvero vi fosse un deficit di antimateria ci troveremmo per le mani un p�oblema di tutto rispetto, visto che uno dei cardini della fisica delle particelle è la parità (o quasi) di diritti di materia e antima­ teria. (Una situazione per molti versi simile, come vedremo nel quarto capitolo, si registra a proposito della chiralità delle molecole biologiche). Da quanto detto sinora, il lettore potrebbe trarre l'im­ pressione che ogni attività nell'universo di cui valga la pe­ na parlare, in special modo per quanto riguarda la produ­ zione di energia, si svolga nelle stelle. Ancora una ventina

IlO

CAPITOLO TERZO

d'anni fa quest'impressione avrebbe trovato autorevoli conferme, ma una delle piu eccitanti e recenti scoperte del­ l'astronomia è stata che in prossimità del centro di molte galassie vi sono regioni attive in cui si producono quantità massicce di energia attraverso processi completamente di­ versi dalle normali reazioni nucleari che riteniamo abbiano luogo nelle stelle. Al momento non v'è unanimità di vedute sul meccanismo responsabile di questa generazione di energia, ma un'ipotesi plausibile è che si tratti di una conseguenza della caduta di materia in un buco nero (cfr. oltre) . Non abbiamo ancora accennato a quella che agli occhi dei cosmologi è probabilmente la cosa piu importante in merito all'universo: l'idea che sia in espansione. Poiché su quest'idea si fonda la stragrande maggioranza delle attuali teorie sulla genesi e sul possibile futuro dell'universo, non ci sembra inopportuno spendere qualche riga per esami­ nare le prove che la sostengono. Una domanda, in primo luogo: come facciamo a sapere quale spazio ci separa dai corpi astronomici? Sulla Terra disponiamo di vari modi per giudicare le distanze (a parte l'uso di un righello) . Per intanto, si può profittare (di norma senza averne affatto co­ scienza) del fatto che i nostri occhi sono distanziati, ma questa risorsa vale soltanto per oggetti lontani pochi metri. Un secondo metodo consiste nell' «inviare una sonda », ovverossia scaraventare verso l'oggetto qualcosa di piccolo di cui ci sia nota la velocità e misurare il tempo che impiega a giungere a destinazione; ad esempio si può lasciar cadere una pietra in un pozzo e contare i secondi prima del tonfo. Una terza possibilità è offerta dalla « parallasse », che com­ porta lo spostarsi e l'osservare il movimento apparente del­ l'oggetto contro lo sfondo. Infine, molto spesso valutiamo la lontananza di un oggetto semplicemente in base alle sue dimensioni note. Tenendo presenti le analogie astronomi­ che, non ci sembra fatica sprecata puntualizzare come sia ohbligatorio - se si vuole che quest'ultimo sistema funzioni

·

L'UNIVERSO: STRUTTURA ED EVOLUZIONE

III

anche solo approssimativamente - avere un'idea del tipo di oggetto con cui abbiamo a che fare (un uomo, un albero, una casa o qualsiasi altra cosa) ; chiunque ami camminare in montagna sa quanto sia facile, nella nebbia, scambiare una roccia attigua per una montagna remota, o viceversa. Tutti questi banali mezzi per stimare la distanza hanno corrispettivi astronomici, sia pure utili in parte entro un'a­ rea piuttosto ristretta. Alla visione binoculare corrispon­ dono le letture al teodolite della posizione apparente del­ l'oggetto contemporaneamente da punti diversi sulla su­ perficie terrestre e l'impiego della triangolazione. Questo procedimento serve solo per corpi celesti molto vicini, co­ me la Luna. li sasso lasciato cadere nel pozzo trova riscon­ tro nell'inviare un impulso elettromagnetico (radar o laser) verso l'oggetto e cronometrare il tempo necessario alla ri­ cezione dell'impulso riflesso; essendo nota la velocità della luce, si ricava subito la distanza. Questo metodo può esse­ re utilizzato per la maggior parte degli oggetti nel sistema solare; al di là si dimostra inefficace, un po' perché un'on­ da radar riflessa dalla stella piu prossima impiegherebbe anni a tornare al punto di partenza, un po' perché l'onda riflessa sarebbe troppo debole per gli strumenti di misura. L'opportunità di ricorrere al metodo della parallasse ci è suggerita dal moto della Terra attorno al Sole; misurando la posizione apparente, rispetto alle cosiddette stelle fisse, degli astri piu vicini a intervalli di sei mesi, possiamo de­ durne le distanze. Tenuto conto degli attuali limiti nella misura degli angoli, questo metodo dà risultati accettabili sino a circa 300 anni-luce (a questa distanza l'orbita terre­ stre è paragonabile a una monetina osservata da un punto lontano roo chilometri ! ) In via di principio si potrebbe al­ largarne il campo di applicazione spedendo una sonda spaziale ai confini del sistema solare, ma il guadagno sareb­ be modesto. Purtroppo un'estensione di 300 anni-luce non basta neppure a coprire la nostra galassia e, per quanto riguarda

II2

CAPITOLO TERZO

distanze maggiori, siamo costretti ad affidarci a metodi piu tortuosi, tali in un certo senso da pretendere da parte no­ stra una conoscenza a priori di ciò che ci interessa. La fidu­ cia che vi riponiamo dipende in linea generale piu dalla concordanza delle valutazioni che se ne ottengono che dal­ la loro intrinseca attendibilità. Per chiarire quanto andia­ mo dicendo, sarà sufficiente descrivere il procedimento imperniato sulle proprietà di una classe di stelle di splen­ dore variabile note con il nome di cefeidi (dall'esponente meglio conosciuto del gruppo, 8 Cephei). Alcune di queste stelle sono abbastanza vicine da poterne calcolare la di­ stanza con il metodo della parallasse; essendo nota la lumi­ nosità assoluta (magnitudine) e potendosi misurare quella apparente, si può risalire alla distanza utilizzando la stessa relazione che consente di apprezzare l'intensità luminosa di una lampadina posta a una distanza nota. La caratteristi­ ca piu saliente delle cefeidi è la grande regolarità con cui varia il loro splendore. Inoltre, l'indagine degli esemplari abbastanza vicini da poterne calcolare la grandezza assolu­ ta rivela un rapporto stretto e rigoroso tra la luminosità as­ soluta (media) e il periodo di oscillazione - vale a dire, la durata del ciclo nella variazione di splendore. Poiché ab­ biamo un'idea precisa dei motivi astrofisici di questa rela­ zione, pare ragionevole supporre che essa valga per tutte le cefeidi, indipendentemente dalla loro collocazione nello spazio. Determinando dunque il periodo di una stella lon­ tana di questa classe, possiamo ricavarne la luminosità as­ soluta e, confrontandola con quella osservata sulla Terra, definire la distanza (proprio come, sapendo che una lam­ padina ha una potenza di wo watt, possiamo desumerne la distanza dalla luminosità apparente) . In questo modo è possibile accertare la distanza di variabili cefeidi, entro e fuori la nostra galassia, sino a circa tre milioni di anni-luce. La maggioranza delle stelle naturalmente non appartiene a questa· famiglia un po' speciale, per cui, volendo adottare questo metodo per stabilire la distanza di una galassia lon-

L'UNIVERSO : STRUTTURA ED EVOLUZIONE

II3

tana, dobbiamo supporre che tutte l e cefeidi visibili nella direzione di quella galassia facciano parte di essa e non si trovino solo per caso in quella regione del cielo. Poiché la probabilità statistica di una coincidenza cosi fortuita è estremamente bassa, l'assunto appare giustificato (non meno di quanto lo sia presumere che un'intensa radiosor­ gente allineata con una galassia scoperta per via ottica di fatto si identifichi con quella, o quanto meno le sia estre­ mamente vicina). Ancora una volta il cosmologo deve far suo l'aforisma di Einstein: «Dio è sottile, ma non maligna­ mente perverso ». D'altro canto, la conclusione è corrobo­ rata dal fatto che altre linee indipendenti di ragionamento dello stesso carattere generale sovente conducono a valu­ tazioni analoghe della distanza di galassie lontane. Oltre qualche milione di anni-luce questi metodi si rivelano ina­ deguati e la determinazione delle distanze cosmiche è an­ cor piu indiretta, come vedremo tra breve. Diamo dunque per scontato di poter calcolare la distan­ za di oggetti remoti almeno sino a questo limite. Cosa pos­ siamo dire della velocità di cui sono animati rispetto a noi? Ribadiremo in seguito che la velocità stimata della piii par­ te dei corpi astronomici corrisponde a una variazione fra­ 1 zionaria della loro distanza pari a circa una parte su IO 0 per anno, una quantità di gran lunga troppo piccola per essere rilevabile con uno qualsiasi dei metodi che abbiamo indi­ cato (fatta eccezione per i pianeti, per i quali gli effetti co­ smologici sono schiacciati dagli ovvi effetti gravitazionali sul moto). La velocità di quasi tutti gli oggetti astronomici viene in realtà ottenuta per mezzo di un sistema completa­ mente diverso, legato al cosiddetto effetto Doppler: se una sorgente in movimento emette un'onda, sia essa acustica, luminosa o di qualsiasi altra natura, la frequenza percepita dall'osservatore è minore o maggiore di quella della sor­ gente a seconda che questa stia allontanandosi o avvicinan­ dosi. Conseguenza ben nota di questo fenomeno è la bru­ sca diminuzione di tonalità della sirena di un'ambulanza al

CAPITOLO TERZO momento del passaggio all'altezza dell'osservatore. Non è difficile darne una spiegazione: posto che la sirena emetta 300 creste d'onda al secondo e che l'ambulanza si sposti a una velocità di 3 metri al secondo, l'ultima cresta di un qualsiasi secondo viene emessa a una distanza di 3 metri ri­ spetto alla prima e, essendo la velocità di propagazione del suono approssimativamente di 30 metri al secondo, impie­ ga un decimo di secondo in piu per raggiungerei. L' osser­ vatore in realtà capta le 300 creste d'onda non nell'arco di 1 secondo, ma di 1,1 secondi, e valuta perciò la frequenza del suono pari a 300 l 1,1 - ovvero 270 cicli al secondo; in altre parole, avverte un suono piu grave di quello emesso dalla sorgente. A voler cercare il pelo nell'uovo, questo ragiona­ mento nella sua semplicità vale soltanto per quei tipi di on­ de, acustiche ad esempio, che esprimono una reale altera­ zione in un mezzo fisico, (in questo caso, l'aria), mentre in riferimento alla luce assume contorni piu sofisticati, do­ vendo tener conto delle modificazioni del concetto di spa­ zio-tempo introdotte dalla relatività speciale e (limitata­ mente alle deduzioni su scala cosmica) da quella generale (cfr. oltre). Ad ogni modo, il risultato non cambia: cono­ scendo la frequenza (o la lunghezza d'onda) di emissione di un'onda luminosa e misurando la lunghezza d'onda del­ la luce osservata, si può calcolare la velocità della sorgente rispetto all'osservatore (o meglio, volendo essere piu pre­ cisi, la componente della velocità diretta verso di esso o in senso opposto). Questa conclusione ha ricevuto innu­ merevoli conforme nei laboratori terrestri; come al solito ci accingiamo baldanzosamente a estrapolarla allo sp azio . esterno. È noto che sulla Terra ogni elemento (piu esattamente, ogni elemento in un determinato stato di ionizzazione) emette luce visibile la cui intensità appare concentrata at­ torno a un numero discreto di frequenze; l'insieme delle lunghezze d'onda costituisce una sorta di « impronta digi­ tale» dell'elemento in questione. Ebbene, analizzando lo

L'UNIVERSO: STRUTTURA ED EVOLUZIONE

I I5

spettro di emissione di una galassia ragionevolmente vicina si possono identificare le stesse configurazioni caratteristi­ che di vari elementi sulla Terra, ma con un leggero sposta­ mento delle frequenze; in generale, la lunghezza d'onda ri­ scontrata nella luce proveniente dalla galassia è di poco maggiore di quella osservata sulla Terra, per cui si suole di­ re che le righe spettrali hanno subito un « red-shift » (spo­ stamento verso il rosso, corrispondendo questo colore alla massima lunghezza d'onda nello spettro visibile) . L'inter­ pretazione piu ovvia è che queste galassie si stiano allonta­ nando. Il red-shift aumenta con il crescere della distanza delle galassie (dedotta nel modo sopra indicato) e un'inda­ gine quantitativa sfocia in una conclusione di grande inte­ resse: le galassie sembrano essere in moto di recessione ri­ spetto alla Via Lattea con velocità proporzionale alla lo­ ro distanza. È questa la famosa legge annunciata nel r 9 2 9 dal suo scopritore, l'astronomo statunitense Edwin P. Hubble. Il rapporto tra distanza e velocità di recessione è noto come «tempo di Hubble»; chiaramente, se la velocità di recessione fosse costante, questo sarebbe il tempo tra­ scorso dal momento in cui tutte le galassie erano collassate insieme nei nostri immediati dintorni. Il valore oggi accet­ tato del tempo di Hubble si colloca attorno a r,5 x ro10 an­ ni, con un'incertezza del 3o per cento circa in entrambe le direzioni; torneremo piu avanti sul significato di questo numero. Il cosiddetto red-shift cosmologico e la sua interpreta­ zione in termini di recessione delle galassie - ovvero di espansione dell'universo - è un tale pilastro della moderna cosmologia che val la pena di fare qualche passo a ritroso per chiederci quanto siano salde le sue fondamenta. Va da sé che sul piano quantitativo tutto è demandato alla corret­ tezza delle stime delle distanze cosmiche; non si può certo escludere un errore grave e sistematico, ma l'esistenza del fenomeno è attestata da un intreccio di prove indirette cosi consistente che oggi pochissimi sono disposti a metterlo

II6

CAPITOLO TERZO

seriamente in dubbio. Una questione piu delicata è la pos­ sibilità di spiegazioni alternative del red-shift osservato. Siamo in effetti a conoscenza di almeno un'altra causa pos­ sibile, e cioè l'effetto gravitazionale postulato dalla teoria della relatività generale (cfr. oltre) ; in linea teorica, si po­ trebbe supporre che le galassie interessate al red-shift sia­ no pressoché stazionarie ma incapsulate in un campo gra­ vitazionale intensissimo. A quest'ipotesi vengono opposte robuste obiezioni: secondo la principale di esse, ove si escluda una posizione privilegiata del nostro pianeta nel­ l'universo, la distribuzione dei red-shift tra le sorgenti identificate dovrebbe essere diversa da quella che si rileva. Piu arduo respingere la congettura che le leggi della fisica possano mutare sistematicamente in rapporto (ad esem­ pio) alle coordinate nell'universo, in maniera tale che le «medesime » transizioni atomiche producano righe spet­ trali la cui frequenza dipenda dalle condizioni cosmologi­ che nella regione dell'emittente; in quel caso, il red-shift non testimonierebbe una recessione. Al momento, possia­ mo soltanto dire che quest'ipotesi non ci è imposta dall'e­ videnza sperimentale (almeno, non ancora! ) e che il rasoio di Occam ci consiglia di andare avanti senza di essa il piu a lungo possibile. Del resto, occorre puntualizzare che la vi­ sione oggi prevalente sullo spazio-tempo nelle dimensioni cosmologiche conferisce a questi concetti una valenza completamente diversa dall'interpretazione utile per sbri­ gare le nostre faccende terrestri, e che non ci sarebbe da gridare allo scandalo se futuri sviluppi teorici dessero loro un indirizzo nuovo e oggi impensato: che so, potrebbe ac­ cadere che i cosmologi del XXII secolo considerino la do­ manda « l'universo è in espansione? » né piu né meno in­ sensata di quanto oggi ci appare la questione della contem­ poraneità assoluta. Non ci resta che ricordare che la stra­ grande maggioranza dei cosmologi reputa la domanda pertinente e sostiene (con qualche eccezione) che gli ele­ menti a favore di una risposta positiva sono soverchianti.

L'UNIVERSO: STRUTTURA ED EVOLUZIONE

I I7

Taie anzi è la generale fiducia in questa rappresentazione che, nel caso di oggetti lontanissimi la cui distanza non sia misura bile in altro modo, è ormai invalso l'uso di ricavarla dallo spostamento verso il rosso e avvalersene per determi­ nare la luminosità assoluta in base alla magnitudine osser­ vata. Prima di passare a discutere le modificazioni che dob­ biamo apportare alle nostre idee sullo spazio e sul tempo per poter costruire un'immagine coerente del cosmo, fer­ miamoci un attimo a chiederci: supponendo di continuare a operare con le nostre nozioni classiche (newtoniane), co­ me descriveremmo l'universo alla luce dell'evidenza della sua espansione? Innanzitutto, essendo quasi tutte le galas­ sie in apparente recessione dal sistema solare, sarebbe leci­ to arguire che ci troviamo al centro? No. Se un foglio di gomma venisse stirato, un osservatore posto in un punto qualsiasi del foglio vedrebbe allontanarsi tutti i punti cir­ costanti, con una velocità proporzionale alla distanza. E poi, quali conclusioni potremmo trarre in merito alla storia dell'universo ? Qualsiasi conclusione presupporrebbe la conoscenza della dinamica evolutiva, cioè delle forze agen­ ti sul sistema e della sua reazione ad esse. L'assunto piu semplice è che, su scala cosmica ma anche a livello di siste­ ma solare e di mela in caduta libera, l'unica forza impor­ tante capace di influenzare i corpi sia la gravità, e che si ap­ plichino non soltanto la legge di Newton della gravitazione universale ma anche le sue leggi del moto. Se poi ammettia­ mo che su scala sufficientemente grande la distribuzione della materia nell'universo sia omogenea, e ignoriamo i fa­ stidiosi intralci concettuali legati a quanto avviene ai mar­ gini (il cosiddetto modello pseudo-newtoniano), il proble­ ma idealizzato in questi termini si risolve nella soddisfa­ cente conclusione che l'universo ha avuto un « inizio », cioè un momento in cui tutte le galassie erano ammassate una a ridosso dell'altra in un inconcepibile addensamento di materia; ovvero, con maggior precisione, un momento

n8

CAPITOLO TERZO

prima del quale le nostre approssimazioni risultano inutili e non ci consentono di capire che cosa sia realmente acca­ duto (cfr. oltre). L'« età dell'universo » determinata per questa via è dello stesso ordine di grandezza del tempo di Hubble, anche se con qualche differenza: approssimativa­ mente dieci miliardi di anni. Questo è un dato di grande in­ teresse. Si ha motivo di credere che alcuni elementi pesanti trovati nella crosta terrestre si siano formati piu o meno al­ l'epoca del consolidamento del pianeta, cominciando poi a decadere radioattivamente. Sulla base della loro attuale concentrazione e di quella dei loro prodotti di decadimen­ to si può indicare per la Terra un'età non inferiore, ma co­ munque non di molto superiore ai cinque miliardi di anni. D'altra parte lo studio dei processi esoenergetici porta a fissare intorno ai dieci miliardi di anni l'età della maggio­ ranza delle stelle. L'apparente convergenza di queste cifre dà quindi maggior credito alla nostra semplice stima del­ l'età dell'universo. Cosa accadrà domani? L'universo continuerà a espan­ dersi indefinitamente? Nell'ambito del modello pseudo­ newtoniano si prospettano tre possibilità: 1) L'espansione rallenta ma si mantiene al disopra di un certo valore positi­ vo che definisce la velocità minima di recessione delle ga­ lassie, qualunque sia la loro lontananza e per quanto ci si proietti nel futuro. 2) L'espansione resta positiva ma ten­ de asintoticamente a zero, per cui ci si avvicinerà sempre piu a una situazione statica. 3) L'universo raggiunge un massimo di dimensione (o meglio di espansione; cfr. oltre) e inizia subito dopo a contrarsi sino a tornare a una condi­ zione di densità infinita simile a quella da cui aveva inizia­ to la sua avventura dieci miliardi di anni fa (quanto al do­ po - supposto che vi sia un « dopo » - ognuno è libero di far le sue congetture). Quale di questi tre scenari troverà attuazione dipende dalla densità che ha oggi l'universo. Se la densità è esattamente uguale al cosiddetto valore critico, o di « chiusura» - circa 2 x w-29 grammi per centimetro eu-

L'UNIVERSO: STRUTTURA ED EVOLUZIONE

Il 9

bo - si realizzerà il secondo scenario; se è minore, il primo; se è maggiore, il terzo. Il repertorio dei costituenti del co­ smo sinora osservati (cfr. sopra) segnala una densità ap­ prossimativamente pari all'r o 2 per cento del valore di chiusura; se è questa la densità reale, allora l'universo è de­ stinato a espandersi per sempre. Vi è però il fondato so­ spetto che all'appello manchi una frazione non trascurabi­ le della massa totale (la « materia oscura » di cui si è detto) e che la densità effettiva sia almeno il ro per cento di quella critica e magari addirittura uguale ad essa. Purtroppo, e non è certo l'unico caso in cosmologia, la fragilità di una sola trave portante mette in crisi l'intero edificio. La densi­ tà critica è inversamente proporzionale al quadrato del tempo di Hubble ed è perciò essa stessa soggetta a incer­ tezza per un fattore all'incirca pari a quattro. In definitiva, allo stato attuale delle cose non ci è possibile stabilire se la densità sia inferiore, superiore o uguale al valore di chiu­ sura. Un altro ovvio quesito si dev'essere affacciato alla mente del lettore: l'universo si estende all'infinito o è limitato da una sorta di steccato al di là del quale regna, in senso lette­ rale, il nulla? Il motivo per cui finora non ho toccato l'argo­ mento è che la natura stessa del problema ha subito un cambiamento radicale per effetto della concezione dello spazio-tempo su scala cosmica che scaturisce dalle teorie della relatività ristretta e generale, che ora è giunto il mo­ mento di affrontare. Spazio e tempo erano per Newton - il primo a dare con­ cretezza alla meccanica dei corpi extraterrestri - concetti assoluti: esisteva un unico sistema di riferimento per misu­ rare la posizione nello spazio - quello delle stelle fisse - e altresi un'unica scala temporale. Arbitraria era, s'intende, la scelta dell'origine dello schema di riferimento spaziale e dell'istante « iniziale », ma tutto il resto aveva caratteristi­ che obbligate: la distanza tra punti nello spazio e l'interval­ lo tra punti nel tempo erano nozioni definite in modo uni-

120

CAPITOLO TERZO

voco e privo di ambiguità. A dire il vero, molto prima di Newton, Galileo si era reso conto, in un contesto terrestre, della natura relativa del sistema spaziale di riferimento, os­ servando, ad esempio, che su una nave (o, come probabil­ mente si direbbe oggi, un'astronave) in moto uniforme i fe­ nomeni meccanici apparirebbero non diversi da quelli re­ gistrati in un sistema di riferimento stazionario (ben diver­ sa sarebbe la situazione se questo stesse invece acceleran­ do; chiunque è in grado di riconoscere la frenata o la virata di un aeroplano) . Il sistema di riferimento spaziale è dun­ que in questo senso arbitrario; e, in particolare, la distanza tra due eventi che accadano in momenti diversi dipenderà dall'osservatore. I passeggeri di un velivolo hanno l'im­ pressione che le luci alari a intermittenza si accendano di notte sempre nello stesso punto, mentre un osservatore a terra ne scorge i bagliori in punti differenti. Ma Galileo, Newton e i loro successori per duecento anni non dubita­ rono che gli intervalli temporali fossero inequivocabili e in­ dipendenti dall'osservatore: chi si trova al suolo, tenuto conto del tempo impiegato dalla luce per raggiungerlo, dovrebbe captare i lampi con la stessa cadenza di chi è a bordo. Sviluppatasi la teoria dell'elettromagnetismo nel corso del xrx secolo e assodato che la luce era un'onda elettro­ magnetica, divenne impresa sempre piu ardua conciliare queste novità con ciò che si sapeva della propagazione del­ la luce. Segnatamente, quasi tutte le osservazioni speri­ mentali sembravano avvalorare l'ipotesi che i fenomeni elettromagnetici, non meno di quelli meccanici, fossero gli stessi in qualsiasi sistema di riferimento, e in special modo che la velocità della luce non fosse subordinata al moto re­ lativo (uniforme) di un osservatore rispetto alle stelle fisse. Una considerazione, quest'ultima, alquanto difficile da ar­ monizzare alla natura assoluta del tempo. Si prenda ad esempio un bagliore emesso sul muso di un velivolo e rice­ vuto in coda. Data la velocità finita della luce, nel periodo

L'UNIVERSO: STRUTTURA ED EVOLUZIONE

I2I

intercorrente tra diffusione e ricezione il velivolo si sarà sia pur di poco spostato, per cui la separazione spaziale tra i due eventi sarà percepita in modo difforme da un passeg­ gero e da un osservatore al suolo, che si suppone però con­ cordino per quanto attiene lo iato temporale. Ad ogni buon conto, essi trarranno conclusioni dissimili sulla veloci­ tà della luce - in manifesta contraddizione all'esperimento. Se dunque la velocità della luce è identica per tutti gli osser­ vatori (animati di moto uniforme), non sarà loro possibile mi­ surare gli stessi intervalli temporali tra i due eventi. (A rischio di scivolare nel banale, tengo a precisare che, nonostante la laconicità dell'argomentazione, mi aspetto che il lettore l'accetti, per il semplice motivo che entrambi abbiamo usufruito di ottant'anni di indottrinamento, con­ scio o inconscio, in teoria della relatività. Si debbono però comprendere le perplessità dei fisici sul finire del XIX seco­ lo e nel primo decennio del xx, e giustificare quelli che ai nostri occhi appaiono veri e propri contorsionismi intellet­ tuali. Chi ci dice che tra cent'anni non sembri altrettanto astrusa piu d'una delle mode attuali in cosmologia e fisica delle particelle?) Come tutti sanno, Einstein recise il nodo gordiano con la sua teoria della relatività ristretta nel 1 905 . Questa teo­ ria, incentrata sulla connessione tra fenomeni fisici in rife­ rimento a osservatori che si muovono di moto uniforme l'uno rispetto all'altro, si può cosi compendiare: si, la velo­ cità della luce è uguale per tutti gli osservatori; e no, essi in generale non misurano lo stesso intervallo temporale tra due eventi, M, non piu di quanto misurino lo stesso inter­ vallo spaziale, .1x. Di fatto, questi intervalli sono intima­ mente correlati e una loro combinazione è anzi identica per tutti gli osservatori: •

(.1x)2 - c z(M)z dove c, la velocità della luce, è una costante universale (3 x ro8 metri al secondo) . (Di conseguenza se .1x è mag-

!22

CAPITOLO TERZO

giore (minore) di cM per un osservatore, lo sarà per tutti gli altri) . La teoria della relatività ristretta ha numerose implica­ zioni ben note, che in parte abbiamo già tratteggiato nel primo capitolo. Tra queste: che massa ed energia sono in­ tercambiabili; che è impossibile accelerare un corpo di massa finita alla velocità della luce; che nessun effetto cau­ sale può propagarsi piu rapidamente della luce; per cui due eventi separati di uno spazio dx e di un tempo M tali che dx > cdt non possono influenzarsi reciprocamente (si dice che la coppia di eventi presenta una « separazione­ spazio ») ; e che un processo realizzantesi in un sistema lan­ ciato ad alta velocità rispetto alla Terra (ad esempio reazio­ ni di decadimento di un muone nei raggi cosmici) sembra, visto dalla Terra, «rallentare ». Queste previsioni (quanti­ ficate a livello teorico) sono state tutte ripetutamente veri­ ficate e confermate in laboratorio, talora in modi spettaco­ lari. Ad esempio, grazie ai moderni orologi atomici è stato possibile dare convalida sperimentale al famoso « parados­ so dei gemelli», secondo il quale un individuo (o quanto meno un orologio) che compia un viaggio spaziale invec­ chierebbe meno di un suo coetaneo rimasto a casa. Non si corre il rischio di esagerare affermando che la relatività speciale costituisce la tessera piu solida del mosaico della fisica moderna, il tassello cui la maggior parte dei ricerca­ tori rinuncerebbe piu malvolentieri (cfr. cap . v). In tutt'altra situazione versa la teoria della relatività ge­ nerale, formulata, sempre da Einstein, nel 1 9 16. Nella mec­ canica newtoniana il concetto di massa di un oggetto gioca su due fronti: definisce l'accelerazione impressa da una forza esterna («la forza è uguale al prodotto della massa per l'accelerazione ») ed esprime la forza esercitata sull'og­ getto dalla gravità. È opportuno distinguere questi due aspetti del concetto ricorrendo alla terminologia « massa inerziale » e « massa gravitazionale ». Già a Galileo risulta-

L'UNIVERSO: STRUTTURA ED EVOLUZIONE

123

va che tra le due vi fosse uguaglianza o, per meglio dire, proporzionalità, come dimostra la storia (quasi certamente apocrifa) delle palle di piombo di varia grossezza lasciate cadere simultaneamente dalla Torre di Pisa: proprio in forza di quella proporzionalità si può dichiarare che in as­ senza di attriti le palle subirebbero la medesima accelera­ zione e dunque colpirebbero il terreno nello stesso istante. Nei tre secoli seguenti l'equivalenza tra massa inerziale e gravitazionale rimase sostanzialmente un punto fermo, ma Einstein ne fece il caposaldo di una nuova concezione del­ lo spazio e del tempo, osservando che - essendo tutti i cor­ pi soggetti alla stessa accelerazione - un individuo in cadu­ ta libera in un campo gravitazionale uniforme non avrebbe modo, utilizzando solo esperimenti di meccanica, di esclu­ dere di stare galleggiando nello spazio vuoto senza risenti­ re l'azione di alcuna forza (a cinquant'anni di distanza que­ sto fenomeno avrebbe trovato applicazione pratica nel­ l'addestramento degli astronauti al volo lunare « in assenza di gravità » simulando una caduta libera nel campo gravita­ zionale terrestre. A onor del vero non si sfrutta il principio in sé, ma un suo corollario: in un sistema su cui si eserciti esclusivamente una forza gravitazionale i fenomeni sono indipendenti da quanto questa sia intensa o debole; in rot­ ta verso la Luna non si ha un'assoluta assenza di gravità, ma comunque una gravità molto ridotta). Poi, con uno di quei balzi concettuali cosi tipici del suo pensiero, egli po­ stulò che quello stesso sperimentatore non avrebbe modo di attribuire il suo stato alla gravità piuttosto che all'accele­ razione. È quello che gli studiosi chiamano principio di equivalenza. Poiché senza dubbio avrebbe a disposizione strumenti ottici, ne consegue immediatamente che il per­ corso della luce dev'essere « incurvato » da un campo gra­ vitazionale. Si immagini un ricercatore intento a compiere esperimenti ottici su un ascensore in caduta libera. Doven­ dosi supporre che egli non sia in grado di stabilire se si tro­ va o meno in assenza di gravità e tenuto presente che nello

124

CAPITOLO TERZO

spazio vuoto la luce viaggia certamente in linea retta, i rag­ gi luminosi gli appariranno rettilinei; facendo ad esempio passare un fascio ben collimato attraverso tre successive fi­ nestrelle intervallate con regolarità, le loro posizioni saran­ no da lui registrate su una medesima linea, che per como­ dità possiamo supporre orizzontale. Ma la luce impiega un certo tempo a spostarsi tra le aperture, per cui un osserva­ tore al suolo, essendo l'ascensore in movimento rispetto al­ la superficie terrestre, non durerà fatica a riconoscere che le fenditure avevano posizioni verticali differenti. Per giunta l'ascensore è dotato di moto non uniforme ma acce­ lerato, cosicché la distanza verticale misurata dall'osserva­ tore tra la seconda e la terza apertura al momento del pas­ saggio della luce sarà maggiore che non quella tra la prima e la seconda. La traiettoria dei raggi luminosi non potrà perciò risultargli rettilinea: aumentando il numero delle fi­ nestrelle (in modo da poter rilevare il percorso punto per punto) e con l'aiuto di un po' di geometria elementare di­ venta evidente che il tragitto dev'essere un arco di cerchio 2 di raggio c lg, dove c è la velocità della luce e g l'accelera­ zione locale dovuta alla gravità. In pratica anche il raggio luminoso « cade » nel campo gravitazionale, esattamente come una comune particella ! Dal momento che c è circa 3 x 108 metri al secondo e g sulla superficie terrestre va­ le pressappoco w metri al secondo per secondo, il « raggio di curvatura » della traiettoria (il raggio del cerchio di cui è un segmento : da non confondere con la curvatura lo­ cale dello spazio; cfr. oltre) è vicino a w 16 metri. Sulla su­ perficie del Sole, con un'accelerazione gravitazionale tren­ ta volte superiore a quella terrestre, il corrispondente rag­ gio di curvatura dovrebbe essere approssimativamente 3 x 1014 metri. Essendo questo valore molto maggiore del raggio del Sole e diminuendo rapidamente l'accelerazione via via che ci si allontana, una radiazione luminosa prove­ niente da una stella remota che si avvicini radente al Sole dovrebbe subire una deviazione minima (meno di 2 secon-

12 5

L'UNIVERSO: STRUTTURA ED EVOLUZIONE

di d'arco). L'osservazione sperimentale di questo effetto (durante l'eclisse solare del 1919) fu una delle prime e piu straordinarie conferme della relatività generale. Una seconda conseguenza del principio di equivalenza è il red-shift gravitazionale. Si supponga che dal tetto di un ascensore, libero di muoversi in un campo gravitazionale (diciamo quello terrestre) esprimente un'accelerazione g, al momento della partenza venga emesso un lampo di luce che sarà captato sul pavimento dopo aver coperto una di­ stanza d. Il tempo necessario alla luce per superare d sarà d/c; nel frattempo l'ascensore avrà acquistato una velocità, v, verso il basso pari a gd/c. Ciò significa che un osservatore dentro l'ascensore constaterà uno spostamento Doppler; in base al ragionamento sopra esposto (adeguato ai nostri fini), se v è piccolo la frequenza apparente risulterà abbas­ sata di una frazione v/c. D'altra parte, in obbedienza al principio di equivalenza gli dovrebbe essere impossibile accertare di non trovarsi (insieme all'ascensore) in assenza di gravità - ma in quel caso certamente non percepirebbe uno spostamento ! Siamo perciò costretti a presumere l'esi­ stenza di una compensazione di frequenza verso l'alto uguale a v/c, dovuta al fatto che il potenziale gravitazionale è minore (piu negativo) nel punto di rilevamento che nel punto di emissione. Un osservatore statico rispetto alla Terra percepirà questo aumento di frequenza ma non la di­ minuzione conseguente all'effetto Doppler e vedrà perciò la luce « spostata verso il blu » di una frazione v/c gd!c 2• All'opposto, una luce irradiata alla superficie evidenzierà a un'altezza d uno spostamento verso il rosso pressoché cor­ rispondente - donde l'espressione « red -shift gravitaziona­ le ». Alla quota di 300 metri lo spostamento è soltanto di circa I parte su 3 x I012 , ma è comunque stato misurato sperimentalmente. Sino ad ora abbiamo dato per dimostrato che l'accelera­ zione gravitazionale nella regione che ci interessa sia co­ stante, in intensità e direzione. In queste condizioni il prin=

I26

CAPITOLO TERZO

cipio di equivalenza stabilisce che è sempre possibile sco­ vare un sistema di riferimento (quello in caduta libera) in cui le cose si presentino come si presenterebbero nello spa­ zio libero. In un certo senso gli effetti che abbiamo men­ zionato (curvatura del percorso di un raggio luminoso e red-shift gravitazionale) potrebbero essere considerati un'illusione prodotta dalla nostra scelta perversa di uno schema di riferimento non libero di accelerare sotto l'im­ pulso della gravità (esattamente come tendiamo a giudica­ re ingannevole la forza apparente esercitata su un carrello portabagagli, o su noi stessi, in un treno che stia acceleran­ do lungo la superficie terrestre, senza intervento della gra­ vità). Tuttavia, se l'accelerazione imputabile alla gravità non fosse uniforme nello spazio o nel tempo, in generale non sarebbe possibile trasformare tutti questi effetti inse­ rendosi in un sistema di coordinate in caduta libera locale. Una situazione di questo genere si verifica nei pressi di un oggetto massiccio, in quanto l'accelerazione gravitazionale è ovunque rivolta verso il baricentro dell'oggetto e non può perciò essere uniforme nello spazio. In siffatte condi­ zioni la relatività generale asserisce che la presenza dell'og­ getto massiccio « incurva» o « deforma» il continuum spa­ zio-temporale. L'idea di uno spazio curvo o, peggio ancora, di uno spa­ zio-tempo curvo è piuttosto astrusa e contraria a quello che ci suggerirebbe l'intuito. Comunque vediamo di offrir­ ne una delucidazione. Se raffrontiamo la superficie di un tavolo e di un pallone, balza subito agli occhi che, in base alle definizioni abituali, l'una è « piatta » e l'altra « curva ». La distinzione ci appare però ovvia solo perché viviamo in uno spazio tridimensionale e ci è agevole assodare che il pallone ne racchiude una porzione definita (usando una terminologia piu tecnica, possiamo constatare che la di­ pendenza della coordinata z, poniamo, di un punto della superficie dalle altre due, x e y, è completamente diversa nei due casi) . Ma se fossimo formiche cieche annaspanti

L'UNIVERSO: STRUTTURA ED EVOLUZIONE

127

sulla superficie del tavolo o del pallone e non avessimo per­ ciò alcun sospetto dell'esistenza di una terza dimensione, saremmo in grado di stabilire se il nostro « spazio » bidi­ mensionale è piano o curvo? Ebbene si: ad esempio, ap­ prontando il seguente esperimento. Prendiamo un pezzo di spago, incalliamone un capo in un punto sulla superfi­ cie, fissiamo una matita all'altro capo e, tenendo lo spago premuto contro la superficie, muoviamo la matita in modo da tracciare un cerchio. Sciogliamo poi lo spago e dispo­ niamolo lungo il perimetro del cerchio, ripetendo il proce­ dimento cosi da scoprire quante volte sta nella circonfe­ renza - in tal modo si misura il rapporto tra la circonferen­ za e il raggio. Se l'esperimento viene eseguito sul tavolo piano, si ottiene ovviamente 21t; sul pallone invece si ha un valore comunque minore di 27t e relativo alla lunghezza dello spago: via via che questa si approssima alla metà della circonferenza del pallone, il perimetro del cerchio tende ad annullarsi! Se effettuassimo lo stesso esperimento su una superficie a forma di sella, il rapporto sarebbe maggio­ re di 27t (si dice che questo tipo di superfici ha curvatura negativa). Con questo sistema potremmo non soltanto sta­ bilire se il nostro spazio bidimensionale era curvo, ma ad­ dirittura calcolare il raggio di curvatura. Consimili principi si applicano anche nello spazio tridi­ mensionale, sebbene risulti molto piu arduo farsene un quadro intuitivo. Lo spazio euclideo « piano » che ci è cosi familiare - per intenderei, dove due rette parallele non si incontrano mai e la somma degli angoli di un triangolo è sempre r8o gradi - in realtà è un caso particolare di uno spazio « curvo » molto piu generalizzato, capace in linea di principio di assumere localmente una curvatura positiva o negativa, grossomodo corrispondente al pallone o alla sella in due dimensioni '. (Si noti che questa possibilità era stata 3 In uno spazio di curvatura (locale) positiva la superficie di una sfera è meno di volte il quadrato del suo raggio (proprio come la circonferenza di un cerchio nel corrispondente caso bidimenisonale è meno di 27t volte il suo raggio); in uno spazio di curvatura negativa è maggiore.

4"

!28

CAPITOLO TERZO

prevista quasi un secolo prima di Einstein dal matematico tedesco Gauss, il quale misurò con precisione, a credere al­ l'aneddotica, gli angoli di un grande triangolo formato da tre picchi montani per verificare se assommassero a 180° ­ con risultati, dobbiamo dire, piuttosto brillanti). Una pre­ dizione essenziale della teoria della relatività generale è che la curvatura dello spazio (piu esattamente, dello spazio­ tempo) sia condizionata alla distribuzione della materia (massa) circostante; in particolare, nelle adiacenze di un corpo massiccio (come la Terra o il Sole) lo spazio ha una leggera curvatura negativa proporzionale alla massa. La deformazione è minima, essendo il raggio di curvatura in prossimità del Sole valutabile in 5 x I011 metri, ovvero circa 350 volte il diametro solare. Ciononostante le sue conse­ guenze non sono trascurabili: è in parte responsabile della documentata precessione del perielio di Mercurio - il fe­ nomeno per il quale il punto in cui l'orbita del pianeta è piu vicina al fuoco (perielio) ruota gradualmente attorno al So­ le rispetto alle stelle fisse (il resto dell'effetto è legato esclu­ sivamente alla relatività ristretta) - e influenza altresf l'in­ curvamento della luce di cui abbiamo parlato. Nel caso di masse molto maggiori di quella solare sono preventivati ef­ fetti ben piu spettacolari (cfr. oltre) . I tre test « classici » della realtività generale - il red -shift gravitazionale, la deflessione della luce in un forte campo gravitazionale e la precessione del perielio di Mercurio chiamano in causa effetti quasi impalpabili e comunque non mancano teorie alternative in grado di spiegare i dati che si sono accumulati. L'eleganza concettuale e la sempli­ cità della teoria di Einstein emanano però un tale fascino che sin dal suo apparire nel 1916 essa ha assunto il ruolo di candidato eccellente a una teoria generale dello spazio­ tempo e della gravitazione (recentemente sono state esco­ gitate nuove verifiche, che in linea di massima hanno dato risultati corroboranti). Se annettiamo alla teoria validità universale, nulla ci impedisce di estrapolarla ben oltre il si-

L'UNIVERSO: STRUTTURA ED EVOLUZIONE stema solare (nel cui ambito ha ricevuto piu di una confer­ ma diretta), coinvolgendo il cosmo intero; laddove questa estrapolazione presenta conseguenze controllabili - ad esempio, nella dinamica di certe stelle binarie - appare se non altro coerente con le osservazioni. I modelli consentiti dalla relatività generale per la strut­ tura spazio-temporale dell'universo sono numerosi e varie­ gati, né si può dire che siano stati esplorati a fondo; ma al­ cuni, studiati meglio degli altri grazie alla loro particolare semplicità, sembrano compatibili con le nostre attuali co­ noscenze. Questi modelli, caratterizzati da una distribu­ zione di materia omogenea su scala globale, propongono un universo in espansione secondo tre possibili modalità, corrispondenti alle tre alternative indicate nella teoria pseudo-newtoniana. Primo modello : l'universo è infinito in estensione spaziale, possiede curvatura negativa ed è de­ stinato a espandersi indefinitamente (nel senso che la di­ stanza apparente tra due galassie qualsiasi aumenterà nei secoli dei secoli, con una velocità di espansione non ten­ dente a zero) . Questo universo viene definito «aperto ». Secondo modello: l'universo è infinito, ma di geometria « euclidea »; insomma, vale la nostra esperienza quotidia­ na. In questo caso la velocità d'espansione con l'avanzare del tempo diminuirà asintoticamente verso lo zero. Questo tipo di universo è chiamato « piatto ». Terzo modello: l'u­ niverso presenta curvatura positiva, ha dimensioni finite, pressappoco come un pallone, e rallenterà progressiva­ mente la sua espansione per arrestarsi infine in un dato momento del futuro e poi cominciare a contrarsi. A questo universo si dà il nome di « chiuso ». n comportamento del­ l'espansione rispetto al tempo (rilevato da un osservatore in moto con la sua galassia locale) risulta, piuttosto sor­ prendentemente, identico a quello previsto dalla teoria pseudo-newtoniana; e del resto i tre casi equivalgono ri­ spettivamente a una densità attuale minore, uguale o mag­ giore della densità di chiusura critica (2 x w-29 grammi

CAPITOLO TERZO per centimetro cubo) . Come abbiamo già messo in eviden­ za, i contenuti osservabili dell'universo dànno una densità dell'ordine dell'I o 2 per cento di questa cifra, per cui in as­ senza di materia oscura l'universo sarebbe aperto e infi­ nito. Prima di passare a un nuovo argomento, diamo un rapi­ do sguardo ad altre due predizioni della relatività genera­ le. La prima, in realtà non peculiare al pensiero einsteinia­ no ma condivisa da altre teorie sulla gravitazione, è l'esi­ stenza di onde gravitazionali. Come nell'elettromagneti­ smo una carica elettrica oscillante produce onde elettro­ magnetiche che si allontanano dalla sorgente alla velocità della luce, c, e agiscono poi su cariche distanti, cosi si pre­ sume che una distribuzione oscillante di massa debba pro­ durre onde gravitazionali (una deformazione della struttu­ ra locale spazio-temporale) in movimento centrifugo alla velocità c e rivelabili in linea di principio grazie alla forza esercitata su masse remote. In realtà si tratta di una forza ridottissima, per cui anche l'esplosione abbastanza violen­ ta di una supernova in una stella relativamente vicina pro­ durrebbe onde individuabili sulla Terra soltanto con stru­ menti di estrema sensibilità; cionondimeno sono oggi in corso molti esperimenti per cercare di « catturare » queste onde. Un secondo, piu vistoso fenomeno previsto dalla teoria della relatività generale è l'esistenza di buchi neri. L'e­ spressione « buco nero » evoca immagini sinistre e allar­ manti (una volta in una libreria mi capitò di vedere un sag­ gio su questo tema inserito tra le opere di fantascienza e horror! ) , ma alla fin fine descrive una spettacolare defor­ mazione della topografia spazio-temporale ad opera di una massa concentrata, di per se stessa abbastanza innocua. Abbiamo sottolineato che una luce emessa da una sorgente stazionaria in un potenziale gravitazionale debole (negati­ vo) viene percepita spostata verso il rosso da un osservato­ re anch'esso statico ma in un potenziale piu elevato; ciò

L'UNIVERSO: STRUTTURA ED EVOLUZIONE equivale a dire che se la sorgente emette, per mezzo di «orologi » propri, ro16 creste d'onda al secondo, l'osserva­ tore le capterà in un tempo sia pur di poco maggiore e avrà quindi l'impressione che gli orologi «vadano indietro ». Ci si può allora domandare: se fosse possibile ridurre senza li­ miti il potenziale gravitazionale - cioè renderlo sempre pili negativo -, il red-shift della radiazione ricevuta da un os­ servatore remoto potrebbe essere portato a una lunghezza d'onda infinita? In altre parole, si potrebbe arrivare a una situazione in cui l'osservatore abbia motivo di credere a un arresto degli orologi della sorgente? A questa domanda la teoria della relatività generale suggerisce una risposta posi­ tiva, indicando in -r/2c 2 il potenziale gravitazionale neces­ sario. Dal momento che un oggetto di massa M e raggio R esprime un potenziale gravitazionale pari a -GMIR, dove G è la costante di gravitazione universale, dev'essere R = 2 GMIc2 ; il raggio R cosi definito prende il nome di « rag­ gio di Schwarzschild ». Per un corpo della massa della Ter­ ra, vale circa I centimetro, e per il Sole approssimativa­ mente 3 chilometri, valori comunque molto piu piccoli delle dimensioni fisiche reali. Poiché la formula del poten­ ziale gravitazionale si applica soltanto quando la massa è concentrata entro un raggio minore di R, il raggio di Schwarzschild non ha alcun significato fisico. Tuttavia la teoria prevede che il raggio di Schwarzschild ecceda quello reale per un oggetto che abbia la densità di una tipica stella a neutroni e una massa non molto pili grande di quella del Sole. Ne consegue che un osservatore remoto registrerà una graduale diminuzione di frequenza dei segnali emessi a frequenza costante e scandita dagli orologi di bordo da un veicolo spaziale (ad esempio) lanciato in direzione di un oggetto con queste caratteristiche; di piu, via via che ci si approssima al raggio di Schwarzschild, la frequenza dei se­ gnali ricevuti tenderà a zero, per cui (all'osservatore) parrà che la navicella impieghi un tempo infinito a valicare quel­ la barriera. Viceversa un astronauta sulla capsula non note-

CAPITOLO TERZO rà alcunché di particolare nell'attraversare il raggio di Schwarzschild: infatti, lui dall'interno continua a emettere segnali - che però non raggiungeranno mai l'osservatore. Con una scusabile concessione al pittoresco, si usa dire che neppure la luce può uscire da un buco nero. (Si noti, a que­ sto riguardo, la connessione con il citato fenomeno di in­ curvamento della luce: il raggio di Schwarzschild è esatta­ mente il punto nel quale il raggio di curvatura della traiet­ toria luminosa diventa uguale al raggio del corpo celeste, per cui il percorso di un raggio tangenziale all'oggetto mas­ siccio è un cerchio. Interessante è altresi constatare che alla medesima conclusione si perviene visualizzando la luce co­ me una particella classica che viaggi a velocità c e applican­ do la meccanica newtoniana: entro il raggio di Schwarz­ schild, la luce ha un'energia cinetica, rh mc 2, insufficiente alla fuga e rimane perciò intrappolata. Seguendo il filo di un ragionamento analogo, in realtà già nel XVIII secolo Mi­ chell e Laplace avevano dato corpo all'idea di un buco ne­ ro). Ne deriva la letterale impossibilità di «vedere » qual­ cosa all'interno di un buco nero (o meglio, all'interno del suo raggio di Schwarzschild), cosi chiamato proprio per questo motivo. Se non può evadere la luce, figuriamoci la materia. I buchi neri sono un'inevitabile conseguenza dell'esten­ sione di formule della relatività generale, ma si tratta di og­ getti reali? Anche se non disponiamo di prove conclusive, la comunità scientifica è orientata per il si. Tra le molte sor­ genti, quella che piu sembra adattarsi alle caratteristiche di un buco nero è Cygnus x-r nella costellazione del Cigno, una stella in una coppia di binarie in orbita attorno a una compagna, peraltro non rilevabile con i normali mezzi di analisi (ivi comprese le onde radio, i raggi X e via dicendo) . Questa compagna potrebbe essere un buco nero. Un' even­ tualità ancora piu eccitante è che i « centri attivi » osservati in alcune galassie (cfr. sopra) siano colossali buchi neri. Vi è addirittura chi è convinto che un possente buco nero

L'UNIVERSO: STRUTTURA ED EVOLUZIONE

133

si annidi proprio nel cuore della Via Lattea, a non piu di 30 ooo anni-luce dal sistema solare. Lasciamo ai nostri di­ scendenti il compito di verificare quest'ipotesi. A questo punto è giunta l'ora di affrontare la questione dell'evoluzione e genesi dell'universo ( « cosmogonia»). La situazione in cui ci si viene a trovare è la stessa di un ar­ cheologo che cerchi di ricostruire l'organizzazione di una civiltà scomparsa attraverso una manciata di cocci e manu­ fatti; quali che siano le nostre idee in merito a ciò che av­ venne « agli inizi », quasi certamente la gran parte degli og­ getti di un certo interesse allora formatisi è finita in nulla, o quanto meno è al di là della nostra percezione, !asciandoci nella migliore delle ipotesi un'accozzaglia di detriti difficili da comporre in un quadro organico. Prendendo però co­ me base la relatività generale, o piu precisamente i modelli piu elementari che ad essa fanno riferimento, e integrando­ la con la termodinamica classica è possibile trarre una de­ duzione di ordine generale: risalendo via via nel tempo ci si rende conto che l'universo dev'essere stato non soltanto progressivamente piu denso, ma anche piu caldo. Il raf­ . freddamento sopraggiunse con l'espansione, come succe­ de nei gas, e l'attuale temperatura della radiazione cosmica del corpo nero (circa 3 gradi assoluti) è il residuo di tempe­ rature enormemente piu elevate in passato. Quasi tutti i ri­ cercatori concordano nel ritenere che nei primissimi istan­ ti della sua esistenza la temperatura dell'universo dovesse essere non inferiore a ro32 gradi. Ora, noi sappiamo che ri­ scaldando la materia ordinaria ne provochiamo la graduale dissociazione in costituenti man mano piu elementari: i so­ lidi fondono e i liquidi che ne risultano evaporano; le mole­ cole si smembrano in atomi; questi, a loro volta, a poco a poco si ionizzano sino alla completa separazione di nuclei ed elettroni; e infine, se fossimo in grado di ottenere tem­ perature sufficienti, abbiamo ragione di sospettare che i nuclei si disgregherebbero in nucleoni, e i nucleoni in quark (e, chissà, potrebbero esserci altri livelli ancora ine-

1 34

CAPITOLO TERZO

splorati) . Arriviamo dunque a visualizzare l'universo pri­ mevo come una sorta di « zuppa » eccezionalmente calda e densa in cui i costituenti primordiali della materia esplodo­ no in direzione centrifuga da una densità inizialmente in­ finita. Questo « scenario » - parola in voga per definire un'immagine che non necessariamente sottintende una realizzazione concreta - viene chiamato dagli scienziati « big bang caldo ». Quale genere di evidenza possiamo esibire a favore del big bang caldo, a parte il fatto che l'estrapolazione delle equazioni della relatività generale e della termodinamica sembra ineluttabilmente condurre ad esso? Una prova ab­ bastanza convincente è offerta dalle attuali relative abbon­ danze degli elementi leggeri nell'universo, in particolare idrogeno, elio e i loro isotopi. Postulando, come sempre, la validità su scala cosmica delle leggi di fisica nucleare che abbiamo testata in laboratorio non è difficile calcolare la quantità di elio (e deuterio, l'isotopo pesante dell'idroge­ no) che dovrebbe essersi prodotta nella fase del big bang durante la quale nucleoni liberi cominciarono a conden­ sarsi in nuclei (il processo noto come « nucleosintesi ») ; i rapporti di abbondanza cosi ottenuti trovano ragionevole riscontro nei dati sperimentali. Oltre questo stadio, come vedremo tra breve, la matassa si fa un po' piu aggrovigliata. Probabilmente lo sviluppo piu notevole della fisica ne­ gli ultimi quindici anni è stata l'interazione sempre piu fruttuosa tra fisica delle particelle e cosmologia nel rappre­ sentare i primi istanti dell'universo. Man mano si è raffor­ zata l'idea che, se potessimo contare su una teoria attendi­ bile del comportamento della materia a energie, e quindi temperature ultraelevate, avremmo il mezzo di risalire nel tempo ben al di là dell'èra della nucleosintesi, spingendoci magari alle soglie di quei fatidici 10-43 secondi che segnaro­ no la nascita del cosmo. Di primo acchito si potrebbe pen­ sare che qualsiasi speculazione su epoche cosi primitive sia comunque avventata. L'esperienza sensibile ci induce a ri-

L'UNIVERSO: STRUTTURA ED EVOLUZIONE tenere che quanto piu la materia è concentrata tanto piu importanti sono gli effetti interattivi tra i costituenti (le azioni intermolecolari in molti casi sono trascurabili per un gas, mentre si rivelano determinanti per un solido) ; pare dunque sensato supporre che il comportamento della ma­ teria alle densità incredibilmente elevate allora vigenti sia complicato a dismisura e dipenda in modo decisivo dai particolari delle forze che agivano su nucleoni, quark o co­ stituenti piu elementari. Ciò che ha modificato le prospet­ tive, regalando plausibilità all'intero programma, è la cre­ scente sicurezza tra i fisici delle particelle che il comporta­ mento della materia a energie elevatissime sia in realtà piu semplice che non a basse energie; e specificamente che a energie abbastanza alte i costituenti della materia in un certo senso cessino del tutto di interagire (la cosiddetta li­ bertà asintotica descritta nel secondo capitolo). Insomma, l'universo nei suoi momenti iniziali potrebbe essere stato un luogo molto meno astruso di quanto fosse lecito con­ getturare. Negli ultimi dieci-dodici anni si è andata delinenado una rappresentazione dell'universo embrionale in cui tutte le possibili simmetrie erano operanti e la materia era scom­ posta nei suoi costituenti ultimi. Con l'espansione e il raf­ freddamento si verificò un progressivo collasso di simme­ tria - per prima la (proposta) simmetria che unifica le iute­ razioni deboli ed elettrodeboli, cosicché quark e leptoni perdono l'interscambiabilità (l'evento è collocabile attor­ no a 10-35 secondi dopo il big bang, con una temperatura dell'ordine di 1028 gFadi), poi la simmetria che unifica le in­ terazioni deboli ed elettromagnetiche (approssimativa­ mente a 3 x 10-7 secondi, con una temperatura di circa 10 15 gradi) ; e infine, pressappoco a 10- 5 secondi e ro 12 gradi, si ruppe anche la simmetria « traslazionale », nel senso che quark e gluoni cessarono di costituire un mare uniforme e principiarono a formare i nucleoni (neutroni, protoni e nu­ merose particelle instabili in rapido decadimento) . Di li a

CAPITOLO TERZO

poco entriamo nell'èra della nucleosintesi, sulla quale di­ sponiamo di un maggior numero di informazioni (cfr. so­ pra). Le pennellate sul quadro sono ricche di colore : è un po' come se dovessimo trascorrere l'intera esistenza nei confini di un solido cristallino regolare ritrovandoci in qualsiasi punto a rimirare una configurazione ordinata e le sue conseguenze, ma ciononostante fossimo in grado di dedurre che in origine gli atomi devono aver formato un gas o un liquido privo di periodicità. I particolari della trama sono fluidi, mutevoli via via che i ricercatori confermano o accantonano specifiche ipotesi inerenti il modo in cui le simmetrie si rompono nei singoli stadi; ma quasi tutte le versioni concordano nel prevedere che quei primissimi sconvolgimenti dovrebbero aver la­ sciato sul campo una congerie di scorie (monopoli, « strin­ ghe » cosmiche, o pareti di Bloch) aperte alla nostra osser­ vazione. (È come se, analizzando i difetti del cristallo in cui siamo costretti a vivere, potessimo capire come si è a suo tempo raffreddato dalla massa fusa) . Sembrerebbe dun­ que impresa a portata di mano verificare, attraverso l'inda­ gine delle scorie, quale degli scenari è corretto. Purtroppo, le cose non sono mai semplici come appaiono. Tanto per cominciare, in molti casi abbiamo un'idea alquanto ap­ prossimativa del «volto » con cui dovrebbero presentarsi questi detriti; talora anzi ci sovviene il dubbio che non sia­ no rilevabili. In secondo luogo, una modificazione della teoria che è andata acquistando vasta popolarità in questi ultimi anni (il cosiddetto modello inflattivo) avanza l'ipo­ tesi che in uno o piu momenti delle sue prime fasi evolutive l'universo abbia conosciuto un'espansione dirompente, molto piu rapida di quanto lascerebbe supporre un'estra­ polazione a ritroso della sua attuale dinamica, e che in con­ seguenza i detriti allora prodotti dalla rottura delle simme­ trie siano stati scagliati in massima parte oltre il piu lontano orizzonte oggi a noi visibile - un vero e proprio esempio cosmico di spazzatura nascosta sotto il tappeto! Inevitabi-

L'UNIVERSO: STRUTTURA ED EVOLUZIONE

1 37

le perciò che gli argomenti pro e contro versioni specifiche del panorama primigenio tendano a essere contorti e deci­ samente indiziati; mentre vado redigendo queste note non è chiaro quale finirà per prevalere. lpotizzando che il canovaccio tracciato sia in sostanza corretto, perché non riusciamo a ripercorrerlo sino all'i­ stante iniziale del big bang? La ragione risiede, almeno in parte, nella perdurante assenza di una sintesi accettata tra meccanica quantistica e gravità. Nella trattazione della re­ latività generale il campo gravitazionale (o meglio la cosid­ detta metrica spazio-temporale) è un campo né piu né me­ no come lo è quello elettromagnetico; rimane però il fatto che da quasi sessant'anni abbiamo imparato a quantizzare quest'ultimo, mentre continua a sfuggirei la corrisponden­ te procedura per il campo gravitazionale. Uno dei motivi va individuato nel fatto che le coordinate spaziali e tempo­ rali dell'elettromagnetismo sono semplici etichette dei punti in cui il campo è specificato e non creano problemi di misurazione; viceversa nella relatività generale la misura stessa della posizione del tempo è determinata dal campo in oggetto e, per soprammercato, la gravitazione presenta difficoltà tecniche particolari. Non si è perciò ancora riu­ sciti a mettere a punto una « gravità quantistica » che abbia raccolto consensi unanimi. Per fortuna la cosa non riveste soverchia importanza, ammesso che le fluttuazioni del campo gravitazionale siano piccole a fronte del suo valore medio (esattamente come di solito si possono trascurare gli effetti quantistici nei segnali elettromagnetici emessi da una stazione radio) . Questa condizione viene soddisfatta purché la scala dei fenomeni indagati sia grande rispetto alla cosiddetta lunghezza di Planck, una combinazione di costante di gravitazione universale, costante di Planck e velocità della luce corrispondente a circa w->> centimetri. Man mano che ci si addentra nel passato, la distanza che la luce, e quindi ogni eventuale influenza causale, potrebbe aver coperto a partire dalla scintilla iniziale si riduce pro-

CAPITOLO TERZO gressivamente. Superata la lunghezza di Planck, ovvero pressappoco ro-43 secondi dopo il big bang, tutto viene ri­ messo in discussione: anche i sostenitori a oltranza dell' ap­ plicabilità delle leggi fisiche conosciute sino a quel punto in generale concordano sul fatto che per descrivere l'uni­ verso nei primi ro-43 secondi della sua esistenza dovremo inventare un approccio completamente nuovo. A parte il problema della gravità quantistica, non è neppure assoda­ to se abbia senso parlare di un « inizio dell'universo » (e quindi, presumibilmente, di un « inizio del tempo ») . Dob­ biamo realisticamente riconoscere che adattando a un re­ motissimo passato le equazioni che crediamo oggi governi­ no l'universo si raggiunge un punto al di là del quale esse perdono di significato. Ma questo la dice lunga piu su di noi che sull'universo ! Riassumendo: in pratica tutto ciò che conosciamo, o pensiamo di conoscere, sul cosmo e sulla sua storia evoluti. va si basa sull'applicazione di leggi fisiche scoperte in labo­ ratorio a condizioni diverse per molti ordini di grandezza in densità, temperatura, distanza, e via discorrendo. Spera­ re per questa via di costruire un quadro provvisorio che abbia una ragionevole probabilità di coerenza è poco me­ no che sorprendente. Ad ogni modo, l'elenco delle cose fondamentali che ignoriamo a proposito dell'universo è scoraggiante. Tra l'altro, non abbiamo idea di che cosa (per la maggior parte) sia fatto, se sia finito o infinito, se realmente abbia un inizio e se avrà una fine. È evidente che ci resta molta strada da percorrere.

Capitolo quarto Fisica su scala umana

Se dovessimo fare un censimento della materia che per quanto ci risulta compone l'universo, ci renderemmo con­ to che in gran parte essa assume la forma di un gas interga­ lattico incredibilmente diluito (con una densità di forse un atomo per metro cubo, di gran lunga inferiore a quella conseguibile in laboratorio con le migliori tecniche del vuoto) o di un costituente stellare, nel qual caso è in genere caldissima o densissima o entrambe le cose. La frazione di materia che si trova alla temperatura e alla densità giuste per modellare solidi, liquidi o anche gas quali ci sono noti sulla Terra è inverosimilmente minuscola: diciamo una parte su ro11• Eppure non si rischia di sbagliare affermando che sulla materia in queste fasi - la cosiddetta fisica della materia condensata - sono impegnati piu studiosi che su tutte le altre branche della fisica tJ?.esse insieme. Perché? Alcune ragioni palesi, sono poco significative nell'ottica di questo libro: il campo d'indagine della materia condensata è quello che siamo piu abituati a esplorare, visto che le no­ stre attuali conoscenze della materia a livello atomico han­ no per la maggior parte tale matrice; è economico e può es­ sere affrontato da singoli ricercatori o piccoli gruppi, in luogo delle centinaia di specialisti talora necessari per un esperimento di fisica delle particelle; e, superfluo aggiun­ gere, rappresenta la piu importante - se non l'unica, in un contesto allargato - area della fisica che prometta grosse ri­ cadute tecnologiche. Tuttavia nessuna di queste cause in-

CAPITOLO QUARTO

cide direttamente sulla sfida intellettuale della fisica della materia condensata. Qualche anno addietro Sheldon Glashow, autorevole fisico delle particelle, replicando a chi suggeriva che i fondi necessari per la costruzione di un nuovo grande accelera­ tore potessero dare frutti piu copiosi se ripartiti tra varie discipline come la fisica della materia condensata, ammise l'esistenza di «teorie importanti » in questi campi, ma pun­ tualizzò: « Sono davvero fondamentali? Non è che nasca­ no da un complesso interscambio tra un gran numero di atomi, illustrato nei piu minuti dettagli da Heisenberg e so­ ci molto tempo fa? »'. La mentalità implicita in queste do­ mande manifestamente retoriche è assai diffusa e poggia su almeno due presupposti: primo, che lo studio della mate­ ria condensata non possa di per sé portare alla scoperta di nuove leggi naturali, per il semplice motivo che in linea di principio il comportamento di tale materia dipende da quello dei suoi costituenti atomici o subatomici; e secon­ do, che, stando cosi le cose, l'investigazione della materia complessa non può essere « fondamentale » (ovvero, per induzione, interessante o meritevole di sostegno) quanto l'indagine dei costituenti stessi: in parole povere, un'attivi­ tà al confronto insignificante. Debbo dire che entrambi i presupposti mi sembrano discutibili. La critica del primo richiede il porsi in un'ottica non del tutto ortodossa; prefe­ risco rimandarla all'ultimo capitolo, accontentandomi per ora di passare al vaglio il secondo. In che senso si può dire che lo studio di particelle isolate (siano esse atomi, nucleoni, quark o quant'altro) è piu o meno fondamentale dello studio del loro comportamento collettivo in un solido o in un liquido? Al soccorso viene un'analogia tratta dalle scienze sociali. Pochissimi sareb­ bero disposti a sostenere sino in fondo che sia realistico sperare di comprendere la psicologia sociale di un'intera 1 S. L. Glashow, in «Physics Today», febbraio r986,

p.

rr.

FISICA SU SCALA UMANA

nazione limitandosi a osservare il comportamento di sin­ goli individui, o anche di coppie, analizzate in isolamento dal resto della società (si pensi a un «laboratorio » costitui­ to da un'isola deserta). Infatti è poco verosimile che i rap­ porti tra due individui, a qualsiasi livello, non siano pro­ fondamente influenzati dall'ambiente sociale in cui si svi­ luppano. Di conseguenza, sociologi e psicologi sociali han­ no elaborato teorie del comportamento umano collettivo che in un certo senso sono autonome e non hanno attinen­ za (o almeno, non obbligatoriamente) con il tipo di infor­ mazioni che si potrebbe estrarre dallo studio di un indivi­ duo isolato, o anche dalle interazioni di coppie o piccoli gruppi. Se quest'impostazione è necessaria nell'esame del com­ portamento comunitario dei 108 esseri umani che grosso­ modo compongono una nazione, perché dovrebbe esserlo meno nello studio dei ro16 atomi o giu di H che formano un granello di polvere, per non parlare di un piccolo organi­ smo biologico? È diffuso il pregiudizio che sotto questo ri­ guardo la fisica sia diversa, che abbia potuto compiere va­ sti progressi proprio perché abbiamo scisso il comporta­ met;ItO della materia complessa in quello delle sue particel­ le elementari. (Del resto, taluni esperti di scienze sociali hanno tutta l'aria di voler trapiantare nelle loro discipline questo presunto aspetto « riduzionista » della fisica) . Ma la verità è leggermente diversa. Nessuno nega che in certi casi il comportamento di un sistema macroscopico (poniamo un liquido, o un solido) sia riconducibile a quello degli ele­ menti che lo formano. Ad esempio, trascurando gli effetti della relatività ristretta, la massa di un pezzo di ferro è uguale alla massa degli atomi in esso aggregati; e la suscet­ tività dielettrica di un frammento di argo solido corrispon­ de con buona approssimazione alla somma delle suscettivi­ tà degli atomi di argo presenti. Questi esempi ricordano però da vicino l'asserto che il consumo di cibo di una na­ zione è pari alla somma dei consumi dei suoi abitanti - un

CAPITOLO QUARTO

rilievo che ci dice poco sulla natura della psicologia socia­ le. Meno scontati sono invece quei casi, soprattutto nei tra­ dizionali settori della fisica dei gas e dei solidi cristallini, in cui si è dimostrato vincente un modello che tratta il com­ portamento dell'insieme come la somma di quello delle sue parti (atomi o elettroni) ; e altri ancora per i quali inte­ ressanti risultati ha dato una descrizione in termini, se non di particelle isolate, quanto meno di coppie di particelle in­ teragenti senza risentire in gran misura dell'ambiente. Ma questi esempi, malgrado siano ampiamente sfruttati nei li­ bri di testo meno avveduti, costituiscono in realtà l'ecce­ zione piuttosto che la regola. Praticamente in tutti i territo­ ri di frontiera della moderna fisica della materia condensa­ ta il rapporto tra la nostra comprensione del comporta­ mento della materia al livello microscopico di singoli atomi ed elettroni, e al livello macroscopico di liquidi e solidi, è in realtà assai piu macchinoso. Ma anche ammesso che le interazioni tra i costituenti elementari della materia possano essere essenziali nel de­ terminare il comportamento di un corpo macroscopico, chi ci assicura di essere in grado di elaborare le conseguen­ ze di queste interazioni? È diffusa la convinzione che la teoria della materia condensata si riduca in sostanza all' ap­ prontare una descrizione dettagliata delle entità microsco­ piche che compongono l'oggetto e delle loro reciproche azioni, applicando le leggi fondamentali che crediamo pre­ siedano al loro comportamento (i principi di Newton, se è in gioco la meccanica classica; le equazioni di Schrodinger, se è in causa la meccanica quantistica) e deducendo poi il comportamento del corpo macroscopico attraverso un procedimento di derivazione o « approssimazione » pura­ mente matematica. Vista da questa angolazione, la fisica della materia condensata, o per lo meno la sua componen­ te teorica, sarebbe invero una materia di studio un po' noiosa e, nel senso letterale del termine, « derivata ». Di fatto, però, quest'immagine non è soltanto falsa ma, fosse

FISICA SU SCALA UMANA

1 43

pur vera, descriverebbe un lavoro assolutamente arido e avulso da ogni contatto con i problemi reali. Cominciamo dal secondo punto. Innanzitutto, mentre nel contesto della fisica delle particelle l'informazione della disponibilità di un fascio di protoni accelerati a una data energia e propa­ gati in una determinata direzione con una certa polarizza­ zione (spin) è sufficiente a caratterizzare in modo comple­ to il fascio e ciò che lo costituisce, nella fisica della materia condensata in pratica non conosciamo mai tutti i dettagli che sarebbero necessari per tracciare una descrizione mi­ croscopica compiuta. Ad esempio, ogni cristallo contiene impurezze chimiche in quantità piu o meno rilevante e, an­ che se spesso ci è nota la loro concentrazione media, ben di rado abbiamo un'idea del come abbiano scelto di distri­ buirsi nel cristallo. In secondo luogo va tenuto presente che, laddove il fascio di protoni viaggia nel vuoto spinto e può essere ritenuto con ottima approssimazione isolato da influenze esterne, un corpo macroscopico, almeno nelle normali condizioni di laboratorio, interagisce continua­ mente e (di solito) energicamente con l'ambiente - come minimo, attraverso le pareti di un contenitore o del banco di laboratorio su cui è posato, senza contare il campo do­ vuto alla radiazione del corpo nero. A meno di non volerei infilare in un vicolo cieco, è necessario specificare gli effetti di questa interazione in un modo che non pretenda una de­ scrizione microscopica particolareggiata dell'ambiente col risultato di alterare quello che avrebbe dovuto essere il punto focale dell'esercizio. Per finire, supponiamo, a titolo discorsivo, che con l'avvento di elaboratori oggi ancora soltanto vagheggiati diventi possibile in futuro risolvere l'equazione di Schrodinger per il 1023 atomi mal contati che costituiscono un tipico liquido o solido relativamente a una descrizione microscopica e a una scelta o magari una varietà di condizioni iniziali. Cosa avremmo risolto? Quasi certamente, nulla. Ci troveremmo alle prese con una pila di milioni di tonnellate di tabulati (o, a voler essere otti-

144

CAPITOLO QUARTO

misti, grafici) che senza dubbio « in teoria » conterrebbero la risposta a qualsiasi nostra domanda, ma in un guazzabu­ glio in cui fmiremmo con il naufragare se non introducessi­ mo qualche principio organizzativo. Un risultato che sicu­ ramente non corrisponde alla nostra idea di « comprensio­ ne » del comportamento della materia condensata. Se ciò che abbiamo appena descritto non è fisica della materia condensata, che cos'è allora? Tengo a precisare che i piu significativi passi innanzi in questo campo sono scaturiti da concetti qualitativamente innovatori a livello intermedio o macroscopico - concetti che si spera saranno compatibili con le nostre informazioni sui costituenti mi­ croscopici ma che con esse non hanno alcuna dipendenza logica. I nuovi concetti spaziano dalla pura astrazione potenziale, entropia, distanza di correlazione - ai fantasio­ si modelli che dànno supporto visivo alle nostre intuizioni (come, ad esempio, quando si riproducono le interazioni degli atomi in un solido per mezzo di molle microscopi­ che) ; tutti sono accomunati dal fatto che forniscono un nuovo strumento per classificare una massa apparente­ mente refrattaria di dati, per scegliere le variabili importan­ ti tra le innumerevoli variabili possibili identificabili in un sistema macroscopico; nel linguaggio della psicologia, rap­ presentano una nuova Gestalt. Molti dei piu vecchi con­ cetti di questo tipo sono cosi profondamente radicati nel linguaggio della fisica moderna che è ormai impossibile farne a meno. Ciò di cui occorre rendersi conto è che que­ sto processo di cambiamento della Gestalt (o meglio, e­ spansione della Gestalt) non si è inaridito alla fine del XIX secolo, ma è tuttora vivo e vegeto, sia pure in generale su un piano piu pragmatico. Lungi comunque da me l'intenzione di contestare l'im­ portanza in questo campo dei tentativi di mettere in rela­ zione il comportamento macroscopico della materia con la nostra conoscenza degli atomi e degli elettroni che la costi­ tuiscono. La letteratura teorica sull'argomento pullula di

FISICA SU SCALA UMANA

145

articoli che sembrano voler rivendicare una « derivazione » del primo dalla seconda, facendo cioè esattamente ciò che ho appena detto non compete ai fisici della materia con­ densata. Cosa si ripromettano in realtà questi articoli è questione affascinante, a mio giudizio colpevolmente tra­ scurata dai filosofi della scienza, ma discuterne in questa sede ci porterebbe troppo fuori rotta. Mi accontenterò dunque di un paio di osservazioni. La prima riguarda la na­ tura di un segreto gelosamente conservato: la parola « deri­ vazione » nel contesto di questi articoli riveste sovente un significato incomprensibile per un matematico di profes­ sione. Non di rado viene infatti adoperata per descrivere un processo ibrido, nel quale alcune fasi sono matematica­ mente rigorose, mentre altre - le cosiddette « approssima­ zioni fisiche » - non sono affatto approssimazioni nel senso corrente, ma piuttosto congetture piu o meno brillanti, magari indotte dall'esperienza acquisita con sistemi affini. Per essere piu chiari, in base alla distinzione operata nel primo capitolo, argomenti matematici e fisici sono intima­ mente intrecciati, spesso senza un commento esplicito. La seconda osservazione è che, nei pochi casi in cui il compor­ tamento di un oggetto macroscopico viene dedotto da una descrizione « microscopica» in modo accettabile a un ma­ tematico, tale descrizione in genere non è altro che un « modello », o rappresentazione, lontanissimo - pur inglo­ bando ( cosf ci si augura) gli aspetti pertinenti del sistema esaminato - da quella che dovrebbe essere la vera descri­ zione a livello microscopico. (Fornirò tra poco un esempio a proposito delle transizioni di fase del secondo ordine). È proprio questo impellente bisogno di enucleare, da un va­ sto e indifferenziato magma di informazioni, gli elementi che ci interessano ciò che distingue per qualità la fisica del­ la materia condensata da discipline come la fisica atomica o la fisica delle particelle (e che, tra parentesi, si potrebbe supporre la renda un paradigma molto piu appropriato

CAPITOLO QUARTO

per le scienze sociali, se mai di simile paradigma dovesse essere avvertita la necessità) . Cosi stando le cose, mi sembra opportuno riorientare i nostri obiettivi. Anziché ansimare all'inseguimento di un'improbabile deduzione rigorosa del comportamento di oggetti macroscopici da postulati relativi al livello micro­ scopico, sarebbe forse piu produttivo porsi come mete in­ nanzitutto la costruzione di concetti o modelli autonomi ai vari piani, da quello della fisica atomica e subatomica a quello della termodinamica, e poi la dimostrazione che tra questi modelli vale un rapporto non di deducibilità ma di compatibilità - cioè che si possono formulare « approssi­ mazioni fisiche » tali da non inficiare la sussistenza dei mo­ delli ciascuno al suo piano. Non a caso i teoremi piu impor­ tanti in fisica sono incentrati sull'incompatibilità di modelli a livelli diversi; uno di questi è il famoso teorema di Bohr e van Leeuwen, secondo il quale nessun modello atomico che ricorra esclusivamente alla meccanica classica e alla meccanica statistica classica può dar conto dell'osservato diamagnetismo atomico ; e vedremo nel prossimo capitolo un altro esempio non meno celebrato (il teorema di Beli) . Vorrei concludere queste riflessioni con un'analogia. Si immagini di voler rappresentare in forma compatta la rete dei trasporti di un paese come l'Inghilterra. Due almeno sono le possibili soluzioni. Si potrebbe ad esempio scattare una nutrita serie di fotografie aeree e ridurle in scala, in modo da avere per cosi dire una descrizione « esatta» e via via «approssimata »; l'accuratezza della rappresentazione degli oggetti dipenderebbe semplicemente dalle loro di­ mensioni fisiche e non ne rifletterebbe in alcun modo la ri­ levanza intrinseca nel sistema di comunicazioni. Una de­ scrizione del genere avrebbe limitato impiego come guida pratica. Un'alternativa di gran lunga piu utile sarebbe trac­ ciare una normalissima carta stradale o ferroviaria, ovvero un qualcosa che non si propone come copia rimpicciolita, ma piuttosto come rappresentazione schematica dei dati

FISICA SU SCALA UMANA

1 47

che in quel particolare contesto vanno messi in evidenza. S'intende, la carta dev'essere compatibile con la topografia risultante dalle fotografie aeree, ma non ne costituisce in alcun modo un'approssimazione, potendo anzi incorpora­ re indicazioni di natura completamente diversa (ad esem­ pio, le strade sono simboleggiate con colori diversi in ac­ cordo alla classificazione del ministero dei Trasporti - un accorgimento fuori della portata della fotografia aerea! ) La tesi contro cui vado argomentando (diffusa tra i filosofi della scienza e altri spettatori, ma anche, e piu sorprenden­ temente, nell'ambito degli addetti ai lavori) è che le teorie e i concetti della fisica della materia condensata siano assimi­ labili alle fotografie aeree ridotte; a mio giudizio hanno in­ vece maggior affinità con la carta. Il campo d'indagine della fisica della materia condensa­ ta è per sua natura straordinariamente eterogeneo, esten­ dendosi dal comportamento dell'elio liquido a temperatu­ re inferiori a un millesimo di grado allo studio di una pos­ sibile fusione nel nocciolo di un reattore nucleare, dall'e­ lettronica dei microscopici chip di silicio alla psicofisica della visione umana. Da quest'oceano mi limiterò a pe­ scare qualcuno dei problemi che si possono considerare d'« avanguardia », ma prima concedetemi una breve di­ gressione sugli strumenti che ci forniscono la materia pri­ ma su cui lavorare. Come abbiamo detto a suo tempo, tutto ciò che cono­ sciamo delle remote profondità dell'universo si fonda sul­ l' attesa che le loro emissioni raggiungano i nostri paraggi; del resto, in fisica delle particelle il grosso delle informa­ zioni proviene da un unico tipo di esperimento, consisten­ te nel far entrare in collisione due particelle diverse e nel­ l' osservare ciò che ne vien fuori e in quale direzione. Aven­ do a che fare con sistemi condensati possiamo invece con­ tare su entrambe le forme di sperimentazione e in piu ab­ biamo altre frecce al nostro arco. Infatti una cascata di in­ formazioni preziose ci è assicurata da esperimenti analoghi

CAPITOLO QUARTO

ai test compiuti con acceleratori; in questo caso il bersaglio è un corpo macroscopico, quasi sempre fisso in laborato­ rio, che viene bombardato da particelle elementari quali fotoni (luce visibile o raggi X) , neutroni, elettroni, protoni, pioni, o anche atomi di idrogeno, elio o elementi piu pe­ santi. I ragguagli che se ne ottengono sono gli stessi della fi­ sica delle particelle: vale a dire, il numero di particelle dif­ fuse ogni secondo in una data direzione con una certa per­ dita di energia; su queste basi siamo in grado di ricostruire in gran parte la struttura statica del materiale studiato (ad esempio ricorrendo alla diffrazione di raggi X) e la sua di­ namica. Ma le opportunità che ci si offrono sono molto piu numerose, non di rado sfruttando solo parametri macro­ scopici: possiamo ricavare il calore specifico in base a un aumento di temperatura controllato; applicare una diffe­ renza di potenziale e misurare la corrente totale che attra­ versa il corpo (attenendone cosi la resistenza) ; e via dicen­ do. Vi è poi un'intera batteria di test che comportano ritar­ di non trascurabili - eccitando ad esempio il sistema con un intenso e breve impulso luminoso e osservando il modo in cui torna all'equilibrio emettendo luce di una lunghezza d'onda diversa (questa tecnica dà risultati particolarmente brillanti con i sistemi biofisici, caratterizzati da tempi di ri­ lassamento a volte molto lunghi) . E ancora, si può analizza­ re il comportamento di una ferrolega in funzione della sua storia, cosi da stabilire, poniamo, se si è raffreddata lenta­ mente da una temperatura elevata o è stata « temprata » per immersione in un bagno di acqua fredda. Insomma, l'elenco degli esperimenti possibili è in pratica senza fine, tanto che l'abilità del ricercatore consiste anche nel deci­ dere quale delle innumerevoli opzioni che gli stanno din­ nanzi ha piu probabilità di fornirgli le informazioni deside­ rate o di rivelargli aspetti qualitativamente nuovi del mate­ riale in esame. I test volti a misurare le proprietà di un sistema macro­ scopico si contrappongono in almeno due punti salienti a

FISICA SU SCALA UMANA

1 49

quelli realizzati in fisica delle particelle. Innanzitutto, co­ me abbiamo già messo in chiaro, è imperativo specificare le azioni che si suppone l'ambiente eserciti sul sistema, co­ sa che comunemente si fa attraverso valori « medi» di grandezze termodinamiche come la temperatura e la pres­ sione. Talora si rende necessario definire altre quantità, come il campo magnetico, che possono avere effetti dirom­ penti sul comportamento di un sistema. (Al contrario, nel­ le collisioni tra particelle elementari - prescindendo dal moto tra un urto e l' altro - i campi magnetici dell'ordine di grandezza tipico dei laboratori sono di regola irrilevanti). Una seconda importante differenza riguarda la riproduci­ bilità di singoli « eventi ». Nell'ambito della fisica delle par­ ticelle, o quanto a questo anche della fisica della materia condensata, la deflessione di ogni fotone, protone o altro è un episodio casuale governato da leggi statistiche; soltanto la distribuzione, ottenuta sommando un gran numero di eventi individuali, è riproducibile, e in teoria - ma non sempre in pratica - è possibile rintracciare nei dati la ca­ sualità originaria. Nella maggior parte degli esperimenti sulla materia condensata (esclusi quelli di diffusione) si mi­ sura invece una grandezza (temperatura, pressione, resi­ stenza, magnetizzazione e cosi via) che di per sé è automa­ ticamente una somma o media su molti eventi microscopi­ ci, per cui è lecito attendersi un risultato replicabile a meno di fluttuazioni che si possono ridurre a piacere aumentan­ do le dimensioni del sistema. Questa descrizione va a pen­ nello alla stragrande maggioranza degli esperimenti ma­ croscopici, ma ammette importanti deroghe. Ad esempio, la temperatura di congelamento di un liquido sovraraf­ freddato non è sempre costante tra una « prova » e la suc­ cessiva, per quanto meticoloso sia il controllo del contenu­ to di impurezze. Si tratta con ogni probabilità di un caso speciale di una classe piii ampia di fenomeni in cui il com­ portamento macroscopico è patologicamente sensibile a minimi cambiamenti nelle condizioni iniziali (cfr. oltre) .

IJO

CAPITOLO QUARTO

Da recenti esperimenti risulterebbe una subordinazione del comportamento di un corpo macroscopico a processi intrinsecamente quanto-meccanici, con relativa indetermi­ natezza incorporata. Vi sono tre categorie primarie di sistemi di materia con­ densata per le quali possiamo vantare una buona cono­ scenza sia dal lato quantitativo che da quello qualitativo. I manuali riservano loro uno spazio talmente grande da dare l'impressione che esse esauriscano l'argomento. Stiamo parlando di gas diluiti, liquidi semplici e solidi cristallini perfetti. In un gas diluito, per definizione, le molecole so­ no fortemente distanziate; ad esempio, nell'aria di una stanza a pressione e temperatura normali ogni molecola ha mediamente a disposizione circa IO 000 angstrom cubici, a fronte di un volume proprio che possiamo valutare intorno ai 2 o 3 angstrom cubici. Di conseguenza, la molecola può vagabondare a lungo senza mai entrare nella sfera d'im­ fluenza, di una sua collega. (Tipicamente nell'aria deve percorrere IO -4 centimetri - una distanza immensa sugli standard atomici - prima di entrare in collisione) . Infi­ schiandosene delle interazioni, si può mettere in piedi una teoria d'approccio in buona sintonia con l'esperimento per quanto concerne proprietà termodinamiche come il calore specifico o la compressibilità, mentre per altre grandezze ­ valga ad esempio la conducibilità termica - questa strada si rivela impraticabile (fornendone valori infiniti) e occorre tener conto delle reciproche azioni e collisioni. Tuttavia, quando due molecole in un gas diluito vengono a scontrar­ si, la probabilità che il cozzo sia influenzato da una terza molecola nei pressi è piccolissima, per cui un modello che consideri completamente isolate le due molecole collidenti assicura di solito eccellenti risultati. Una teoria siffatta, che prescinde dalle correlazioni fra tre (o piu) corpi, fornisce un'ottima descrizione quantitativa del comportamento della maggior parte dei gas in condizioni di sufficiente di­ luizione.

FISICA SU SCALA UMANA

IJI

D'altra parte, in un liquido le molecole sono tra loro rav­ vicinate, quasi come lo sono in un solido 2• La differenza sta nel fatto che nel primo caso le molecole godono di una no­ tevole libertà di movimento - a meno che ne siano impedi­ te da forme e legami chimici complessi - sintantoché non ci si avvicina al punto di congelamento. Le molecole pos­ sono essere paragonate ai passeggeri di una metropolitana moderatamente affollata all'ora di punta: ogni volta che una si sposta, le sue immediate vicine sono costrette a pic­ coli aggiustamenti, ma tutte le altre sono a malapena con­ sapevoli del disturbo. Una teoria che si fondasse esclusiva­ mente su rapporti « bilaterali » - cioè che trattasse le inte­ razioni tra coppie di molecole come se avvenissero nel vuo­ to - non sarebbe sufficiente, ma non è il caso di darsi pen­ siero di correlazioni implicanti numeri elevati di molecole (diciamo piu di quattro o cinque) . A semplificare ulterior­ mente le cose provvede il fatto che, con l'eccezione dell'e­ lio e in parte dell'idrogeno, le fasi liquide di tutti gli ele­ menti e composti esistono soltanto a temperature abba­ stanza alte da rendere ragionevolmente trascurabili gli ef­ fetti della meccanica quantistica sul moto molecolare. Si è pertanto inclini a pensare che questi sistemi non ospitino sofisticate correlazioni quanti che del tipo di cui ci occupe­ remo nel prossimo capitolo e che un modello classico es­ senziale - in qualche caso addirittura un modello in cui le molecole sono raffrontabili a palle da biliardo - possa of­ frire risultati corretti sul piano qualitativo. In realtà, grazie all'uso del computer anche dal punto di vista quantitativo si sono compiuti grandiosi progressi: l'accordo tra calcoli teorici e dati sperimentali per le proprietà di liquidi sem­ plici non sarà magari confrontabile a quello che si ha per i gas diluiti, ma è comunque sorprendente. I gas diluiti e i liquidi semplici ci gratificano dunque di 2 Come ha imparato a proprie spese chi vive in un clima freddo, la densità della fase liquida dell'acqua è in effetti lievemente maggiore di quella della fase solida (ghiaccio).

152

CAPITOLO QUARTO

due facilitazioni: gli effetti della meccanica quantistica so­ no irrisori (salvo nei gas a temperature estremamente bas­ se) e le interazioni possono essere affrontate « localmen­ te »; vale a dire, senza badare alle conseguenze su parti di­ stanti del sistema. Nessuna di queste semplificazioni vale per i solidi cristallini, e proprio per questo motivo la for­ mulazione di una teoria del loro comportamento fu il pri­ mo e uno dei piu sfolgoranti trionfi della meccanica quan­ tistica applicata ai sistemi condensati. Un solido cristallino è caratterizzato da una distribuzione regolare e geometri­ camente ordinata in tre dimensioni dei suoi atomi, o me­ glio dei suoi ioni (atomi privati degli elettroni esterni) . Va da sé che si tratta di un modello ideale - vi è sempre qual­ che imperfezione -, ma le correzioni che gli si debbono ap­ portare non ne infirmano la validità. Supponendo che gli ioni compiano soltanto piccole oscillazioni attorno a un punto d'equilibrio, le forze agenti sono rappresentabili per mezzo di molle e ci consentono di descrivere il sistema con un modello meccanico sobrio e di immediata comprensio­ ne, nel contesto della fisica classica. Una sua interessante qualità è che lo spostamento di un solo atomo si ripercuote su tutti gli altri, per quanto lontani, attraverso una propa­ gazione del moto di tipo ondulatorio (si pensi all'analogia di una locomotiva che agganci e smisti una lunga sequenza di carri merci). E in effetti, ammesso che la frequenza della perturbazione sia sufficientemente bassa e la scala dell' os­ servazione corrisponda a molte distanze interatomiche, ciò che si registra nel solido è un'alternanza di compressione e rarefazione - un'onda sonora (naturalmente le onde acu­ stiche possono diffondersi anche nei gas e nei liquidi, ma in questi casi il meccanismo di trasmissione comporta di soli­ to un enorme numero di collisioni casuali, e quindi una si­ tuazione ben diversa dal comportamento regolare a livello microscopico che si riscontra nei solidi cristallini) simile a un'onda elettromagnetica sotto molti aspetti e in particola­ re per la frequenza, v, inversamente proporzionale alla

FISICA SU SCALA UMANA

153

lunghezza d'onda (quanto meno per lunghezze d'onda grandi). Applicando i concetti della meccanica quantistica è dunque logico che, in analogia con i granuli (fotoni) di energia luminosa, saltino fuori dei granuli (quanti) cui è stato dato il nome di « fononi », dalla parola greca che si­ gnifica « suono ». Adattando ai fononi i principi della mec­ canica statistica se ne può determinare il numero medio nel solido a una data temperatura e di qui risalire a proprie­ tà termodinamiche come il calore specifico; a grandi linee si può dire che calcoli teorici e risultanze sperimentali van­ no a braccetto. Di particolare interesse è il fatto che i fono­ ni rappresentano un fenomeno genuinamente collettivo, legato in modo critico al comportamento relativo di atomi molto distanziati tra loro; non v'è modo di ottenere l'esatto andamento a basse temperature del calore specifico di un isolante prendendo in esame piccoli gruppi di atomi sepa­ rati. Ciononostante, i fononi per numerosi aspetti sono as­ sai simili alle particelle elementari, tanto che fanno parte di una classe di entità note come « quasi-particelle ». Un'applicazione ancor piu stimolante della meccanica quantistica emerge a proposito del comportamento degli elettroni in un solido cristallino (si ricordi la definizione di ioni: atomi che hanno ceduto i loro elettroni periferici). Essendo gli ioni incapaci di allontanarsi dalle posizioni oc­ cupate nel reticolo, si deve presumere che siano gli elettro­ ni i portatori di un flusso di corrente elettrica e quindi i re­ sponsabili della conducibilità elettrica. n problema sta nel­ lo spiegare perché la conducibilità elettrica nei solidi abbia un spettro di variazione, nelle unità appropriate, di 24 or­ dini di grandezza: da circa 109 (rame purissimo a basse temperature)' a w-'5 (ad esempio, cloruro di polivinile) . La piu antica teoria della conducibilità, vergine di meccanica quantistica e di effetti della periodicità, prevedeva che tutti ' Non si tien conto di quei metalli, cosiddetti superconduttori (li vedremo piu avanti), che presentano una conducibilità infinita al di sotto di una certa tempera­ tura.

IJ4

CAPITOLO QUARTO

i solidi dovessero essere buoni conduttori, né valse a smen­ tirla di per sé l'introduzione della meccanica quantistica. È la combinazione di meccanica quantistica e conseguenze della periodicità che si rivela determinante. In breve, ecco ciò che accade: essendo considerato dalla meccanica quan­ tistica un'onda, l'elettrone subisce una diffrazione ad ope­ ra del «reticolo di diffrazione » tridimensionale formato dalla distribuzione periodica regolare dei nodi, e per con­ seguenza le frequenze permesse dell'onda, e dunque le energie possibili degli stati elettronici, costituiscono « ban­ de» separate da regioni vietate alla propagazione. (Confi­ diamo che qualche lettore abbia dimestichezza con l'ana­ logo fenomeno delle «bande passanti » e « bande di reie­ zione » caratteristico delle disposizioni periodiche di ele­ menti di circuiti elettrici - sistemi che di solito vengono af­ frontati in termini puramente classici) . Dal momento poi che il principio di esclusione di Pauli assegna ad ogni or­ bita quantica un solo elettrone, ne discende che i livelli di­ sponibili saranno riempiti a partire dal basso. D'altra parte (quanto meno nei casi piu semplici), il numero di stati per banda è esattamente doppio del numero di ioni nel retico­ lo, per cui l'ultimo stato occupato si colloca o all'estremo superiore di una banda consentita o a mezza strada (in re­ lazione al numero di elettroni in origine ceduti da ciascuno ione). Ora, poiché nelle condizioni iniziali d'equilibrio del sistema non si ha passaggio di corrente, sembra lecito sup­ porre che un flusso in risposta all'applicazione di una ten­ sione richieda lo spostamento di una parte degli elettroni a nuovi livelli. Nel caso in cui l'ultimo stato riempito si pon­ ga a metà di una banda, non vi sono problemi: sarà suffi­ ciente una modestissima energia, ottenuta per mezzo di una differenza di potenziale esterna, per far saltare gli elet­ troni necessari su livelli liberi. Se invece l'ultimo stato riempito è all'estremo superiore di una banda, l'occupa­ zione del livello successivo richiede un'energia elevata che, in circostanze normali, non potrà essere assicurata da una

FISICA SU SCALA UMANA

I55

sorgente di tensione esterna. Nel primo caso il solido tra­ sporta dunque corrente con facilità - ossia è un buon con­ duttore (metallo) - mentre nel secondo è un buon isolante; i dati testimoniano che nei due casi le conducibilità posso­ no differire per molti ordini di grandezza. La «teoria delle bande dei solidi » sopra delineata è una teoria a particelle indipendenti, nel senso che si fonda sul­ l'idea che sia adeguato considerare ogni elettrone libero di muoversi nel reticolo cristallino, senza risentire di condi­ zionamenti sostanziali da parte dei suoi colleghi (sintanto­ ché sia rispettato il principio di esclusione di Pauli) . Con qualche modificazione di poco conto, si è rivelata straordi­ nariamente efficace non soltanto nel risolvere la dicotomia metallo-isolante, ma anche nel quantificare la maggioranza delle proprietà di quasi tutti i metalli. Un successo, a essere sinceri, sconcertante, giacché con la sola teoria delle bande sarebbe impossibile spiegare, ad esempio, perché molti li­ quidi siano isolanti nonostante i loro ioni per ovvi motivi non formino un reticolo cristallino. Quasi non bastasse, in questi ultimi anni la fiducia dei fisici della materia conden­ sata nella teoria delle bande si è notevolmente incrinata. Da tempo si sapeva dell'esistenza di fenomeni relativi a transizioni di fase quali l'ordinamento magnetico e la su­ perconduttività (ne parleremo tra poco), per i quali il mo­ dello delle bande è palesemente inutilizzabile e una cono­ scenza anche solo qualitativa è imprescindibile dalle iute­ razioni tra elettroni. Tuttavia era diffusa la convinzione che, in assenza di simili transizioni di fase, la descrizione delle bande non conducesse fuori rotta se non altro sul pia­ no qualitativo. Negli ultimi anni queste attese sono andate bruscamente deluse in seguito alla scoperta di una consi­ stente classe di composti metallici - i cosiddetti sistemi di fermioni pesanti - che, anche se non ordinati magnetica­ mente o superconduttori, mostrano proprietà completa­ mente diverse - talora persino sotto l'aspetto qualitativo rispetto a quelle dei normali metalli. Nessuno dubita che

CAPITOLO QUARTO

queste anomalie richiedano una seria revisione teorica, ma su tutto il resto le opinioni divergono in modo radicale e rendono lo studio di questi composti una delle ramifica­ zioni piu attive ed effervescenti della fisica della materia condensata. L'impressione che si ricava leggendo un qualsiasi ma­ nuale di fisica dello stato solido - fisica della materia con­ densata applicata ai solidi - è che un oggetto incontrato in natura, a meno che sia un gas diluito o un liquido semplice, debba per forza di cose essere un solido cristallino. Eppure basta darsi un'occhiata intorno per rendersi conto delle difficoltà di identificare una struttura manifestamente cri­ stallina. La stanza in cui vado scrivendo queste righe con­ tiene alcuni mobili in legno (certo di natura amorfa) , dei li­ bri (idem), un vassoio per lettere di materiale sintetico (un groviglio poco affascinante di molecole polimeriche), una tazzina di caffè (anche l'acqua può a stento essere conside­ rata un liquido « semplice »; quanto alle molecole organi­ che che compongono il caffè e il latte, darne una definizio­ ne sarebbe troppo complesso), e ovviamente il mio stesso corpo, lontanissimo per costituzione microscopica dai si­ stemi che abbiamo discusso. In pratica, l'unico elemento ambientale che possa rientrare sia pur vagamente in una delle tre categorie cui abbiamo accennato è l'aria. La nuda verità è che nella vita di tutti i giorni i solidi cristallini rap­ presentano l'assoluta minoranza e l'unico motivo per cui i testi di fisica dello stato solido dànno loro in genere tanto rilievo è che sin,o a poco tempo fa essi costituivano l'unico tipo di solidi del cui comportamento avessimo qualche no­ zione sistematica. Ma oggi la situazione è mutata e, ove si eccettuino i citati sistemi di fermioni pesanti e un pugno di altri argomenti, si può affermare che i progressi piu stimo­ lanti negli ultimi vent'anni di fisica della materia condensa­ ta siano avvenuti nell'ambito di strutture non cristalline o comunque di problemi per i quali la cristallinità riveste im­ portanza trascurabile. Ne tratteggerò qualcuno.

FISICA SU SCALA UMANA

1 57

Un campo che negli ultimi anni ha registrato grossi passi innanzi è quello degli attributi di materiali di grande disor­ dine, in particolare la loro conduttanza specifica. Abbiamo già osservato che, entro certi limiti, il comportamento de­ gli elettroni nei solidi cristallini perfetti ci è sufficiente­ mente noto. L'inserimento di un certo numero di impurez­ ze chimiche o metallurgiche a distribuzione casuale dareb­ be luogo, secondo l'approccio tradizionale, a uno scatte­ ring delle onde elettroniche articolato in modo che le sin­ gole deviazioni siano piu o meno indipendenti (proprio co­ me, in un gas diluito, sono considerati eventi autonomi le successive collisioni di un particolare atomo con altri due). Aumentando però gradatamente il numero delle impurez­ ze, a un certo punto il reticolo cristallino perde la sua iden­ tità e il quadro complessivo si fa indistinto. (Una situazione conseguibile in pratica attraverso la tempra - raffredda­ mento rapidissimo dalla fase liquida - di certe leghe metal­ liche; gli atomi non hanno semplicemente tempo di trova­ re la loro configurazione ottimale, quella cristallina) . Oc­ corre perciò ricominciare da capo e immaginare che gli elettroni si muovano in un complicatissimo e irregolare campo di forza dovuto alla dislocazione accidentale degli atomi. Il risultato è sorprendente: un grado sufficiente di disordine fa si che gli elettroni restino « intrappolati » in zone circoscritte, provocando una transizione da uno stato metallico a uno stato isolante. L'effetto è esclusivamente quanto-meccanico, senza alcuna apparente corrisponden­ za classica, e per giunta è « globale » piu che « locale », nel senso che non è deducibile prendendo in esame lo sparpa­ gliamento degli elettroni ad opera di uno o pochi atomi per volta. Ciononostante, siamo pur sempre in presenza di un effetto « unielettronico », in quanto è possibile pervenire a una conclusione corretta, almeno sul piano qualitativo, trattando gli elettroni come se fossero dotati di moto non vincolato nel campo di forza casuale. È davvero singolare che attraverso un grado elevato di disordine si possa mani-

CAPITOLO QUARTO

festare quello stesso comportamento isolante per il quale l'approccio tradizionale alla fisica dello stato solido postu­ la un ordine cristallino perfetto ! Del resto, può succedere che le interazioni elettrone-elettrone producano una tran­ sizione isolante anche in assenza di disordine. Non ci resta insomma che sottolineare l'inadeguatezza delle nostre co­ noscenze in merito alle condizioni sulla scorta delle quali una data sostanza non cristallina sarà metallica o isolante, soprattutto nel caso dei liquidi. Una famiglia di fenomeni della fisica della materia con­ densata in cui le interazioni giocano senza dubbio un ruolo di primo piano è quella delle transizioni di fase. L'espres­ sione « transizione di fase » ha una connotazione tecnica ben definita, ma ai nostri scopi vuole semplicemente indi­ care il processo di trasformazione tra due stati o « fasi» qualitativamente diversi di un corpo macroscopico: ad esempio, gli stati liquido e solido; oppure, nel caso di un materiale magnetico, la fase « paramagnetica », caratteriz­ zata dall'assenza di magnetizzazione se non indotta da un campo magnetico esterno, e la fase «ferromagnetica », ca­ ratterizzata da una magnetizzazione spontanea. È necessa­ rio operare un'importante distinzione fra le transizioni di fase del secondo ordine, o « continue », nelle quali il pas­ saggio dall'una all'altra fase avviene in modo uniforme e costante, e quelle del primo ordine o « discontinue», nelle quali la differenza qualitativa tra le due fasi non può essere resa piccola a piacere. A grandi linee si può asserire che le prime tendono a verificarsi tra una fase « disordinata» e una ordinata, mentre le seconde si registrano tra due fasi entrambe ordinate ma in modo diverso. La transizione tra fase paramagnetica e ferromagnetica di una sostanza ma­ gnetica è di norma del secondo ordine, essendo arbitraria­ mente riducibile la magnetizzazione spontanea - tanto è vero che, riscaldando lentamente in assenza di campo ma­ gnetico un pezzo di ferro (ferromagnetico a temperatura ambiente), via via che ci si approssima alla temperatura di

FISICA SU SCALA UMANA

1 59

Curie (Te), cioè al punto in cui avviene il passaggio alla fase paramagnetica, la magnetizzazione spontanea tende pro­ gressivamente e continuamente a zero. L'intensità di ma­ gnetizzazione - ma non la sua direzione (cfr. oltre) - è de­ terminata in maniera univoca ad ogni temperatura e in par­ ticolare è nulla oltre la temperatura di Curie; donde l'im­ possibilità della fase ferromagnetica sopra Te o di quella paramagnetica sotto di essa. All'opposto, la transizione di fase liquido-solido è del primo ordine, almeno sintantoché il solido in questione è cristallino, poiché esiste una carat­ teristica fondamentale che distingue il solido dal liquido che non può essere rimpicciolita ad arbitrio: nella fase soli­ da, infatti, gli atomi sono legati alle loro posizioni reticola­ ti, mentre in quella liquida godono ampia lib ertà di movi­ . mento. A ragione di questo aspetto, il comportamento di un si­ stema nella trasformazione da solido a liquido, o viceversa, può essere molto piu complicato che nel caso della transi­ zione paramagnetico-ferromagnetico. I principi generali della termodinamica ci insegnano che un sistema mante­ nuto a una data temperatura e pressione si orienterà sem­ pre verso un abbassamento dell'energia libera (funzione della sua energia interna e dell'entropia). Visualizzando i possibili stati del sistema come punti sul piano dell'oriz­ zonte e l'energia libera come l'altezza rispetto al suolo, ciò significa che il sistema tenderà comunque a « rotolare in pendio », ma non necessariamente che raggiungerà il pun­ to piu basso, vale a dire piu stabile in senso termodinami­ co; può darsi benissimo che rimanga invischiato in uno sta­ to « metastabile » (cfr. oltre) , esattamente come l'acqua può restare intrappolata in una cavità sulla cima di una col­ lina, pur avendo a disposizione livelli molto inferiori. Agendo sulla temperatura è possibile modificare l'altezza relativa (energia libera) degli stati; ad esempio, a tempera­ tura elevata (poniamo maggiore di T0) lo stato di minima energia libera è quello liquido, mentre a bassa temperatura

r6o

CAPITOLO QUARTO

( < T0) prevarrà lo stato solido. Ciononostante, un sistema inizialmente liquido a temperatura elevata e in seguito raf­ freddato al di sotto di ro potrà ritrovarsi, come l'acqua sul­ la cima di una collina, in uno stato metastabile, vale a dire corrispondente a un minimo locale, ma non assoluto; la transizione dallo stato liquido (ora soltanto metastabile) al­ lo stato solido (ora stabile) può richiedere un passaggio at­ traverso stati che comportino un'energia libera superiore a entrambi. In queste condizioni è possibile che il sistema ri­ manga liquido, almeno per un certo periodo, anche quan­ do la temperatura scende al di sotto del valore T0 per cui questa fase non è piu la piu stabile - un fenomeno noto co­ me «sopraraffreddamento ». (In determinate circostanze può succedere il contrario, vale a dire un « surriscaldamen­ to » della fase solida). n modo in cui alla fine si registra la transizione (sempre che non sia bloccata ! ) è questione di grande interesse teorico e sperimentale (e anche di notevo­ le rilevanza pratica in molti contesti). Torniamo ora al problema delle transizioni di fase del secondo ordine, quello cioè che può forse essere conside­ rato paradigmatico nella fisica della materia condensata, dovendosi dar spazio a interazioni multiple non riducibili in nessun caso alle reciproche influenze tra un numero esi­ guo di particelle isolate '. Si può seguire una linea di ragio­ namento piuttosto semplice: avvicinandosi dall'alto o dal basso alla temperatura di transizione di fase del secondo ordine, la differenza in energia libera per unità di volume tra fase ordinata e fase disordinata tende ad annullarsi. Ma noi sappiamo, in base ai principi generali della meccanica statistica, che un dato subvolume sul sistema può fluttuare attorno a una condizione non rigorosamente coincidente con il suo stato di equilibrio, a patto che l'energia libera ex­ tra richiesta sia uguale o inferiore all'energia termica carat4 Alla luce di alcune considerazioni che farò nel capitolo conclusivo, si dovrebbe mettere in evidenza che questi effetti sono puramente classici, per cui si tende a escluderne sottili correlazioni quanto-meccaniche a piu particelle.

FISICA SU SCALA UMANA

r6r

teristica. Per conseguenza, via via che ci si approssima alla temperatura di transizione, subvolumi sempre piu grandi potranno fluttuare tra i due stati - ordinato e disordinato ­ e, ponendosi essi in bilico precario tra i due possibili tipi di comportamento che contraddistinguono quegli stati, ri­ sentiranno in maniera decisiva di influenze anche mode­ stissime dall'esterno. La definizione del comportamento in un dato punto del sistema nelle adiacenze della transizione richiede perciò che si tengano in conto condizionamenti man mano piu lontani, ovvero che si considerino le intera­ zioni di numeri di particelle gradualmente crescenti: qual­ siasi teoria che tentasse di descrivere il comportamento di un atomo esclusivamente in funzione delle forze esercitate dai suoi immediati vicini sarebbe destinata a priori al falli­ mento, nonostante il fatto che il meccanismo attraverso il quale si propagano gli effetti sia fondamentalmente (nella maggior parte dei casi) l'interazione tra successive coppie di particelle. Negli ultimi vent'anni le nostre conoscenze sul compor­ tamento di sistemi sul punto di subire una transizione di fase del secondo ordine hanno registrato un'evoluzione positiva, dovuta in un certo senso proprio al riconoscimen­ to e allo sfruttamento del fatto che con l'avvicinarsi della transizione aumenta il numero delle scambievoli influenze tra particelle. Decisivo è stato il rendersi conto che, essen­ do in siffatte condizioni essenziale l'interazione di sub­ volumi molto grandi, quasi macroscopici, il comporta­ mento «critico» - espressione con la quale si vogliono in­ tendere fattori come la forma generale (piu che la scala) della curva di magnetizzazione in funzione della tempera­ tura nei pressi della transizione - può essere condizionato soltanto da quelle caratteristiche del sistema definibili per­ cettivamente a livello grossolano, macroscopico. Due sono queste proprietà: la dimensionalità spaziale del sistema in causa (di solito 3, come logico, ma anche 2 quando siano implicate transizioni di fase riguardanti esclusivamente

CAPITOLO QUARTO

uno strato superficiale di atomi) e i tipi di « simmetria» as­ sociati al parametro che caratterizza la fase ordinata. Ad esempio, in una transizione di fase magnetica la magnetiz­ zazione potrebbe essere confinata alla direzione positiva o negativa lungo un asse particolare (il «modello di Ising »), oppure, in alternativa, orientarsi in qualsiasi direzione spa­ ziale (il «modello di Heisenberg ») ; e queste due possibili­ tà potrebbero dar luogo a un comportamento quantitativo completamente diverso in vicinanza della transizione del secondo ordine. D'altro canto, se si prende in esame una transizione riguardante un insieme di molecole asimmetri­ che astiformi in un liquido, libere di assumere una qualun­ que direzione pur mantenendosi parallele l'una all'altra, la simmetria risulta esattamente uguale a quella del modello di Heisenberg del magnete, nel rispetto di un comporta­ mento critico che si prevede identico per i due sistemi: si dice che essi appartengono alla medesima « classe di uni­ versalità ». Tutti gli attributi del modello al di fuori della dimensionalità e della simmetria - l'esatta natura e intensi­ tà delle forze tra atomi confinanti, ad esempio - possono incidere sulla temperatura di transizione e sul valore com­ plessivo nei suoi paraggi di grandezze termodinamiche e di altro genere, ma non sul loro comportamento critico. Del resto, proprio quest'universalità ha reso ragionevo­ le e fruttuoso lo studio di vari modelli semplificati di siste­ mi reali, sebbene nella consapevolezza che, sotto molti aspetti, simili modelli costituiscono descrizioni pessime. Ad esempio, si è autorizzati a supporre che il modello di un materiale magnetico come il ferro ottenuto puramente im­ maginando magneti microscopici piazzati in corrispon­ denza dei siti reticolari, dando per scontata una scelta cor­ retta della simmetria (cioè lasciando che i magneti siano orientati soltanto lungo un asse o in qualsiasi direzione spaziale o in altro modo, a seconda del caso) , possa rappre­ sentare con precisione il comportamento critico pur rive­ landosi inadeguato ad altri scopi. (Tanto per dirne una, è

FISICA SU SCALA UMANA

del tutto inservibile per prevedere la diffusione di raggi X dal materiale). La teoria delle transizioni di fase del secon­ do ordine costituisce perciò un'area della fisica della mate­ ria condensata - una delle poche, purtroppo - in cui è dav­ vero possibile partire da un modello ben definito ed ese­ guire quello che è in sostanza un calcolo di matematica ap­ plicata con la fondata speranza che i risultati non siano completamente avulsi dalla vita reale. Prima di abbandonare questo argomento, torniamo per un attimo a un concetto già introdotto nel secondo capito­ lo: la rottura spontanea di simmetria. Giusto per rimanere sul piano della concretezza, continuiamo a considerare una transizione di fase ferromagnetica, e a ipotizzare che le interazioni nel sistema siano descritte dal modello di Hei­ senberg. Ciò significa che l'energia è minima quando tutti gli spin sono paralleli tra loro, ma anche che non si impone alcun orientamento comune particolare; la magnetizzazio­ ne globale ha perciò un'intensità prefissata, ma l'orienta­ mento spaziale è svincolato. In pratica, piccoli effetti resi­ dui, come l'anisotropia del reticolo cristallino o, in man­ canza di questa, il campo magnetico terrestre, spezzano la simmetria e inducono un orientamento specifico della ma­ gnetizzazione; ciò non toglie che sia di grande utilità lavo­ rare sull'ipotesi idealizzata che non vi siano effetti residui e che perciò la direzione sia assolutamente arbitraria - nel qual caso si dice che la simmetria subisce una rottura spon­ tanea. Il concetto di strappo della simmetria senza inter­ venti esterni può essere applicato a un'ampia gamma di fa­ si ordinate, anche laddove la transizione non è del secondo ordine; ne è un esempio la configurazione regolare cui dànno vita'gli atomi di un solido cristallino, essendo in questo caso la simmetria spezzata quella « traslazionale », vale a dire la simmetria conseguente a una simultanea di­ slocazione uniforme di tutti gli atomi. Se la teoria delle transizioni di fase del secondo ordine è ormai abbastanza consolidata, lo stesso non si può dire per

CAPITOLO QUARTO

le transizioni del primo ordine. Anzi, anche un semplice accostamento può essere fuorviante, essendo del tutto di­ versi i problemi intrinseci. Mentre in una transizione del secondo ordine ogni fase è - ci si passi l'espressione - acu­ tamente consapevole dell'esistenza dell'altra e i subvolumi macroscopici del sistema possono fluttuare tra le due fasi, in una transizione del primo ordine gli inconvenienti na­ scono proprio dal fatto che le due fasi nulla hanno in co­ mune e stentano a mettersi in comunicazione. All'assenza di particolari complicazioni legate alla termodinamica (po­ niamo) di un liquido nella regione sopraraffreddata (nes­ suna affinità con il comportamento critico nei pressi si una transizione del secondo ordine), fa cosi riscontro la diffi­ coltà di definire la « nucleazione » della fase solida piu sta­ bile dal liquido metastabile. Da un punto di vista speri­ mentale, le transizioni di fase del primo ordine appaiono in massima parte molto sensibili a fattori quali la contamina­ zione del campione o i disturbi esterni, e in certi casi mani­ festano un comportamento piuttosto erratico tra due pro­ ve consecutive. Non è il caso di sorprendersene. Svilup­ pando l'analogia cui abbiamo già fatto ricorso, si può para­ gonare un sistema sull'orlo di una transizione di fase del primo ordine a una palla da biliardo che cada in una buca alla sommità di una collina e subisca una serie di colpi ca­ suali di intensità imprecisata in tutte le direzioni; a un certo punto, sarà certo sbalzata oltre il bordo della buca e rotolo­ rà giu per il pendio, ma è estremamente difficoltoso, se non impossibile, prevedere esattamente quando, o anche co­ me, ciò accadrà. Nel nostro caso, i « colpi casuali» sono rappresentati dalle perturbazioni intrinseche al sistema e al suo ambiente, perturbazioni di cui non sempre abbiamo la conoscenza adeguata e che sono prodotte da forze flut­ tuanti la cui origine microscopica individuale è complicata o ignota e ce le fa perciò apparire accidentali, come le fasti­ diose interferenze in un radioricevitore. Immancabile sem­ bra essere in particolare il rumore 1/f (cosi chiamato per-

FISICA SU SCALA UMANA

ché l'ampiezza delle fluttuazioni a una data frequenza /è grossomodo inversamente proporzionale alla frequenza) ; nelle sue linee generali questo fenomeno non è ancora sta­ to indagato a fondo, anche se di recente si sono compiuti notevoli progressi per quanto riguarda le sue possibili ori­ gini in sistemi specifici. Non deve perciò destare eccessiva meraviglia la mancanza di informazioni particolareggiate sul passaggio da uno stato metastabile a uno stabile. L'incertezza « al dettaglio » non deve però impedirci di avanzare alcune considerazioni di ordine generale in meri­ to alle transizioni del primo ordine. Una di queste discen­ de dal fatto che per compiere la transizione dallo stato me­ tastabile a quello termodinamicamente stabile il sistema deve valicare stati di energia libera maggiore rispetto alla partenza (proprio come la palla da biliardo è costretta ad arrampicarsi sul bordo della buca prima di poter rotolare giu per la collina). Si dice che deve « superare una barriera di energia libera ». Ora, come abbiamo già avuto modo di sottolineare, la condizione necessaria perché un sistema (o una parte di esso) si porti in uno stato di energia libera maggiore è che il costo in energia libera sia confrontabile o comunque non molto piu elevato dell'energia termica alla temperatura in causa. Se questo è troppo grande, diciamo 50 volte maggiore dell'energia termica, allora il processo è talmente improbabile da poter essere scartato. Conoscen­ do l'altezza della barriera di energia libera a una data tem­ peratura dovremmo perciò essere in grado di prevedere se a quella temperatura avrà modo di verificarsi (con proba­ bilità ragionevole) la nucleazione della fase stabile. Un cal­ colo del genere è eseguibile per un gran numero di normali transizioni del primo ordine; talora fornisce un buon ac­ cordo con l'esperimento, mentre altre volte sottostima net­ tamente la probabilità di transizione. In quest'ultimo caso sovente, almeno in linea teorica, si può attribuire la discre­ panza a fattori esterni, una qualche forma di « sporcizia », capaci di stimolare un aumento della probabilità di nuclea-

r66

CAPlTOLO QUARTO

zione. Tuttavia vi sono un paio di casi in cui questa spiega­ zione sembra da escludersi, vuoi perché non c'è traccia di « sporcizia » del tipo appropriato, vuoi perché è dimostra­ bile su solide basi che essa non potrebbe abbassare nella misura necessaria la barriera di energia libera. Spettacolare è il caso delle fasi superfluide del 3He liquido (cfr. oltre), in cui la divergenza tra la vita media prevista dello stato meta­ stabile nei riguardi della nudeazione - molte volte la dura­ ta dell'universo - e la vita media osservata - meno di cin­ que minuti - è cosi palese e straordinaria da indurci a chie­ derci seriamente se l'intero edificio meccanico-statistico del processo di nucleazione non abbia bisogno di una dra­ stica revisione . Nell'esaminare le transizioni di fase del primo ordine abbiamo dato per assodato che vi siano un'unica fase me­ tastabile e (per definizione! ) un'unica fase stabile. Una ca­ tegoria di sistemi ancor piu interessante è quella che offre una varietà, magari infinita, di stati metastabili. Un esem­ pio ben conosciuto è il comune vetro da finestre, costituito essenzialmente da molecole di silicato, a loro volta formate da atomi di silicio e ossigeno. S'intende che, nelle condi­ zioni opportune, queste molecole possono dar luogo a una configurazione cristallina, ma nella fabbricazione del vetro comune il sistema viene raffreddato dalla fase liquida trop­ po rapidamente perché esse abbiano tempo di assemblarsi nel modo ottimale, fmendo invece con il mescolarsi alla rinfusa, senza rispettare un disegno regolare o ripetitivo lo stato che chiamiamo amorfo. Una proprietà che distin­ gue i solidi amorfi, o «vetri », dai cristalli è la presenza di numerosissimi stati metastabili estremamente variabili nel grado di reciproca accessibilità. Modificare la distribuzio­ ne di un numero limitato di molecole finitime può non es­ sere difficoltoso, richiedendo il superamento di una bar­ riera di energia potenziale relativamente bassa, ma riorga­ nizzare l'intero sistema - cosi da formare, ad esempio la

FISICA SU SCALA UMANA

struttura cristallina che costituisce lo stato termodinamica­ mente stabile - può voler dire trovarsi di fronte a un osta­ colo talmente impervio da resistere a ogni attacco per mi­ lioni di anni. Insomma, le proprietà del vetro che dipendo­ no dal moto relativo delle molecole (come il calore specifi­ co e la conducibilità termica) possono evidenziare un com­ portamento molto complicato, del tutto ignoto ai solidi cristallini; in particolare, il calore specifico apparente si ri­ vela non di rado funzione del tempo, poiché via via che en­ trano in gioco processi di transizione piu improbabili va aumentando per il sistema il numero dei modi di distribui­ re il calore. Un vetro semplice come quello da finestre rap­ presenta in realtà solo un caso speciale di un insieme molto piu ampio di sistemi con caratteristiche qualitativamente simili; altri esempi sono le soluzioni di molecole polimeri­ che a catena lunga (come la gomma) e il cosiddetto vetro di spin, un agglomerato di magneti atomici interagenti in ba­ se a forze casuali per intensità e segno. Accomuna questi si­ stemi il fatto che le forme degli elementi interagenti e/o le modalità di interazione sono abbastanza complesse da im­ pedir loro in pratica di raggiungere lo stato di minima energia libera, costringendoli ad accontentarsi di scivolare da uno stato metastabile all'altro. Le proprietà statiche e, ancor piu, la dinamica di tali sistemi sono oggetto di inten­ se ricerche. A parte il loro interesse intrinseco, un'importante moti­ vazione allo studio dei materiali «vetrosi» è la speranza di paterne ricavare qualche « dritta » sul comportamento fisi­ co di quella che è forse in assoluto la classe piu affascinante di sistemi di materia condensata: i sistemi biologici. Curio­ samente, laddove da un lato riusciamo a sfornare previsio­ ni piuttosto minuziose sulle caratteristiche di un composto cristallino da poco sintetizzato, magari in condizioni al­ quanto esotiche di temperatura o pressione, dall'altro pro­ cediamo a tastoni per quanto riguarda i meccanismi fisici che consentono alle biomolecole che costituiscono il no-

!68

CAPITOLO QUARTO

stro organismo di funzionare, anche a temperatura am­ biente. Ciò non significa, sia ben chiaro, che ci sia oscura la loro composizione atomica; anzi, in molti casi la conoscia­ mo perfettamente e siamo in grado di costruirne modelli tridimensionali dettagliati e precisi. Non di rado ci è persi­ no nota nei minimi particolari la chimica dei processi reat­ tivi. Le carenze si manifestano a proposito di quelli che po­ tremmo definire i criteri progettuali della Natura, anche a livello molto specifico. Non è ad esempio difficile localiz­ zare con grandissima precisione il sito in cui avviene una particolare reazione biochimica ad opera di una molecola enzimatica, e persino in una certa misura comprendere la chimica dei fenomeni coinvolti. Ma l'enzima può avere di­ mensioni di gran lunga maggiori di quanto a prima vista potrebbe sembrare necessario e la rimozione di un gruppo sparuto e all'apparenza irrilevante di atomi lontani dal punto di reazione può vanificare completamente l'azione enzimatica. Ovvio dunque che debba intervenire un qual­ che elusivo meccanismo fisico di natura non «locale », ma in molti casi non abbiamo la piu pallida idea di che cosa possa trattarsi. Un altro esempio ci è offerto dalle affinità e dissomiglianze tra due cosiddette molecole emoproteiche, l'emoglobina e la mioglobina. I loro ruoli biologici, per quanto apparentati, sono profondamente diversi: la prima ha il compito di catturare ossigeno nei polmoni, traspor­ tarlo a mezzo del sangue e rilasciarlo nei muscoli, mentre la seconda serve a immagazzinarlo nei muscoli in attesa di utilizzo. Eppure vi sono evidenti analogie di struttura fisi­ ca: l'emoglobina ha tutta l'aria di un assemblaggio di quat­ tro molecole di mioglobina e le differenze « architettoni­ che » tridimensionali della parte proteica non sembrano cosi significative, anche se è evidente che debbono esserlo per consentire alle due molecole di assolvere le rispettive funzioni biologiche. Quali sono le implicazioni fisiche di queste differenze? Si può pensare a un progetto della Natura? E come, stori-

FISICA SU SCALA UMANA camente parlando, si sono evolute proprio in quel modo? Un motivo per cui si è fiduciosi che lo studio dei sistemi amorfi possa aprire qualche spiraglio in questi interrogati­ vi è che dal punto di vista termodinamico è lapalissiano co­ me un sistema biologico funzionante debba trovarsi in uno stato metastabile quanto meno per la maggior parte del tempo, sia al livello dell'organismo nella sua totalità sia al livello delle singole molecole. Una proteina attiva non oc­ cupa, ad esempio, quasi mai una configurazione corri­ spondente o comunque vicina alla minima energia libera disponibile. Diciamo pure che il modo in cui i sistemi bio­ logici producono complessità a partire da semplicità può apparire a prima vista in aperto contrasto con i concetti ge­ nerali della termodinamica. Va da sé che non sussiste alcu­ na vera violazione ove si tengano presenti fattori quali le sorgenti di energia esterne; ma è evidente che le nozioni fi­ siche cui si deve magari far ricorso per rendersi conto del funzionamento di un sistema biologoco complesso posso­ no essere assai diverse da quelle utili nel caso dei materiali inorganici inerti, ed è per l'appunto questa una delle gran­ di sfide che stanno di fronte alla fisica della materia con­ densata. Prima di passare a un altro argomento, vorrei accennare brevemente a una questione specifica che ci fa comprende­ re come settori a prima vista estranei della fisica possano inaspettatamente venire a contatto. Molte molecole biolo­ giche, ivi compreso un numero non trascurabile degli am­ minoacidi che costituiscono le proteine, presentano il fe­ nomeno della « chiralità », e cioè possono esistere in due forme non equivalenti che sono immagini speculari l'una dell'altra, come un paio di guanti. La sintesi in laboratorio sfruttando i componenti molecolari fondamentali fornisce molecole destrorse e sinistrorse in numero approssimati­ vamente uguale, ma in natura si trova una sola specie: quel­ la per convenzione definita « mancina ». Un accidente? li fatto che attorno a noi abbiano cittadinanza esclusivamen-

CAPITOLO QUARTO

te molecole sinistrorse o destrorse non è forse poi tanto mi­ sterioso, dal momento che, se a un certo punto nel corso dell'evoluzione molecolare si fossero trovate insieme en­ trambe le specie, esse sarebbero entrate in competizione per i materiali necessari alla loro riproduzione e una picco­ la preponderanza dell'una o dell'altra, dovuta magari a fluttuazioni fortuite, avrebbe facilmente portato all'estin­ zione della specie piu debole. Ma è un caso che alla fine l'abbia spuntata la verità sinistrorsa? Oppure le carte era­ no per cosi dire « truccate »? Ovviamente simili orienta­ menti precostituiti sono da escludere nella misura in cui crediamo che le leggi della natura siano identiche in un si­ stema di coordinate sinistrorso e destrorso, ma nel secon­ do capitolo abbiamo osservato che ciò vale per le interazio­ ni forti, elettromagnetiche e gravitazionali,' ma non per quelle deboli, dichiaratamente mancine. D'altro canto, laddove molti anni or sono era stata avanzata l'ipotesi che la chiralità degli elettroni emessi nel decadimento beta po­ tesse in qualche modo indirizzare il processo evolutivo, nell'ultimo decennio si è aggiunto un nuovo elemento in seguito alla scoperta della violazione della parità dovuta al­ l'interazione, per quanto minuscola, tra l'elettrone e il nu­ cleone e tra gli stessi elettroni associata allo scambio della particella zo. Se questa sottile « forzatura » intrinseca sia sufficiente a spiegare l'osservata dominanza della sinistra sulla destra nei sistemi biologici attuali è tuttora materia di acceso dibattito. Le aree di frontiera della fisica della materia condensata in corso di esplorazione esulano per un certo verso dal tra­ dizionale campo di interesse della disciplina. In entrambi i casi la prassi consiste nel decidere in via preliminare quali dovrebbero essere gli aspetti fisicamente piu significativi del sistema indagato, incorporarli in un modello idealizza­ to e quindi cercare di «risolvere » il modello : vale a dire, trarne per quanto possibile deduzioni rigorose. Nella fisica dello stato solido i modelli piu elementari - ad esempio il

FISICA SU SCALA UMANA

qr

reticolo cristallino visto come un insieme di sfere e molle o la teoria degli elettroni liberamente circolanti in un metallo - erano di solito esattamente risolubili per mezzo di tecni­ che matematiche analitiche (nel senso che le soluzioni po­ tevano essere espresse in termini di funzioni matematiche familiari e tabulate, quali il seno, il coseno, le equazioni esponenziali e via dicendo) . Tuttavia l'analisi era di solito impotente di fronte a realtà piu complesse (come il model­ lo dell'interazione tra elettroni e atomi), costringendo il ri­ cercatore alle cosiddette « approssimazioni fisiche ». Eb­ bene, in quasi tutti i territori di frontiera la situazione è di gran lunga peggiore, in quanto anche i modelli piu elemen­ tari di un sistema amorfo o di un vetro di spin non sono in generale traducibili in forma analitica fedele. Ecco però venire al soccorso i moderni computer; an­ che quando il problema sembra refrattario all'analisi, si può sempre sperare di individuare una proficua soluzione numerica a patto di circoscrivere gli obiettivi. Di fatto, ta­ luni modelli correnti di sistemi di materia condensata si prestano assai bene ad essere risolti con i cosiddetti elabo­ ratori finalizzati, progettati e costruiti tenendo conto di un problema specifico. Spesso si offre, ad esempio, la possibi­ lità di verificare le ipotesi matematiche che in precedenza avrebbero dovuto essere giustificate con « argomenti fisi­ ci ». Naturalmente può accadere che la risposta fornita dal computer riduca il modello a una descrizione inadeguata del sistema fisico reale, ma se non altro è stata eliminata una possibile fonte di incertezza! Grazie alla simulazione al computer si è potuto accertare che, al di fuori della clas­ se di modelli risolubili per via analitica, anche modelli sem­ plicissimi possono dar luogo a un comportamento estre­ mamente complicato tanto da condannare al fallimento perfino una previsione qualitativa. D ' altra parte si può ve­ rificare sperimentalmente che questi modelli descrivono con sufficiente esattezza un certo numero di sistemi fisici reali. Si consideri ad esempio il sistema semplice costituito

CAPITOLO QUARTO

da un peso all'estremità di un filo sospeso a un supporto fisso. Supponendo che sia in gioco soltanto il campo gravi­ tazionale terrestre, questo sistema si comporta come un pendolo classico (bidimensionale), limitandosi a disegnare ripetutamente la medesima orbita ellittica (almeno sintan­ toché lo scostamento rispetto al punto d'equilibrio è pic­ colo). Basta però introdurre una forza leggermente piu so­ fisticata (ad esempio sostituendo il peso, come avviene in un giocattolo ben noto, con una barretta magnetica e col­ locando altri due magneti sulla superfice sottostante) per ottenere traiettorie imprevedibili, sensibili alla minima va­ riazione dell'impulso iniziale: quella che viene definita un'orbita caotica. Se un sistema meccanico macrospico co­ si semplice reagisce in maniera tanto variegata e inopinabi­ le, a maggior ragione mostreranno in generale un compor­ tamento caotico i f90delli molto piu compositi che abbia­ mo elaborato di sistemi come i vetri, i vetri di spin e le bio­ molecole. D'altro canto non va dimenticato che, con qual­ che riserva, la normale termodinamica funziona per vetri e vetri di spin reali, e che i sistemi biomolecolari manifestano un comportamento notevolmente riproducibile e addirit­ tura adattativo. Accanto a sistemi macroscopici troppo in­ garbugliati per consentire previsioni attendibili (ne sanno qualcosa gli esperti in previsioni meteorologiche ! ) , molti tra i piu interessanti sistemi di materia condensata produ­ cono effetti che sembrano mediarsi su scala macroscopica. Come ciò avvenga, e soprattutto se il concetto di caos pos­ sa legittimamente trovar spazio nella meccanica quantisti­ ca, sono questioni di palpitante fascino. I problemi che abbiamo dibattuto riguardano sistemi che vivono di vita propria o comunque, anche se ottenuti per via artificiale, sono per le loro caratteristiche simili a quelli naturali. Pure, uno degli aspetti piu emozionanti del­ la fisica della materia condensata è la creazione di tipi di si­ stemi qualitativamente nuovi in cui la N atura non ha m_çsso il suozampino. Oggiabbiamo ad esempiola possibilitàdi pro-

FISICA SU SCALA UMANA

173

gettare un nuovo genere di solidi costituiti da wafer so­ vrapposti di materiali diversi, ciascuno dello spessore di pochi strati atomici. È assai probabile che queste strutture, nelle quali gli elettroni si comportano in modi per certi aspetti diversi rispetto ai solidi ordinari, erompano in una generazione completamente nuova di congegni elettronici ultrapiccoli. Del resto, nel laser l'uomo è riuscito a far sf che un elevatissimo numero di fotoni occupi esattamente lo stesso stato, in un modo sconosciuto, per quanto ne sap­ piamo, in natura (almeno nella regione ottica dello spet­ tro), ottenendo una radiazione di caratteristiche eccezio­ nali che hanno in parte trovato applicazione pratica. A parte questi esempi specifici, vi è però una sola area della fisica della materia condensata che meriti l'appellati­ vo di « nuova frontiera »: la fisica delle bassissime tempera­ ture, la criogenia. Ciò che la contraddistingue, concessa una validità sia pur approssimativa (cfr. cap. m) a qualcu­ na delle idee accettate in cosmologia, è che l'attuale tempe­ ratura della radiazione cosmica del corpo nero, circa 3 gra­ di assoluti, è la piu bassa mai sperimentata dall'universo. Ne consegue che raffreddando la materia al di sotto di que­ sta temperatura si entra in una regione che la Natura stessa non ha mai esplorato. E dunque, ove si escluda la possibili­ tà che su qualche remoto pianeta altri esseri senzienti stia­ no compiendo ricerche sulle basse temperature, i fenome­ ni esclusivi di questa regione non si sono mai registrati nel­ la storia del cosmo. Perché ci si dovrebbe attendere che dall'ambito delle basse temperature possa scaturire qualcosa di diverso da ciò che succede a temperatura ambiente? La prima osser­ vazione da fare è che al giorno d'oggi l'aggettivo «basse» ha assunto un significato inusitato : laddove la temperatura della radiazione cosmica del corpo nero è all'incirca un centesimo dei valori ambientali, noi siamo ormai in grado di scendere a un decimilionesimo. La possibilità che un ti­ po particolare di forza o interazione tra particelle eserciti

CAPITOLO QUARTO

un influsso apprezzabile dipende, a grandi linee, dal fatto che l'intensità di quell'interazione sia grande o piccola a fronte dell'energia termica caratteristica, che è proporzio­ nale alla temperatura assoluta. A bassissime temperature si possono perciò indagare le conseguenze di tenuissime in­ terazioni dell'ordine di un decimilionesimo di quelle osser­ vabili a temperatura ambiente. In particolare, con un espe­ rimento criogenico sarà possibile evidenziare, magari in termini spettacolari, un comportamento cooperativo che in condizioni normali sarebbe completamente oscurato dalle interferenze termiche. Tra i vari fenomeni peculiari della zona di basse tempe­ rature (non necessariamente solo al di sotto di 3 gradi) , probabilmente il piu seducente è quell'insieme di manife­ stazioni che vanno sotto il nome di « superconduttività » quando occorrono in un sistema elettricamente carico co­ me gli elettroni in un metallo, e di « superfluidità » quando si propongono in un sistema neutro quale un liquido iso­ lante. n comportamento di un metallo superconduttore è assai diverso per natura da quello di un metallo normale, visto che si lascia attraversare da una corrente senza oppor­ re resistenza (donde il nome) , espelle qualsiasi flusso ma­ gnetico gli venga applicato, talora con esiti clamorosi, e co­ si via. Analogamente, un liquido che divenga superfluido, come la comune forma isotopica dell'elio, può scorrere in minuscoli capillari senza attriti apparenti o inerpicarsi so­ pra il bordo di un recipiente che lo contenga e quindi a po­ co a poco svuotarlo. Allo stato attuale delle nostre conoscenze, questi bizzar­ ri fenomeni sono espressioni drammatiche di un compor­ tamento collettivo intrinsecamente quanto-meccanico. Per avere in proposito le idee piu chiare, concentriamo l'attenzione sull'isotopo piu abbondante dell'elio(4He) . Avendo spin totale nullo, questo nucleo atomico, in forza del teorema di Pauli citato nel secondo capitolo, dovrebbe seguire la distribuzione di Bose-Einstein. Una notevole

FISICA SU SCALA UMANA

1 75

previsione della meccanica statistica è che riunendo un gran numero di particelle ossequienti a questa distribuzio­ ne in un volume ristretto e raffeddandole al di sotto di una certa temperatura (che per l'elio vale piu o meno 3 gradi) dovrebbe insorgere un fenomeno chiamato « condensazio­ ne di Bose »: una frazione finita di tutti gli atomi dovrebbe cioè cominciare a occupare un unico stato quanto-mecca­ nico, aumentando la frazione sino all'unità via via che la temperatura si approssima allo zero. In tali condizioni gli atomi vengono condizionati nei loro spostamenti, come soldati in un esercito bene addestrato, e non godono piu di autonomia. Se ad esempio il liquido fluisse in un capillare, quei processi di dispersione dei singoli atomi dovuti alle ir­ regolarità delle pareti che su un liquido normale determi­ nerebbero un trascinamento viscoso tanto forte da impedi­ re al limite lo scorrimento, risulterebbero del tutto ineffi­ caci, all'insegna del « tutti o nessuno ». Né mancano conse­ guenze spettacolari: ad esempio, se si pone il liquido in un contenitore a forma di ciambella, l'onda che in meccanica quantistica è associata a una particella deve « adattarsi al contenitore », nel senso che a compimento di un giro de­ v'esserci un numero intero di lunghezze d'onda (si con­ fronti la discussione nel primo capitolo a proposito del­ l'onda elettronica nell'atomo). Lo stesso accade in un li­ quido normale, ma è quasi impossibile accorgersene per­ ché ciascun atomo tende a occupare uno stato suo proprio con un diverso numero associato di lunghezze d'onda. Con l'elio superfluido, viceversa, grazie al fatto che tutti gli atomi (condensati) si trovano nel medesimo stato, si hanno effetti pirotecnici: ad esempio, il liquido può ruotare sol­ tanto a determinate velocità angolari, per cui c'è caso che « rimanga indietro » se si pone in rotazione il contenitore. È questo un caso speciale di una regola molto piu generale: manifestazioni che in un sistema normale sarebbero soffo­ cate dal « rumore » termico - cioè dal fatto che ogni ato-

q6

CAPITOLO QUARTO

mo agisce in modo indipendente - diventano spesso evi­ denti in un sistema superfluido. Si ha ragione di credere che considerazioni analoghe valgano per i metalli superconduttori, salvo che le « parti­ celle» soggette alla condensazione di Bose (e dunque bo­ soni, cioè con spin intero) non sono elettroni isolati - che ad ogni buon conto hanno spin 1/2 e sono perciò fermioni - ma piuttosto coppie di elettroni distribuite nel metallo, un po' come certi atomi formano molecole biatomiche. Qualcosa di simile accade in un liquido costituito dall'iso­ topo raro dell'elio CHe), dove le entità fondamentali (gli atomi) sono anch'esse fermioni. In questo caso, però, un ulteriore motivo d'interesse è rappresentato dal fatto che le coppie di fermioni sottoposte alla condensazione di Bose hanno una struttura interna non banale, e variabile, che per la natura del processo dev'essere identica per ogni bi­ nomio. Si prospetta di conseguenza la possibilità di av­ valersi del 3He per indagare vari tipi di effetti troppo lievi per poter essere osservati a livello della singola molecola: la condensazione superfluida li « amplifica » tanto da render­ li forse rilevabili. E'probabile che il fenomeno della super­ fluidità riguardi anche altri sistemi di fermioni: ad esem­ pio, i neutroni in una stella di neutroni, benché a questo proposito le prove abbiano di necessità carattere piu indi­ ziario. I fenomeni della superconduttività e della superfluidità non erano stati previsti - né ragionevolmente avrebbero potuto esserlo - prima della loro scoperta sperimentale, ri­ spettivamente, in numerosi metalli e nel 4He; anzi, per lun­ ghi anni hanno rappresentato un grosso mistero. Ciò che essi dimostrano al di là di ogni dubbio è che le interazioni tra un numero molto elevato di particelle « elementari » possono tradursi in risultati macroscopici assolutamente inattesi, risultati che mai avrebbero potuto essere immagi­ nati attraverso lo studio di gruppetti di particelle. Per quanto dunque possa essere vero che questi fenomeni so-

FISICA SU SCALA UMANA

1 77

no « pure » conseguenze di interazioni elettromagnetiche ben note tra le particelle elementari coinvolte, quel « pu­ re » solleva non poche importanti questioni. Quasi certa­ mente vi sono altri fenomeni in attesa di scoperta nei siste­ mi di materia condensata; si può persino supporre che al­ cuni siano già stati osservati in laboratorio, ma imputati a errore sperimentale (come in realtà è successo almeno in un caso importante nell'ambito della superconduttività). Anticipare questi effetti collettivi qualitativamente nuovi ­ un compito che, a onor del vero, sinora, con pochissime eccezioni come il laser, si è dimostrato piuttosto arduo - o, piu modestamente, elaborare per essi modelli esplicativi dopo la scoperta sperimentale, sarà senza dubbio in futuro uno degli obiettivi di maggior rilievo e piu ricchi di attratti­ va della fisica della materia condensata. A parte fenomeni e sistemi specifici, sul tipo di quelli ci­ tati in questo capitolo, ritengo che la fisica della materia condensata offra una prospettiva generale ed essenziale destinata a convogliare su di sé un'attenzione crescente: il modo in cui « interfacciamo » con l'ambiente il sistema o campione specifico che desideriamo analizzare, ivi com­ presi gli strumenti di cui ci serviamo per prepararlo nello stato voluto e compiere le opportune misure. Si supponga, ad esempio, di dover misurare la conducibilità di un fram­ mento di metallo (il « sistema �>) a basse temperature. A tale scopo, occorre collegarlo a dei conduttori elettrici cui ap­ plicare una corrente o una differenza di potenziale nota e costante, e inoltre metterlo a contatto con un « bagno » ter­ mico (ad esempio, un bagno letterale di elio liquido) che ne mantenga la temperatura al grado richiesto. Nell'am­ bito della fisica classica non vi sono particolari problemi, né sperimentali né teorici; ma è sempre possibile, in li­ nea di massima, applicare (poniamo) una corrente costan­ te, eventualmente misurabile con un amperometro, senza alterare il sistema o influenzarne la risposta, e per giunta tener conto della presenza del bagno termico ipotizzando

q8

CAPITOLO QUARTO

che esso eserciti sul sistema forze miscoscopiche occasio­ nali, ma ben definite nelle loro proprietà statistiche. Anche quando si doveva descrivere il sistema in termini quantisti­ ci, si partiva dal presupposto che nelle sue interazioni con l'ambiente restasse valida quest'impostazione sostanzial­ mente classica; tanto è vero che su di essa si fondano impli­ citamente tutti i risultati canonici della meccanica statistica quantistica, cioè della meccanica statistica applicata a si­ stemi quantici. Da una decina d'anni a questa parte si è andata però concretizzando una placida rivoluzione nella fisica speri­ mentale della materia condensata, una rivoluzione le cui implicazioni ultime sono ancora nebulose ma verosimil­ mente profonde. Grazie a progressi nei campi della crioge­ nia, miniaturizzazione e tecniche di isolamento dal rumore che probabilmente sarebbero parsi un miraggio soltanto pochi anni addietro, ci stiamo ora rapidamente avvicinan­ do al punto - anzi, in qualche caso lo abbiamo già raggiun­ to - in cui gli effetti quantistici nel sistema potranno essere amplificati tanto da far loro attraversare, per cosi dire, la li­ nea che li separa dall'ambiente. L'esempio meglio cono­ sciuto di questa situazione si riferisce al problema della conservazione della fase dell'onda quanto-meccanica che rappresenta un elettrone in movimento all'interno di un metallo. Grosso modo si può dire che le collisioni con le impurezze statiche preservano la fase, mentre quelle con i fononi tendono a modificarla in modo imprevedibile, spazzando cosi via gli effetti di interferenza di origine tipi­ camente quantica. Nelle ricerche tradizionali sulla resi­ stenza elettrica di un metallo si è quasi sempre dato per scontato che durante il passaggio dell'elettrone attraverso il campione si verificasse un gran numero di queste colli­ sioni responsabili della distruzione della fase, ma di recen­ te vari esperimenti hanno messo in luce che con campioni abbastanza piccoli e temperature sufficientemente basse non si ha neppure un urto, rendendo manifesta la necessità

FISICA SU SCALA UMANA

179

di una profonda revisione della teoria; in special modo ac­ quistano rilevanza, in contrasto con il quadro di riferimen­ to concettuale consacrato dall'uso, i dettagli relativi al tipo di collegamento dei conduttori, alla regolazione della cor­ rente, ecc. Una situazione analoga si è venuta a creare, o lo sarà probabilmente in un prossimo futuro, in riferimento a molti altri problemi di fisica della materia condensata che comportano l'« amplificazione » di effetti quantici a livello macroscopico, in termini vuoi di scala geometrica, vuoi di numero delle particelle interessate o di altre variabili. Non è dunque fuori luogo domandarsi se non stia per crollare l'intero edificio basato sul presupposto dell'auto­ nomia del « sistema » in esame rispetto al suo « ambiente ». Una simile eventualità ci costringerebbe a rivedere drasti­ camente molti dei nostri pregiudizi sul comportamento dei sistemi di materia condensata. Potrebbe persino succedere di dover cominciare a preoccuparsi sul serio in questo con­ testo di aspetti paradossali della meccanica quantistica sul genere di quelli cosi pirotecnicamente esposti dal teorema di Beli (cfr. cap. v) . Per parlar piu chiaro, non è escluso che ci si imbatta in un « problema di preparazione quantistica » non meno ostico del « problema di misurazione quantisti­ ca » di cui ci occuperemo nel prossimo capitolo. Ma, dopo tutto, questa è soltanto una nuvoletta all'orizzonte . . .

Capitolo quinto Scheletri nell'armadio

Questo capitolo andrebbe preceduto dall'equivalente intellettuale di un avviso sanitario nazionale. Con la possi­ bile eccezione di qualche commento all'inizio del capitolo precedente, sulla cui enfasi qualcuno potrebbe trovare da ridire, ritengo che la descrizione che ho tratteggiato del­ l'attuale stato della fisica verrebbe sottoscritta dalla mag­ gior parte dei miei colleghi; quanto alle opinioni che andrò illustrando in questo capitolo, soprattutto nella sua parte conclusiva, ho invece motivo di temere che i piu caritate­ voli tra loro le giudicheranno eterodosse e gli altri, ahimè, pure aberrazioni. Molti saranno senz' altro dell'idea che un eccessivo approfondimento di questi problemi potrebbe irreparabilmente danneggiare l'equilibrio mentale. Cio­ nondimeno, non ho alcuna intenzione di cospargermi il ca­ po di cenere: se non vi fossero piu convinzioni capaci di su­ scitare forti sentimenti e scuotere le convinzioni intellet­ tuali piu meditate, si potrebbe esser certi che la fisica sta inaridendo alle radici. Discuterò nel presente capitolo, spingendomi via via piu a fondo, tre argomenti in apparenza scollegati: il cosid­ detto principio antropico, la « freccia del tempo » e il para­ dosso della misurazione quantistica. In realtà essi hanno molto in comune, malgrado siano associati per evoluzione storica ad aree disparate della fisica - rispettivamente, co­ smologia, meccanica statistica e meccanica quantistica. In tutti e tre i casi, la maggioranza dei fisici con ogni probabi­ lità si limiterebbe a dichiarare che non c'è alcun problema

SCHELETRI NELL'ARMADIO da dibattere, mentre una minoranza ne proclamerebbe non soltanto l'esistenza, ma anche l'urgenza; l'oggetto del contendere non è risolubile con l'esperimento, almeno nell'ambito della dottrina oggi dominante - una caratteri­ stica che, come osservato nel primo capitolo, induce molti a liquidarlo con un «meramente filosofico » ; e, scanda­ gliando pili in profondità, alla fine ci si trova di fronte una questione di ordine piu generale, e cioè: in ultima analisi, può una descrizione soddisfacente del mondo fisico non tenere esplicito conto del fatto che essa viene di per se stes­ sa formulata da e per esseri umani? Il prindpio antropico. n principio antropico in cosmologia ha un passato lun­ go e venerabile - risalendo di fatto a molto tempo prima della nascita della fisica vera e propria - e si è frammentato nel tempo in numerose sottospecie, sulle quali non mi sem­ bra il caso di soffermarsi in questa sede ' . Le versioni mo­ derne nella gran parte prendono le mosse da due conside­ razioni di massima. La prima è che, nell'attuale formula­ zione della fisica delle particelle e della cosmologia, ab­ bondano le costanti non determinate dalla teoria ma intro­ dotte « a mano ». Si trovano ad esempio in questa situazio­ ne il rapporto tra le masse dell'elettrone e del protone, la carica elementare e (adimensionale quando venga espressa in unità implicanti le costanti fondamentali h e c), il nume­ ro dei diversi sapori dei quark. Cosa ancor pili importante, né la fisica delle particelle né la cosmologia sono in grado tra l'altro di spiegarci perché viviamo in un mondo con una dimensione temporale e tre spaziali, o perché lo spazio do­ vrebbe essere (apparentemente) isotropo. La seconda os­ servazione è che le condizioni fisiche necessarie alla com1 Cfr. J. D. Barrow e F. J. Tipler, The Anthropic Cosmologica! Prindple, Oxford University Press, Oxford 1986.

CAPITOLO QUINTO

parsa della vita- e ancor piu al suo sviluppo sino allo stadio umano - sono per quanto ne sappiamo estremamente rigi­ de. Basti pensare che le reazioni biochimiche essenziali alla vita sono sensibilissime alle energie degli stati molecolari, che a loro volta dipendono strettamente dall'esatto valore della massa e della carica dell'elettrone; una lievissima dif­ ferenza della carica dell'elettrone comporterebbe una bio­ chimica completamente diversa. Del resto, la vita può evolversi soltanto in certe condizioni chimiche e con una ben precisa distribuzione della radiazione incidente: se il rapporto tra le costanti di interazione elettromagnetica e gravitazionale fosse seppur di poco differente, il Sole non riuscirebbe a fornire la mescolanza richiesta. Nel contesto delle recenti teorie di grande unificazione, che pretendono un protone instabile con una vita media intorno a I032 anni, risulta evidente che pochi ordini di grandezza in meno di questo valore avrebbero significato per tutti noi morte si­ cura da eccesso di radiazioni. E ancora, in uno spazio non tridimensionale la forza di gravità non seguirebbe la legge dell'inverso dei quadrati delle distanze, le stelle avrebbero tutt'altra conformazione, non vi sarebbero pianeti ... L'e­ lenco potrebbe continuare all'infinito, ed è automatica la conclusione che ad ogni creatura dotata di coscienza sa­ rebbe negato di esistere ove le costanti fondamentali della Natura si discostassero piu di tanto dal valore che hanno. Il principio antropico rovescia in sostanza quest' affermazio­ ne, sostenendo che il motivo per cui le costanti fondamen­ tali hanno quel certo valore è che diversamente non sarem­ mo qui a porci domande. Prima di esplorare la logica di questa « spiegazione », val forse la pena di notare quanto sia facile dar troppo credito alle due « pezze d'appoggio » che sbandiera. È vero che l'attuale teoria delle particelle presenta un numero elevato di costanti indeterminate (diciassette secondo l'ultima sti­ ma) , ma negli ultimi anni si è riusciti a ridurle - ad esem­ pio, nella teoria unificata elettrodebole - e sembra speran-

SCHELETRI NELL'ARMADIO za ragionevole, e sicuramente condivisa da molti teorici, che lo sviluppo di nuove teorie assottiglierà ulteriormente la pattuglia. Vi sono anche concrete possibilità che le co­ siddette teorie di superstringa, oggi oggetto di intense ri­ cerche, decretino un giorno che l'unica versione piena­ mente coerente della teoria quantistica dei campi trovi ine­ luttabile riscontro in un mondo che, ai livelli di energia con cui abbiamo a che fare nella nostra esistenza quotidiana, non soltanto contenga le particelle osservate, ma possieda per motivi intrinseci una dimensione temporale e tre spa­ ziali. (Va da sé che ci si potrebbe pur sempre chiedere per­ ché si debba descrivere la Natura per mezzo di una teoria quantistica dei campi, ma questa è tutt'altra faccenda). D'altra parte, il fatto che la vita nelle/orme che conosciamo paia indissolubilmente legata a quei particolari valori delle costanti fondamentali può essere meno significativo di quanto sembri. Come è stato piu volte dimostrato nell'area della fisica della materia condensata e altrove, la Natura ci batte di gran lunga quanto a ingegnosità e non è poi tanto disagevole immaginare che, se la durata del protone fosse stata cosi breve da rappresentare un pericolo per i sistemi viventi, ad esempio, la biologia avrebbe battuto strade leg­ germente diverse per misurarsi con il problema. Un ulte­ riore punto da tenere presente è che, laddove alcuni dei fattori indeterminati nelle teorie correnti, come la dimen­ sionalità dello spazio, possono assumere soltanto valori di­ screti, altri, quali la massa e la carica delle particelle, rico­ prono un ventaglio di valori continuo (almeno nell'ambito delle ipotesi generalmente accettate). Non è chiaro quanto si sia guadagnato da una « spiegazione » che inchioda i va­ lori entro uno spettro finito, per quanto circoscritto. Lasciando perdere queste minuzie, dobbiamo ritenere incrinate le fondamenta logiche del principio antropico? La risposta dipende dalla prospettiva metafisica in cui ci si pone. In un'ottica teleologica - immaginando cioè un uni­ verso concepito, o evolutosi, specificamente allo scopo di

·

CAPITOLO QUINTO

consentire l'esistenza dell'uomo - non vi sono dubbi di sorta, ma la fisica moderna rifiuta simili argomenti e anche quegli scienziati che, per fede religiosa o altri motivi, accet­ tano un universo finalizzato in generale giudicano dovero­ so nelle loro quotidiane fatiche cercare di integrare l'inter­ pretazione teleologica. A meno dunque di voler uscire dal seminato, mi sembra che la plausibilità o meno del princi­ pio antropico come «spiegazione» dipenda in modo cru­ ciale da ciò che esattamente intende spiegare. Se avesse l'ambizione di sostenere l'esistenza di un solo universo ca­ ratterizzato da costanti di natura immutabili per ogni tem­ po e luogo e di proporsi come delucidazione della loro fis­ sità, allora sarei costretto a dire che la parola «spiegare» viene usata in un'accezione talmente diversa da quella che le viene normalmente attribuita da risultare pressoché inintelligibile. Tuttavia, recenti progressi all'interfaccia cosmologia­ fisica delle particelle hanno reso se non altro concepibile uno scenario in cui il principio potrebbe svolgere un suo ruolo. Supponiamo di accettare l'ipotesi del big bang cal­ do e di dare per assodato che nei primissimi istanti dell'u­ niverso fossero operanti varie simmetrie. Via via alcune di queste simmetrie si sarebbero spezzate e, ove ciò fosse av­ venuto indipendentemente in punti dello spazio-tempo di­ sgiunti sul piano causale - vale a dire, soggetti a separazio­ ne-spazio - la natura della fase a simmetrie spezzate sareb­ be stata diversa da una regione all'altra. (Un'analogia è of­ ferta da un liquido in grado di solidificarsi in piu di un si­ stema cristallino: ai due estremi di un contenitore raffred­ dati rapidamente mantenendo calda la zona mediana possono formarsi strutture differenti). Si può immaginare un'infinità di possibili fasi a simmetrie spezzate, ciascuna con valori peculiari di massa delle particelle, costanti di ac­ coppiamento e via dicendo (si pensi al numero illimitato di configurazioni che può assumere un vetro raffreddando­ si); e, col supporto di una teoria inziale sufficiente per di-

SCHELETRI NELL'ARMADIO mensionalità e complessità, si può anche arrivare a suppor­ re che la dimensionalità effettiva, a energie « di laborato­ rio », fosse diversa in regioni del cosmo impossibilitate a comunicare tra loro. Bisogna riconoscere che questo sce­ nario è frutto di pura speculazione, ma se mai dovesse rive­ larsi veridico lascerebbe campo libero a un principio an­ tropico modificato : la ragione o, a esser piu esatti, una par­ te della ragione per cui in quella particolare regione dell'u­ niverso che ci è accessibile le costanti fondamentali hanno il valore �he hanno risiede semplicemente nel fatto.che in al­ tre regioni dell'universo, dove le costanti non sono le stes­ se, non avremmo potuto evolverci. Beninteso, anche que­ sta piu modesta rivendicazione solleverebbe nuovi interro­ gativi - ad esempio, esiste qualcosa che possa intrinseca­ mente distinguere la « nostra » regione dell'universo al di là del fatto che qui ci siamo evoluti? - ma a questo punto pre­ ferirei fermarmi. L'unico motivo per cui ho incluso questa breve e necessariamente superficiale disamina del princi­ pio antropico è il desiderio di far comprendere che al cen­ tro di discipline fisiche spesso ritenute fondamentali si col­ locano questioni in cui il concetto stesso di ciò che costitui­ sce una « spiegazione » è oggetto di acceso dibattito.

La «/recaa del tempo».

È quasi superfluo constatare come tutto attorno a noi sembri sussistere una marcata asimmetria per quanto con­ cerne la « direzione» del tempo; moltissime sequenze di eventi possono aver luogo in un ordine, ma non in quello inverso. Immaginate di aver girato alcune scene di vita fa­ miliare ma di aver inserito il film nel proiettore al contra­ rio. Non tarderete ad accorgervene : una palla rimbalza sempre piu alta e alla fine punta verso le mani di un bimbo; una pozza di liquido su un tavolo si contrae e risale in una teiera inclinata, che subito dopo si raddrizza; un attizza-

r86

CAPITOLO QUINTO

taio, freddo sulle prime, a poco a poco diventa incande­ scente senza alcuna ovvia fonte di calore ... Come dimostra l'ultimo esempio, non è necessaria la presenza di un agente umano per rendersi conto che c'è qualcosa di sbagliato, che ciò che vediamo è una versione «rovesciata nel tem­ po » dell'originale. A parte dunque la soggettività della percezione di « passato » e « futuro », si ha l'impressione che sia la Natura stessa a « preoccuparsi» del senso (dire­ zione) del tempo. Perché questa banale osservazione dovrebbe essere mo­ tivo di perplessità? Semplicemente perché, almeno a pri­ ma vista, cozza contro la simmetria delle leggi fisiche a li­ vello microscopico rispetto all'inversione del senso del tempo. Cominciamo con la meccanica classica. La prima e la terza legge di Newton non hanno nulla a che fare con la direzione del tempo e rimarrebbero inalterate in un siste­ ma in cui tale direzione cambiasse di segno. Quanto alla se­ conda legge, l'accelerazione che vi compare è la derivata seconda dello spazio percorso rispetto al tempo, per cui in­ vertendo il senso di quest'ultimo si ha un cambiamento di segno della velocità (e del momento) ma non dell'accelera­ zione e dunque non della forma della legge. Se ne deduce che nella meccanica newtoniana ad ogni possibile succes­ sione di eventi ne corrisponde un'altra, ugualmente possi­ bile, che è il suo « opposto temporale », vale a dire è trac­ ciata nell'ordine rovesciato. Assistendo ad esempio alla proiezione di un film accelerato del moto dei pianeti di una stella distante è impossibile, semplicemente sulla base di quanto ci mostra la pellicola, stabilire se scorre a ritroso. Analogamente, se su uno schermo si succedessero per un breve periodo immagini di palle in movimento su un tavo­ lo da biliardo (senza esser colpite da una stecca o cadere in buca), trascurando gli attriti con il panno e l'anelasticità degli urti, non avremmo modo di stabilire se la proiezione avviene nel modo corretto. In entrambi i casi ci troviamo di fronte a sistemi macroscopici nei quali gli effetti dissipativi

SCHELETRI NELL'ARMADIO sono in prima approssimazione irrilevanti; ciò non toglie che, ove ne tenessimo conto, la simmetria rispetto all'in­ versione temporale risulterebbe alterata. Possiamo dunque invocare la dissipazione per introdur­ re un'asimmetria fondamentale? Se si trattasse di un feno­ meno completamente nuovo e svincolato dalle leggi new­ toniane, il dubbio sarebbe lecito, ma nel contesto della moderna teoria molecolare la dissipazione altro non è che trasferimento di energia dal movimento macroscopico al moto casuale delle molecole; ad esempio, quando due pal­ le da biliardo si scontrano, una parte della loro energia ci­ netica va perduta, ma quest'energia ricompare sotto forma di calore, insito nel moto casuale delle molecole che com­ pongono le palle. A livello molecolare le leggi di Newton continuano a funzionare (o cosi crediamo) e qualsiasi se­ quenza possibile di eventi in un sistema di molecole ha una controparte ribaltata nel tempo '. Diciamo di piu: se vedes­ simo un film del moto delle molecole (poniamo) di un gas all'equilibrio termico, non avremmo alcuna possibilità di escludere che sia riprodotto al contrario; d'altra parte, un processo in cui un urto tra due palle da biliardo determi­ nasse un aumento di energia cinetica a spese del calore ci lascerebbe senza dubbio stupefatti ma non violerebbe in alcun modo le equazioni del moto di Newton. La meccani­ ca classica non ci consente perciò di appellarci a un' asim­ metria microscopica per giustificare quella macroscopica osservata. Può essere d'aiuto la meccanica quantistica? Purtroppo no. L'apparente asimmetria rispetto al tempo (l'equazione che regola l'evolversi della funzione d'onda nella meccani­ ca quantistica non relativistica - equazione di Schrodinger - è del primo ordine per quanto riguarda il tempo, non del 2 Non va passato sotto silenzio che questo punto di vista è condiviso da una schiacciante maggioranza di fisici, ma non dalla totalità. Secondo una scuola di pen­ siero che fa capo allo scienziato belga Ilya Prigogine, la dissipazione è di per sé un fe­ nomeno fondamentale, non analizzabile nel modo che qui abbiamo delineato.

r88

CAPITOLO QUINTO

secondo come la seconda legge di Newton) della formula­ zione tipica dei libri di testo è fuorviante. Di fatto, con l' ec­ cezione di un imbarazzante fenomeno di fisica delle parti­ celle di cui ci occuperemo tra poco, anche in campo quan­ tistico ad ogni processo consentito corrisponde un omo­ logo invertito nel tempo. Torniamo cosi al medesimo osta­ colo. Forse a questo punto è opportuno sbarazzarsi di un'ov­ via obiezione che sarà andata prendendo corpo in piu di un lettore. Chi ci dice che, per lo meno nell'elettromagne­ tismo, le due direzioni del tempo siano equivalenti? Dopo tutto, una particella di carica positiva in un campo magne­ tico, osservata lungo la direzione del campo, si muove in senso orario; e il movimento opposto rispetto al tempo cioè un cerchio eseguito in senso antiorario - non è passi­ bile. n fatto è che il campo magnetico è di per se stesso do­ vuto a correnti circolatorie (o fenomeno equipollente), per cui ribaltando l'andamento del tempo, e quindi la direzio­ ne delle correnti, occorre per coerenza rovesciare anche il campo magnetico: il moto antiorario è dunque non solo possibile, ma imperativo ! Ancora una volta, la violazione della simmetria temporale è soltanto fittizia. Prima di proseguire la discussione sul modo in cui la meccanica statistica si sforza di render ragione dell'asim­ metria osservata, concedetemi di accennare a un problema affine. Come ho già messo in evidenza nel primo capitolo, la seconda legge di Newton assume la forza di un'equazio­ ne differenziale del secondo ordine rispetto al tempo; co­ noscendo perciò le forze in gioco, la sua soluzione comple­ ta richiede due informazioni indipendenti. In molti conte­ sti è spontaneo utilizzare allo scopo i dati relativi allo stato iniziale del sistema - posizione e velocità di partenza, ad esempio. Ma la meccanica newtoniana non ci impone af­ fatto questa scelta, !asciandoci del tutto liberi di optare per la posizione e velocità /inali e di ricavare da esse il moto precedente. Nel formalismo della meccanica newtoniana

SCHELETRI NELL'ARMADIO non v'è nulla che corrobori l'affermazione « il passato de­ termina il futuro » piuttosto che il suo contrario . Anche qui la meccanica quantistica ci è di poco giovamento, giacché al formalismo dei manuali, imperniato sulla conoscenza dello stato iniziale del sistema e sulla « ineluttabilità » del comportamento successivo in base all'equazione di Schr6dinger (o alla sua generalizzazione relativistica) , è facile contrapporre uno speculare formalismo in cui è lo stato fi­ nale del sistema ad esser noto e a « causare » il comporta­ mento precedente. L'idea che l'evento A possa provocare l'evento B soltanto se lo precede è perciò un' interpretazio­ ne del formalismo della fisica, non qualcosa che ne discen­ de necessariamente. (È una conseguenza della relatività speciale il fatto che due eventi, A e B, siano correlabili in un rapporto causa-effetto soltanto se possono essere colle­ gati da un segnale che viaggi a velocità uguale o minore di quella della luce; ma la relatività nulla dice a proposito del­ la direzione della connessione causale. La convinzione sor­ prendentemente diffusa che certi esperimenti in fisica del­ le particelle abbiano « dimostrato che la causalità si prop a­ ga in avanti nel tempo » è frutto di un equivoco; un esame approfondito rivela che questo assunto è già incorporato nell'interpretazione degli esperimenti stessi) . Si noti che questo problema è di natura completamente diversa da quello relativo al motivo per cui certi tipi di processi ap­ paiono unidirezionali nel tempo; il secondo riguarda un fatto empiricamente verificabile, mentre il primo è legato alla nostra decodificazione dei dati sperimentali. L'idea che in fisica o cosmologia si possa o si debba « spiegare » il presente in riferimento al passato potrebbe benissimo es­ sere un residuo di pensiero antropomorfico. Perché non « spiegare » il passato in riferimento al presente? Torniamo al punto che ci interessa e aiutamoci con un esempio specifico. Supponiamo di riempire di gas (fig. 5. r) la metà sinistra di un contenitore divisibile in due parti uguali per mezzo di un diaframma mobile. Sintantoché il

CAPITOLO QUINTO

diaframma rimane al suo posto, il gas sarà confinato nella metà sinistra, ma appena rimosso l'ostacolo in men che non si dica si espanderà sino a occupare l'intero contenito­ re e in seguito si rifiuterà pervicacemente di tornare allo stato iniziale, cioè sul lato sinistro (a meno, s'intende, di un nostro intervento dall'esterno: ad esempio, inserendo un pistone per ricomprimerlo). Se indichiamo con A lo stato del gas immediatamente dopo la rimozione del divisorio (ma prima che abbia avuto tempo di espandersi) e con B lo stato finale corrispondente all'invasione totale, risulta evi­ dente che A si evolve in B, ma non viceversa, per cui il pro­ cesso A -t B è irreversibile. La meccanica statistica sembra proporsi come uno stru­ mento perfettamente adeguato a spiegare il fenomeno. n punto è che la descrizione del gas nello stato A piutto­ sto che nello stato B non può che essere una descrizione macroscopica (« termodinamica ») , comunque compatibile

Figura p. Un gas confinato in un piccolo volume facente parte di un volume pili gran­ de a); lo stesso gas dopo l'espansione nell'intero volume b).

a)

illfltl

l

b)

. .. . . . · . : : . ·• ·. ·. ·. . .

.

. .: .

.

.

SCHELETRI NELL'ARMADIO con un gran numero di possibilità per le posizioni e veloci­ tà delle singole molecole. Tuttavia è chiaro che lo stato B offre una gamma di opportunità ben maggiore: esattamen­ te doppia per la posizione di ciascuna molecola, cosicché, date n molecole, si avrà un totale di opzioni 2" volte mag­ giore che nello stato A. Potendosi in pratica fissare n intor­ no a 1020, ne deriva che 2"va quasi al di là dell'immaginazio­ ne. Si può affermare che il « grado di disordine» è molto piu elevato nello stato B che nello stato A; ovvero, in alter­ nativa, che le nostre « informazioni » sul sistema sono mol­ to minori nel primo caso (dal momento che il comporta­ mento macroscopico osservato del sistema è conciliabile con un numero molto piu grande di possibilità microsco­ piche) . La grandezza termodinamica che va sotto il nome di entropia è semplicemente una misura di questo disordi­ ne o carenza di informazioni (a essere precisi, l'entropia è proporzionale al logaritmo del numero di stati microscopi­ ci compatibili con quanto conosciamo delle proprietà ma­ croscopiche del sistema) . il fatto che il processo A -t B sia irreversibile non è dunque altro che un caso particolare della seconda legge della termodinamica, la quale afferma che l'entropia di un sistema isolato può aumentare nel tem­ po, o nella migliore delle ipotesi rimanere costante, ma mai diminuire, o, se si preferisce, che le nostre informazioni sullo stato microscopico di un sistema non possono esten­ dersi, a meno di interferire direttamente. Su che cosa si fonda questa asserzione? Essa rientra in un enunciato piu generale secondo cui l'unico verso in cui può evolversi una situazione va dalla minore alla maggiore probabilità. Si consideri l'analogia del rimescolamento di un mazzo di carte, supponendo di partire da una situazio­ ne in cui le prime tredici siano tutte quadri (non necessa­ riamente in un ordine particolare), le tredici successive tut· te cuori, e cosi via. È palese che l'assetto iniziale andrà rapi­ damente perduto; per giunta, trucchi a parte, le probabili­ tà di pervenire a una completa separazione dei quattro se-

CAPITOLO QUINTO

mi sono pressoché inesistenti. n motivo è lapalissiano: es­ sendo il mescolamento un'operazione del tutto casuale, ogni sequenza di carte (ad esempio, tre di cuori, re di fio­ ri. . . ) ha uguale probabilità di presentarsi e il numero di se­ quenze con quella specifica caratteristica, pur molto mag­ giore dell'unità, è insignificante a fronte del numero totale di sequenze possibili. Altrettanto trascurabile è perciò la probabilità che un insieme di molecole gassose nello stato B evolva, per effetto di urti accidentali reciproci e con le pareti, in una delle pochissime configurazioni microscopi­ che (I su 2"), corrispondenti allo stato A. Tra parentesi, la nostra tendenza a identificare nel pas­ sato la « causa » del presente, e non viceversa, non è estra­ nea alla questione dell'irreversibilità. Nei sistemi in cui si manifestano processi irreversibili (escludendo, ad esem­ pio, il moto dei pianeti) vi è dunque una corrispondenza «molti a uno »: un gran numero di stati termodinamici ini­ ziali A può portare al medesimo stato finale B, ma non il contrario. Dato un particolare stato finale B, viene perciò di fatto naturale chiedersi da quale dei possibili stati inizia­ li A si sia sviluppato, rifiutando qualsiasi corrispondente ipotesi « invertita nel tempo ». Se quest'osservazione valga in qualche modo a giustificare la nostra percezione della causalità è naturalmente questione assai piu delicata, che non tenterò qui di dirimere. Non c'è comunque da illudersi di aver dato spiegazione all'asimmetria dei processi termodinamici. Una rapida oc­ chiata all'esempio precedente ci confermerà una completa simmetria rispetto alla direzione del tempo sintantoché

non intervenga esplicitamente o implicitamente la mano dell'uomo. Immaginiamo che l'imprevedibilità del mesco­ lamento del mazzo di carte sia garantita per un dato perio­ do: ad esempio, grazie a una macchina programmata con l'aiuto di un generatore di numeri casuali. Se a un certo punto ispezionassimo il mazzo e ci accorgessimo (con no­ stra somma sorpresa! ) che i quattro semi sono effettiva-

SCHELETRI NELL'ARMADIO

1 93

mente ripartiti nel modo descritto, ne trarremmo la fidu­ ciosa conclusione di un maggior disordine non soltanto nel futuro, col procedere dell'operazione, ma anche nel passa­ to. (Lo dimostra l'osservazione che l'« inverso » di un qual­ sivoglia rimescolamento è esso stesso un rimescolamento) . Similmente, ammesso che il nostro gas sia isolato e che per uno straordinario colpo di fortuna lo si sorprenda in un certo istante nello stato A (cioè con tutte le molecole radu­ nate nella metà sinistra del contenitore), sarà del tutto logi­ co presumere non soltanto che tenderà quanto prima allo stato B, ma che si trovava in quello stato in un recente pas­ sato. Tutto ciò resta però confinato al piano teorico: se ci capitasse sott'occhio un mazzo di carte con i semi disposti in successione, non ci sfiorerebbe neppure l'idea di chia­ mare in causa un « colpo» statistico eccezionale o un for­ tuito rimescolamento, ma subito penseremmo a un'intro­ missione deliberata. Allo stesso modo, se ci ponessimo dinnanzi un contenitore le cui molecole di gas (per quel microsecondo di durata dell'osservazione! ) fossero tutte stipate nella metà sinistra, il buon senso ci suggerirebbe che qualcuno ha appena sollevato il diaframma. In altre parole, siamo inclini a credere, almeno nelle normali situa­ zioni di laboratorio, che qualsiasi configurazione di elevata improbabilità in senso statistico debba essere frutto di un'ingerenza umana cosciente nel passato prossimo. L' ap­ parente aumento nel tempo dell'entropia, o disordine, è dunque semplicemente imputabile al fatto che l'uomo è in grado di costruire situazioni « di elevata improbabilità » e !asciarle poi a se stesse, insomma di fissare le condizioni ini­ ziali per il comportamento del sistema. Nulla da fare inve­ ce per le condizioni/inali (questo compito impossibile è ta­ lora definito « retropareggiamento » del sistema in un dato stato). L'enunciato non è altro che una generalizzazione di quanto siamo andati dicendo nel primo capitolo a proposi­ to della meccanica classica delle particelle, vale a dire che, almeno in situazioni elementari di laboratorio, possiamo

1 94

CAPITOLO QUINTO

determinare i valori iniziali di posizione e velocità ma non quelli finali. Si direbbe dunque che la freccia del tempo che compare in modo manifestamente impersonale nella termodinamica sia intimamente collegata a ciò che noi, co­ me agenti umani, possiamo o non possiamo fare. In realtà il problema è di gran lunga piu sfaccettato. Tanto per cominciare, malgrado la Natura ci offra molti esempi di processi escludenti l'intervento umano nella « preparazione » del sistema, la seconda legge della termo­ dinamica continua ad essere applicabile - ad esempio in geofisica e astronomia. Tuttavia nelle discussioni di carat­ tere generale la consuetudine vuole che si distinguano (a dir poco) cinque diverse frecce del tempo. Una è la freccia « termodinamica », di cui abbiamo già fatto conoscenza, definita dall'incremento di entropia. Una seconda, stretta­ mente connessa alla prima almeno in certi contesti, è quel­ la « umana » o psicologica, conseguente al fatto che noi possiamo (o pensiamo di potere ! ) ricordare il passato e in­ fluenzare il futuro, ma non viceversa. (Si può presumere che, in quanto sistemi biologici, operiamo una distinzione in modo asimmetrico rispetto al tempo, per cui sarebbe il­ logico ipotizzare una freccia «biologica » difforme da quella psicologica. Sta però di fatto che, per lo meno nel­ l'ambito della fisica, su questo punto le idee sono al mo­ mento alquanto confuse) . La terza freccia è di ordine « co­ smologico » ed è legata all'attuale espansione anziché con­ trazione dell'universo. Viene poi la freccia elettromagneti­ ca, che ha bisogno di qualche chiarimento. Le equazioni che descrivono le interazioni tra un corpo carico e il campo elettromagnetico sono simmetriche rispetto alla direzione del tempo. In particolare, quando una massa dotata di ca­ rica accelera, vi sono due tipi di soluzione per il comporta­ mento del campo elettromagnetico. Quella convenzional­ mente adottata è la cosiddetta soluzione ritardata, nella quale un'onda elettromagnetica si propaga dalla carica ac­ celerata - ovvero la carica irradia energia «verso l'infini-

SCHELETRI NELL'ARMADIO

195

to ». Altrettanto valida è però la soluzione avanzata, in cui l'onda elettromagnetica si propaga « dall'infinito » in dire­ zione della carica, trasferendole energia. Le equazioni so­ no compatibili con entrambe le soluzioni, o con una com­ binazione delle due. Tuttavia, mentre nel caso della solu­ zione ritardata occorre specificare soltanto le condizioni iniziali relative al moto della carica, per la soluzione avan­ zata si dovrebbero indicare, e con assoluta precisione, i campi elettromagnetici per un ampio raggio attorno alla carica. (La situazione è simile a quella di uno stagno in cui le onde siano create dal movimento di un pistone verticale e si propaghino in senso centrifugo: in linea teorica è possi­ bile capovolgere il moto e costringere le onde a trasmettere energia al pistone, ma a questo fine bisognerebbe farle par­ tire esattamente al momento giusto in ciascun punto sul­ l'argine dello stagno). La soluzione avanzata viene cosi re­ spinta adducendo a motivo, o sottintendendo, la convin­ zione che quelle particolari condizioni iniziali non possano verificarsi « per caso ». Ma ancora una volta ci ritroviamo di fronte al perché siamo tutti pronti a considerare implau­ sibili certe configurazioni quando si pongano come condi­ zioni iniziali, ma non come condizioni finali. Lampanti so­ no le analogie con la freccia termodinamica. Un cenno infine alla quinta freccia, associata a una clas­ se di eventi rari in fisica delle particelle - i cosiddetti deca­ dimenti in violazione della simmetria CP di certi mesoni (cfr. cap. n) - e verosimilmente ad altri effetti impalpabili a livello particellare. Questa freccia si discosta dalle altre per il fatto che le equazioni attinenti sono di per se stesse espli­ citamente asimmetriche rispetto alla direzione del tempo, non dipendendo l'asimmetria da imposizioni esterne. AI momento, le origini di questa asimmetria sono alquanto nebulose ed è opinione concorde, ma ancora contestabile, che essa poco abbia a che fare con le altre frecce. (Si con­ fronti l'analoga situazione, citata nel quarto capitolo, a

CAPITOLO QUINTO

proposito della violazione della parità ai livelli subatomico e biologico) . Limitandoci alle prime quattro frecce, possiamo co­ munque tracciare un quadro d'insieme abbastanza convin­ cente: la freccia cosmologica si pone alla base dell'edificio; da essa dipende la freccia elettromagnetica, per cui non a caso, ad esempio, le stelle emanano energia luminosa verso l'esterno anziché risucchiarla; poiché la radiazione è essen­ ziale alla vita, ne viene univocamente determinata la dire­ zione della differenziazione biologica nel tempo, e quindi la nostra percezione psicologica di passato e futuro; infine, la freccia termodinamica è in stretto rapporto nella natura inanimata con quella elettromagnetica, e in laboratorio con quella psicologica secondo quanto descritto in prece­ denza. Tuttavia, anche se non è difficile escogitare suppor­ ti alle varie connessioni, occorre dire che nessuna di esse è stata dimostrata col necessario vigore e saremmo proprio curiosi di scovare un fisico disposto a giocarsi la carriera sull'asserzione, ad esempio, che la vita cosciente dev'essere impossibile in un universo in contrazione. Tutto lascia supporre che per molti anni a venire questo affascinante complesso di problemi continuerà a tenere impegnati fisici e filosofi (per non parlare di biologi e psicologi). Il paradosso della misurazione quantistica.

A chiunque volesse esser sicuro di suscitare grande ani­ mazione - e, in certi casi, forte emozione - in un gruppo di fisici abitualmente flemmatici suggeriremmo di introdurre nella conversazione l'argomento delle fondamenta della meccanica quantistica e piu in particolare il problema della misurazione quantistica. A parte forse la vetusta antitesi « natura/educazione» in biologia o psicologia, non v'è di­ sputa in tutta la scienza odierna - e certamente non nelle discipline fisiche - sulla quale le opinioni di schiere di esperti divergano in tale misura, o siano sostenute con ac-

1 97

SCHELETRI NELL'ARMADIO

centi cosi vibranti. A un estremo, troviamo una scuola di pensiero accanita nell'affermare che tutti i problemi in proposito sono stati risolti da tempo e che anche solo il sof­ fermarcisi sia ipso facto una pura perdita di tempo; l'altro estremo è presidiato da coloro che denunciano questioni irrisolte di tale importanza e urgenza da rendere assurdo il continuare a battere le strade consuete sintantoché non si sia data loro una risposta adeguata. Riprendiamo in esame il classico esperimento di diffra­ zione con due fenditure descritto nel primo capitQlo. Ab­ biamo visto che il tentativo di individuare per mezzo di un rivelatore quale delle due fenditure sia attraversata da un dato elettrone ci porta invariabilmente allo stesso risultato, e cioè che ogni elettrone sembra uscire dall'una o dall'altra fenditura. Ad ogni modo, in queste circostanze la distribu­ zione degli elettroni sul secondo schermo non presenta al­ cun effetto di interferenza. D'altra parte, se rinunciamo a osservare quale fenditura viene scelta dall'elettrone, sul se­ condo schermo compare una figura di interferenza carat­ teristica di un'onda in grado di propagarsi simultaneamen­ te attraverso entrambe le fenditure. L'elettrone avrebbe dunque comportamenti diversi a seconda che sia o meno posto sotto osservazione!

Figura 5.2. Transizioni fra stati possibili di un sistema quanto-meccanico.

® �@ ®� �© >® �®

CAPITOLO QUINTO

Questo fenomeno è tipico del formalismo della mecca­ nica quantistica e della sua interpretazione corrente. Im­ maginiamo un sistema descrivibile in termini quantistici e dunque, sul piano teorico, in conformità all'ortodossia, qualsiasi sistema fisico - e in grado di accedere a un certo numero di stati fisici A, B, C, D, E, F secondo il diagramma rappresentato in figura 5.2. Da notare in particolare che lo stato E può essere raggiunto a partire da A seguendo due vie diverse. Supponiamo anche, per semplicità, che le frec­ ce indichino un processo temporale, per cui dopo un certo intervallo ci sia noto se il sistema è approdato allo stato B piuttosto che C. Se a questo punto organizzassimo un esperimento per accertare in quale situazione si trovi il si­ stema, otterremmo una risposta inequivocabile: o lo stato B o lo stato C, in nessun caso una combinazione dei due. Al di là poi dei risultati apparentemente casuali di ogni singo­ la prova, potremmo verificare senza difficoltà che, condu­ cendo un numero di prove elevato, vi sono ben definite e riproducibili probabilità di ottenere rispettivamente B e C. Allo stesso modo si può procedere per stabilire le probabi­ lità che un sistema occupante nello stadio intermedio lo stato B si evolva allo stato finale D o E. Insomma, con una serie di esperimenti, siamo in grado di determinare le varie probabilità, ad esempio PA � s� 0 («probabilità che il siste­ ma si sviluppi dallo stato A allo stato D attraverso lo stato B »). Si tenga presente che, grazie a questo assetto speri­ mentale, la probabilità di partire da A e ritrovarsi in E è per costruzione la somma delle probabilità PA �s�E e PA -+c�E· (Ovvio che non possa essere minpre; se poi fosse maggiore, dovremmo concludere di esserci lasciati sfuggire uno o piu altri possibili stati intermedi). Mettiamo ora il caso di aver deciso di disinteressarci de­ gli stadi intermedi, lasciando il sistema completamente iso­ lato sino al raggiungimento dello stadio finale. Avremo co­ si una probabilità totale, P A -+ E> che esprime il passaggio da A a E. Sarà uguale alla somma di PA � s-. E e PA � c� E? In ge-

SCHELETRI NELL'ARMADIO

199

nerale sarà maggiore o minore e i risultati quantitativi sono di fatto compatibili con l'ipotesi che PA� E sia il quadrato di un'ampiezza AA� E che è la somma algebrica di due am­ piezze AA� B � E e AA � c� E corrispondenti ai due diversi ' percorsi (e, beninteso, PA�B� E = (A A�B�E F, ecc.): PA�E = A2A� E = (AA�B� E + AA �c�E) 2 = A\�B� E + A2 A�c�E + 2A A�B� E A A�c�E =

La somma di PA � B� E e PA� c - E darebbe invece sempli­ cemente A2A� B� E + A2A� c� E · Questa non è altro che la ge­ neralizzazione dell'ipotesi che abbiamo dovuto fare nell'e­ sperimento delle due fenditure (cfr. cap. I) . I risultati otte­ nuti sono una limpida e netta previsione del formalismo della meccanica quantistica e dimostrano il carattere tipi­ camente quanto-meccanico dell'« interferenza » delle pos­ sibilità inosservate; vedremo in seguito che la loro verifica sperimentale per un sistema arbitrario è problema non da poco, che comunque è stato risolto con successo spettaco­ lare in relazione a numerosi sistemi microscopici. Ad esempio, utilizzando un interferometro a neutroni è possi­ bile far corrispondere gli stati B e C a stati in cui il neutrone abbia non soltanto una diversa posizione spaziale (come nel semplice esperimento delle due fenditure), ma anche un differente orientamento di spin, cosf da riscontrare una reale interferenza tra i due stati. Analogamente, un fascio di mesoni K neutri ha a disposizione due stati, denominati KL e K5, ciascuno con una propria modalità di decadimen­ to. Se un mesone decade attraversando l'apparecchiatura, si può stabilire con sicurezza se era KL o K5, ma se non de­ cade, si possono vedere gli effetti dell'interferenza tra gli stati KL e K5 ! Vedremo piu avanti un esempio ancor piu vi­ stoso. Il « dispiegarsi », con relativa interferenza, di possi­ bilità inosservate da un lato, e il fatto che l'osservazione fornisca un risultato preciso dall'altro, possono essere vi­ sualizzati come generalizzazioni degli aspetti rispettiva-

200

CAPITOLO QUINTO

mente «ondulatorio » e «corpuscolare» del comportamen­ to di un elettrone nell'esperimento delle due fenditure. Appigliandosi all'interpretazione tradizionale del for­ malismo della meccanica quantistica, si sarebbe perciò in un certo senso indotti a concludere che un sistema non possieda proprietà definite sino a quando lo « costringia­ mo » a dichiararle mettendo in pratica una misura appro­ priata. Ma è questo l'unico modo possibile di « leggere » i dati sperimentali? Non potrebbe darsi che il formalismo quantistico sia soltanto una descrizione grossolana corri­ spandente all'attuale livello delle conoscenze, un velo su­ perficiale che copre una realtà piu profonda, un po' come la rappresentazione termodinamica di oggetti macroscopi­ ci ha lasciato trasparire una descrizione piu microscopica, quella fornita dalla teoria molecolare e dalla meccanica sta­ tistica? Ne conseguirebbe in tal caso che ogni sistema, sia o meno sottoposto a misura, è dotato nel profondo di pro­ prietà oggettive. Quest'ipotesi è seducente anche per un altro motivo: laddove la meccanica quantistica nella sua formulazione standard offre soltanto eventi suscettibili di misure di probabilità e non consente di chiedersi perché da una particolare prova è scaturito un certo risultato, se si ammette l'esistenza di un livello sottostante diventa plausi­ bile che a questo livello la risposta di ogni singola misura sia determinata in modo univoco. Gli esiti apparentemente casuali previsti dal formalismo quantistico sarebbero sem­ plicemente dovuti alla nostra ignoranza dei dettagli della descrizione a livello piu profondo - esattamente come ci serviamo della meccanica statistica, una teoria probabili­ stica, per spiegare il comportamento di un corpo macro­ scopico, pur sapendo che (almeno all'interno della fisica classica) tutto quanto succede è in realtà esclusiva e rigoro­ sa conseguenza dei movimenti molecolari precedenti (ov­ viamente a noi inconoscibili) . Su questo genere di teorie, ricche di motivi d'interesse e definite di solito « a variabili nascoste », si sono appuntate

SCHELETRI NELL'ARMADIO

20I

numerose ricerche, anche se la loro conciliabilità con i dati sperimentali presuppone un certo numero di connotati bizzarri e, a dire di non pochi fisici, importuni. Diciamo pure che a lungo si è creduto che non si potesse costruire alcuna teoria a variabili nascoste in grado di offrire predi­ zioni sperimentali compatibili con quelle ben documenta­ te della meccanica quantistica, neppure per sistemi ele­ mentari con una particella di spin rh sottoposta a misura­ zione delle varie componenti dello spin. Oggi lo scoglio è stato superato e per questi casi semplici sono state messe a punto teorie a variabili nascoste che si sono rivelate in buon accordo con le predizioni quantistiche, e quindi con i dati sperimentali. (Superfluo aggiungere che in simili teo­ rie si deve tenere esplicito conto del modo in cui l'effettua­ zione di una misura si ripercuote sullo stato successivo del sistema). Comunque, quando siano coinvolte due particel­ le che hanno interagito in passato ma sono ora separate e distanti tra loro, una descrizione a variabili nascoste non in contrasto con le previsioni quantistiche può essere conser­ vata soltanto sacrificando un paio di convincimenti che molti preferirebbero tenersi. La prova di questo notevole teorema, uscita dalla fertile mente di}. S. Beli nel r 964 e da allora ripetutamente affinata, è talmente lineare da merita­ re un rapido cenno. Per rispetto alla concretezza, concentriamo l'attenzione sul sistema normalmente adottato a fini sperimentali: un insieme di atomi identici che possano assumere uno stato eccitato e quindi tornare allo stato normale tramite un pro­ cesso « in cascata », ossia un processo che comporta due transizioni, dallo stato eccitato iniziale a uno stato interme­ dio e da questo allo stato finale (a energia piu bassa). In cia­ scun « salto » della cascata viene emesso un fotone, e sono proprio le coppie di fotoni il nostro vero obiettivo, essendo gli atomi limitati al ruolo di fornitori. Restringiamo il cam­ po alle coppie in cui un fotone è emesso lungo l'asse +Z e l'altro l'ungo l'asse -z e supponiamo di avere il mezzo di

202

CAPITOLO QUINTO

identificare senza possibilità di equivoci il « partner» di un dato fotone, cioè il compagno emesso dallo stesso atomo. (Lo scopo è raggiungibile in linea di principio diluendo il gas di atomi abbastanza da far si che mediamente l'inter­ vallo tra processi in cascata in atomi diversi sia lungo a fronte della durata dello stato atomico intermedio. Nella pratica la situazione è un po' piu complessa, ma non costi­ tuisce una vera difficoltà). Sui due fotoni siano realizzabili misure di polarizzazione, secondo quanto descritto piu avanti, in punti posti a una certa distanza rispettivamente nelle direzioni +z e -z (cfr. fig. 5 . 3 ). Indicando con L il tratto compreso tra la sorgente e cia­ scuno strumento, se il primo fotone viene emesso all'istan­ te zero, poniamo nella direzione +Z, l'apparecchio M1 ver­ rà raggiunto in un tempo LIc, dove c è la velocità della lu­ ce. Emesso il primo protone e ricaduto l'atomo nello stato intermedio, dovrà trascorrere un intervallo M, all'incirca pari alla vita media, 't , di questo stato, prima della fuorusci­ ta del secondo fotone, che perciò colpirà M2 all'istante

Figura 5-3· Allestimento schematico di un esperimento per misurare la polarizzazione di fotoni emessi in un processo atomico in cascata.

L

L

fotone ______.

M,

fotone I

2

sorgente atomica interruttori attivati a caso

L-------
------J

SCHELETRI NELL'ARMADIO t:.t + L/c. Le misure effettuate da M 1 e M2 sono di conse­ guenza separate nel tempo di t:.t e nello spazio di 2L/c. Se dunque L è maggiore di cMh (come succederà per quasi tutte le coppie, supposto che L sia apprezzabilmente mag­ giore di crh), tra i due rilevamenti non vi sarà tempo per il passaggio di un segnale luminoso, per cui si dovrà esclude­ re, in ottemperanza ai principi della relatività ristretta, qualsiasi connessione causale. Nella sequenza sinora piu spettacolare di esperimenti di questo tipo le condizioni erano ampiamente soddisfatte, con L intorno ai 6 metri e una durata dello stato intermedio suppergiu pari a 5 x ro-9 secondi. Le misure che intendiamo compiere sulle coppie di fo­ toni riguardano quella che va sotto il nome di polarizzazio­ ne lineare. Evitando di addentrarci inutilmente nei parti­ colari, diciamo soltanto che la meccanica quantistica avan­ za previsioni certe sui risultati: è sufficiente schematizzare gli apparecchi come semplici scatole nere con un unico pa­ rametro di controllo regolabile (p1 per M 1 e p2 per M2), ca­ paci di sfornare per ogni taratura e ogni fotone incidente una risposta del tipo si/no. Tarando al valore a il parame­ tro di controllo p1 del congegno M�> definiamo una variabi­ le A in modo che, dato un fotone incidente su M1, si abbia A +I, ovvero A -I, a seconda che la risposta sia positi­ va o negativa. Analogamente, tarando il parametro di con­ trollo p 1 al valore h, definiamo una variabile B in modo che, per un determinato fotone, valga +I o -I a seconda che M 1 segnali un si o un no. Si noti che, se la taratura di p 1 è h, A risulta (sino ad ora) indefinito, e viceversa. Procedendo al­ lo stesso modo si considerano le tarature c e d del parame­ tro di controllo P2 del congegno M2, specificando le varia­ bili C e D che possono assumere i valori +I e -I . In relazio­ ne a qualsiasi fotone I possiamo cosi misurare una delle grandezze A e B (ma non ambedue) e, a qualsiasi fotone 2, una delle grandezze C e D. Se ne deduce che di ogni coppia potremo misurare uno e uno soltanto dei prodotti AC, AD, =

=

204

CAPITOLO QUINTO

BC e BD, ottenendo comunque una risposta + I o -1 L'e­ sperimento consiste nell'operare su un gran numero di coppie, alternando tra a e b la taratura di M1 e tra c e d quella di M2, in modo da ritrovarsi con molteplici misura­ zioni di ciascuna delle quantità AC, AD, BC e BD. I dati sperimentali di base sono i valori medi di queste quantità, che indicheremo con la notazione (AC). Prima di imbarcarci in una discussione su ciò che pos­ siamo attenderci da un esperimento del genere, vorrei ag­ giungere un'importante postilla. Supporremo che i para­ metri di controllo p 1 e p2 possano essere fissati arbitraria­ mente « all'ultimo momento », vale a dire, subito prima che il fotone penetri nello strumento. Cosi facendo, il com­ portamento del fotone 2 non potrà essere influenzato cau­ salmente né dall'esecuzione della misura sul fotone I né dalla nostra scelta della grandezza (A o B) da misurare. In realtà, modificare il valore del parametro di controllo per un dispositivo con preavviso cosi breve - meno di IO -9 se­ condi - è tecnicamente difficile, ma nella versione piu spettacolare dell'esperimento (eseguita a Parigi da Alain Aspect e collaboratori) si realizza una struttura equivalen­ te (questa almeno è la speranza) ricorrendo a due diversi apparecchi per il fotone I, con valori predeterminati a e b rispettivamente, e indirizzando il fotone all'uno o all'altro per mezzo di un interruttore attivato a caso. La stessa cosa per il fotone 2 (cfr. fig. 5 .3). Lasciatemi ancora formulare una serie di ipotesi d' ap­ parenza innocua. Primo, ogni fotone I o 2 è caratterizzato da un valore definito delle variabili che gli competono (A e B per gli uni, C e D per gli altri), indipendentemente dal fatto che esse siano oggetto di misura. Secondo, i valori di C e D posseduti dal fotone 2 non risentono della misura (né dei suoi risultati) per il fotone di A piuttosto che di B ad opera del lontano apparecchio M1; e lo stesso vale per i va­ lori di A e B un rapporto alla taratura di M2• Terzo, il valore medio di (AC) ricavato per le coppie sulle quali si sta va.

SCHELETRI NELL'ARMADIO

205

lutando questa combinazione è identico (tenendo conto delle normali fluttuazioni statistiche) al valore medio di tutte le coppie; in altri termini, il campione su cui si è rile­ vato AC è rappresentativo dell'insieme, come lo sarebbe (BC). Le teorie che soddisfano a queste tre ipotesi, o a loro varianti non significative, sono definite « teorie locali og­ gettive » e hanno carattere un po' piu generale e quindi comprensivo delle teorie locali a variabili nascoste. Ci sembra il caso di sottolineare quanto siano manifesta­ mente inoffensive le nostre ipotesi. La prima, ad esempio, non implica che si disponga necessariamente di un metodo per conoscere A senza misurarla in pratica, né che il valore di A sarebbe insensibile al procedimento di misura, limi­ tandosi a stabilire che per ciascun fotone I esiste un risulta­ to definito cui « saremmo » pervenuti ove avessimo misu­ rato A. La seconda ipotesi, data la geometria dell'esperi­ mento, è (almeno a prima vista ! ) semplicemente un'appli­ cazione di uno dei principi basilari della relatività ristretta; presentando una separazione-spazio, gli eventi della tara­ tura di M1 e della misura con M2 non possono esercitare un influsso reciproco'. Infine, la terza ipotesi ha le sembianze di un'estensione del consueto principio di induzione, se­ condo il quale, se misuro una grandezza su un sottoinsieme scelto a caso da un insieme dato, i risultati che ottengo do­ vrebbero essere tipici di tutto l'insieme. Veniamo ora a un semplicissimo esercizio di algebra. In forza della prima ipotesi, ogni fotone I possiede un va­ lore ± I di A e ± I di B che, per effetto della seconda ipo­ tesi, è indipendente dal fatto che si misuri C o D. Simil­ mente, ogni fotone 2 ha un valore ± I di C e ± I di D che nulla ha a che fare con la misura di A o B. Di conseguenza, ogni coppia di fotoni ha un valore ± 1 di ciascuna delle quantità AC, BC, AD, e BD, per cui anche della combina3 Non mancano cavillose disquisizioni attorno a ciò che si intende esattamente per « misura>>, ma l'affermazione è valida per quanto riguarda l'interpretazione piu semplice.

206

CAPITOLO QUINTO

zione AC + BC + AD - BD. Non è difficile persuadersi che, per ognuno dei 16 casi diversi corrispondenti alle possibili scelte ± I per A, B, C, e D presi separatamente, questa com­ binazione vale sempre +2 o -2; dunque la media per l'inte­ ro gruppo di coppie non può essere maggiore di 2 (o mino­ re di -2). Poiché la media di una somma di termini è uguale alla somma delle medie, se ne deduce: (AC)

+

(BC) + (AD) - (BD) � 2

dove le medie si riferiscono ai valori medi per tutte le cop­ pie considerate insieme. Per finire, in virtu della terza ipotesi possiamo identifi­ care le medie (AC) ecc. con i valori di questa grandezza misurati sperimentalmente. In tal modo ci ritroviamo in mano una previsione chiara relativa alle reali grandezze misurate nell'esperimento. Ma ecco un punto dolente. La meccanica quantistica of­ fre previsioni lucide e certe sui valori delle grandezze tipo (AC), le quali grandezze, scegliendo opportunamente le tarature, non si conformano alla suddetta disuguaglianza! Del resto, i risultati dell'esperimento sono inequivocabili: i dati si accordano alle previsioni quanto meccaniche entro l'errore sperimentale, ma ciononostante sono in contrasto con la disuguaglianza. Si direbbe dunque che sia necessa­ rio sacrificare almeno una delle tre ipotesi che delimitano una teoria locale oggettiva. Il responso è cosi sorprendente - molti userebbero l' ag­ gettivo « allarmante » - che negli ultimi vent'anni si sono moltiplicati i tentativi di trovare scappatoie nel ragiona­ mento teorico o nell'analisi degli esperimenti. Le vie di fu­ ga non mancano. Ma per quanto ne siano state chiuse un gran numero (molte grazie a miglioramenti nella tecnica sperimentale) , non dubitiamo che l'ingegno dell'uomo sa­ prà individuarne altre (come ultima risorsa, non è possibile opporsi su un piano logico alla tesi che tutti i dati sperimen­ tali sinora messi insieme siano soltanto un gigantesco acci-

SCHELETRI NELL'ARMADIO

207

dente statistico ! ) Tutto ciò che si può dire è che queste obiezioni nella loro gran parte sono cosi palesemente co­ struite ad hoc che in ogni altro contesto non sarebbero neppure prese in considerazione. Lasciamo al lettore deci­ dere se gli argomenti aprioristici a favore dell'oggettività locale siano tanto irresistibili da giustificare l'aggrapparsi a qualsiasi salvagente pur di salvarla. Scegliendo di ignorare le scappatoie, a quale dei tre in­ gredienti di una teoria locale oggettiva sarebbe meno dolo­ roso rinunciare? Molti si mostrerebbero estremamente ri­ luttanti a sacrificare il secondo, il principio della causalità locale, nel timore di uno sgretolamento dell'intero edificio della teoria quantistica dei campi. Altrettanto ripugnante appare ai piu l'idea di abbandonare il terzo, cioè l'assunto che le coppie sulle quali viene condotta la misura di una specifica proprietà siano rappresentative di tutto l'insie­ me. Val però forse la pena di mettere in evidenza che que­ sta ripugnanza si ricollega alla radicata convinzione che lo stato di un sistema (in questo caso la coppia di fotoni) nel­ l'intervallo tra l'emissione e la misura sia funzione delle condizioni iniziali (gli atomi emittenti) e non di quellefina­ li (il risultato della misura). Si può concepire che in un cli­ ma di completa revisione delle nostre idee sulla freccia del tempo saremmo meno angosciati alla prospettiva di privar­ ci di questo puntello. Sia come sia, oggi tra i fisici prevale il punto di vista che il minore dei mali possibili sia distaccarsi dalla prima ipotesi e schierarsi con Niels Bohr nel sostene­ re come non sia neppure immaginabile che entità micro­ scopiche quali sono i fotoni manifestino proprietà definite in assenza di uno strumento di misura approntato per de­ terminarle. Quest'asserzione è uno dei cardini della cosid­ detta « interpretazione di Copenaghen » della meccanica quantistica, che ebbe in Bohr un autorevole esponente e può essere a buona ragione considerata l'ortodossia domi­ nante degli ultimi sessant'anni. Chiedersi come « si sareb­ be» comportato un fotone esposto a un diverso apparec-

208

CAPITOLO QUINTO

chio di misura è in quest'ottica del tutto privo di significa­ to. Dalla «lettura» degli esperimenti atomici in cascata si trae la stupefacente conclusione che, in contrapposizione a un travisamento che nacque probabilmente da qualcuno dei primi scritti a carattere divulgativo di Heisenberg e tenne banco nel dibattito scientifico almeno per una deci­ na d'anni, questo aspetto essenziale della meccanica quan­ tistica non ha nulla a che spartire con eventuali ingerenze fisiche nel sistema da parte dello strumento di misura; nel­ l' analisi di questi esperimenti, stabilita la causalità locale, non c'è semplicemente posto per una qualsivoglia « altera­ zione da misura ». Se fosse tutto qui - se tutto cioè si riducesse a una diffe­ renza di status antologico tra entità microscopiche e ma­ croscopiche, come cosi spesso sembra sottintendere Bohr nei suoi scritti - potremmo cullarci nell'idea che la situa­ zione, seppure inattesa, non pone difficoltà filosofiche di fondo. (Negli anni '30 e '40 numerosi filosofi di professio­ ne scesero a patti con la meccanica quantistica lungo le li­ nee generali tracciate da Bohr) . Ma, ahimè, il peggio deve ancora venire. Gli scricchiolii piu preoccupanti nelle fon­ damenta della meccanica quantistica nascono infatti pro­ prio dall'assenza di una diversità profonda tra il mondo microscopico degli elettroni e dei fotoni e il mondo macro­ scopico delle sedie, dei tavoli, dei contatori Geiger e delle lastre fotografiche. Visto che la meccanica quantistica si propone in veste di descrizione completa e unificata dell'u­ niverso, non v'è modo di impedire che eventuali difetti o motivi di apprensione a livello microscopico si propaghino verso l'alto e giungano a infettare anche il livello macroco­ smico. Tanta per non restare nel vago, prendiamo in esame la nozione di « misura ». Supponiamo ad esempio di voler «controllare » quale via ha percorso l'elettrone nel classico esperimento delle due fenditure. Allo scopo potremmo collocare di fronte a ciascuna delle fenditure un numerato­ re di particelle, poniamo un contatore Geiger o qualcosa di

SCHELETRI NELL'ARMADIO

simile. Diamo loro nome C1 e C2• Poiché l'elettrone deve aver attraversato l'una o l'altra fenditura ma non entram­ be, la logica ci suggerisce che uno dei due contatori regi­ strerà il suo passaggio ad esclusione dell'altro. Come fac­ ciamo a saperlo ? Avvertendo un solo scatto del contatore (ovvero compulsando un tabulato o in qualsiasi altro mo­ do); insomma, una questione di esperienza diretta. Intendiamoci, però. Il contatore non è una sorta di ordi­ gno magico, ma semplicemente una combinazione di mo­ lecole gassose, elettrodi e pezzi vari, per cui dovrebbe esse­ re soggetto alle normali leggi della fisica, e in particolare ai principi della meccanica quantistica. Ciò significa, tra l'al­ tro, che sino a quando non diventa oggetto di osservazione dovrebbe avere lo stesso comportamento di un'onda, cioè che il suo stato dovrebbe continuare a rappresentare tutte le possibilità. In particolare, l'applicazione del formalismo quantistico al complesso elettrone-contatori sfocia inevita­ bilmente in una descrizione in cui sarebbe errato affermare che uno dei contatori si è attivato e l'altro no; meglio dire che le due possibilità vanno di pari passo. Questa compo­ nente non è un elemento accidentale eliminabile, ad esem­ pio, modificando nel dettaglio le ipotesi intorno al funzio­ namento dei contatori, ma è parte integrante del formali­ smo quantistico. Almeno sintantoché ci portiamo al livello dell'osservatore umano cosciente, in nessun punto il for­ malismo consente l'introduzione - che non sia per volontà esplicita - del concetto di «misura » interpretata come processo capace di garantire la selezione di un unico risul­ tato concreto tra un certo numero di possibilità. La man­ canza di obiettività che sembra caratterizzare la descrizio­ ne quantistica al livello microscopico si allarga perciò a quello macroscopico. A sottolineare l'incomoda situazio­ ne vale il famoso «paradosso del gatto di Schrodinger », di cui vi propongo una versione lievemente modificata. Ag­ giungiamo al solito apparato una scatola chiusa e imper­ meabile ai rumori contenente un gatto e un sistema per

210

CAPITOLO QUINTO

giustiziarlo e serviamoci dell'elettronica per assicurarci che l'animale venga ucciso soltanto quando entra in azione il contatore C1• Scelto in modo appropriato lo stato iniziale dell'elettrone, il formalismo quantistico anticipa senza possi­ bilità di equivoco che, superato dall'elettrone lo schermo con le fenditure, il gatto sarà descritto da uno stato che non corrisponde né alla vita sicura né alla morte certa, inglo­ bando invece ambedue le possibilità! D'altra parte, il buon senso (e magari un'agevole verifica, se non con i fatti, alme­ no con i contatori) ci dice che all'apertura della scatola la bestiola ci apparirà o viva o morta, escludendosi stravagan­ ti commistioni tra i due estremi. Si può sintetizzare la situazione affermando che nel for­ malismo quantistico, a differenza di quanto si registra nel­ l'esperienza quotidiana, le cose non « accadono ». Questo è in sostanza il paradosso della misurazione quantistica, considerato da alcuni fisici un non-problema e da altri una mina vagante dagli effetti dirompenti. Passiamo in rapida rassegna le sue « soluzioni » piu popolari. Nella cerchia dei « minimizzatori », la spiegazione che trova forse maggior credito si dipana a un dipresso nel mo­ do seguente. Intanto, viene fatto notare che l'unico motivo di credere che l'elettrone, se inosservato, si propaghi in un certo senso attraverso entrambe le fenditure o, piu in gene­ rale, nel caso discusso in questo capitolo, che il sistema uti­ lizzi ambedue gli stati B e C, è dato dal fatto che possiamo osservare sperimentalmente gli effetti dell'interferenza tra le due possibilità. Si rileva poi che qualsiasi dispositivo di misura dev'essere necessariamente un sistema macrosco­ pico, per giunta costruito in modo che i possibili stati del sistema microscopico (elettrone o fotone) debbano indur­ re stati macroscopicamente diversi dell'apparato (cosi, se l'elettrone infila la fenditura r viene eccitato il contatore cl> che diversamente rimane inerte; va da sé che le due condizioni sono nettamente distinguibili). Per inciso, la salvaguardia del risultato della misura dalle fluttuazioni

SCHELETRI NELL'ARMADIO

2II

termodinamiche presuppone nel funzionamento del di­ spositivo un notevole grado di irreversibilità. n passo suc­ cessivo è la constatazione che un'oculata applicazione del formalismo quantistico a un sistema del genere porta a concludere che le conseguenze dell'interferenza tra stati macroscopicamente distinti sono inosservabili - in pratica, se non in teoria - e quindi che tutte le previsioni sperimen­ tali relative al comportamento del dispositivo saranno identiche come se esso occupasse davvero l'uno o l'altro stato macroscopico (ma non sappiamo quale) . E per finire, lasciando scaltramente cadere il « come se », ecco venir fuori che «perciò » il' dispositivo è realmente in uno dei due stati macroscopici (e che il gatto di Schrodinger è in ef­ fetti vivo o morto) . A parte l'ultima, le varie tappe di questo ragionamento suscitano pochi dissensi. (Quando all'asserzione che i si­ stemi macroscopici incorporanti un normale grado di irre­ versibilità non possano mostrare interferenza tra stati ma­ croscopicamente distinti, sono ormai centinaia i saggi e gli articoli che l'appoggiano con esempi piu o meno realistici). Ma che dire del passaggio finale? Molti fisici lo giudicano del tutto accettabile; e invero, se si ammette che due de­ scrizioni alternative di un sistema che porgano previsioni identiche per il risultato di tutti gli esperimenti possibili debbano ipso facto essere equivalenti, non vi sono proble­ mi. Una minoranza (incluso il sottoscritto) è invece dell'i­ dea che vi sia un abisso logico invalicabile tra l'affermare che il sistema si comporta « come se » fosse in uno stato macroscopico definito e il sostenere che è in quello stato, per cui considera l'ultima parte del ragionamento il corri­ spettivo intellettuale di un trucco da illusionista, assoluta­ mente inadeguato a rimuovere il vero ostacolo. Che cosa resta allora agli insoddisfatti? Una possibilità logica consiste nell'assegnare alla descrizione quantistica di sistemi macroscopici lo stesso ruolo che sovente svolge al microlivello, sfruttandola cioè come calcolo formale

212

CAPITOLO QUINTO

orientato alla previsione della probabilità di vari eventi macroscopici (ad esempio, lo scatto udibile o meno di un particolare contatore) . Da quest'angolazione, domande ti­ po « Qual era lo stato del gatto di Schrodinger prima che lo esaminassimo? » esulano semplicemente dalla giurisdizio­ ne della meccanica quantistica e non dovrebbero pertanto essere neppure poste (esattamente come ai piu appaiono prive di significato, a livello macroscopico, quesiti sul ge­ nere «Quale fenditura ha imboccato l'elettrone? ») A stret­ to rigore, se ne dovrebbe dedurre che simili domande re­ steranno per sempre senza risposta e dunque sono forse in­ sensate? In forma piu blanda, rimarrebbe aperta la possi­ bilità teorica che un giorno una nuova teoria rimetta tutto in gioco. Ad ogni buon conto, questo punto di vista è in violento conflitto con la nostra convinzione spicciola che le domande sullo stato macroscopico di un oggetto macro­ scopico siano non soltanto legittime ma abbiano in linea di massima risposte precise. Se alla fine dovessimo rassegnar­ ci a convivere con esso, probabilmente pagheremmo il prezzo di un notevole disagio mentale. Sono state proposte numerose altre soluzioni del para­ dosso: ad esempio, che la coscienza umana svolga un ruolo essenziale, ma non esprimibile attraverso le leggi della fisi­ ca. Poiché dei meccanismi della coscienza sappiamo forse ancor meno che dei principi di base della meccanica quan­ tistica, l'idea di sviscerare questa o consimili proposte non mi pare affatto allettante. Tuttavia è doveroso accennare a una soluzione diciamo cosf esotica, non foss'altro per l' am­ pia pubblicità che le è stata riversata in recenti saggi divul­ gativi di meccanica quantistica e cosmologia: sto parlando di quella che va sotto i variegati nomi di interpretazione di Everett-Wheeler, dello stato relativo, o dei molteplici mondi. Alle radici di questa supposta soluzione sta una se­ rie di teoremi formali nella teoria della misurazione quanti­ stica capaci di garantire che la probabilità che due diverse «misure » della medesima caratteristica diano risultati dif-

SCHELETRI NELL'ARMADIO

ferenti (s'intende, specificando adeguatamente le condi­ zioni) è nulla. Tanto per intenderei, la probabilità che un osservatore oda lo scatto del contatore r al passaggio di un particolare elettrone mentre un altro sente il « clic » del contatore 2 è zero. L'interpretazione dei «molteplici mon­ di», almeno come ce la presentano i suoi fautori piii entu­ siasti, ci informa insomma in parole povere che la nostra impressione di ricavare un determinato risultato per ogni esperimento è illusoria; che continuano a esistere risultati alternativi in versione « mondi paralleli », ma che i suddetti teoremi formali escludono che l'individuo possa essere consapevole di piii di un « mondo », del resto uguale per tutti gli osservatori. Si sostiene che i mondi non osservati sono « altrettanto reali » di quello che i nostri sensi percepi­ scono. Dai piii accesi sostenitori di questa teoria sono pio­ vute conclusioni di ordine cosmologico, psicologico e via dicendo che agli scettici appaiono a dir poco strampalate. Mi sia concesso a questo punto il lusso di esternare un'opinione personale che certo sarebbe aspramente con­ testata da una parte dei miei colleghi. L'interpretazione dei molteplici mondi ha, secondo me, tutta l'aria di un placebo verbale, utile a risolvere in apparenza il problema, ma tale in realtà da svilirne i concetti centrali e, in special modo, quello di « realtà». Quando leggo che gli « altri mondi », di cui non siamo e, in linea di principio, non potremmo mai essere coscienti, sono « altrettanto reali », mi nasce il so­ spetto che le parole siano state divelte dal contesto che ne definisce il significato e scaraventate, per cosi dire, nello spazio interstellare, svuotate di qualsiasi punto di riferi­ mento e quindi, a mio giudizio, di qualsiasi contenuto. Ri­ tengo che tra duecento anni i nostri discendenti avranno difficoltà a capire come un gruppo di insigni scienziati del tardo xx secolo - e poco importa si tratti di una minoranza - possa anche solo per un attimo aver abbracciato una tesi cosi palesemente assurda sul piano filosofico. Chi legge queste righe avrà compreso da un pezzo che

214

CAPITOLO QUINTO

nessuna delle cosiddette soluzioni del paradosso della mi­ surazione quantistica attualmente sul mercato riscuote il mio consenso. Anzi, la mia personale insoddisfazione è il punto di partenza per alcune osservazioni speculative che vi proporrò nell'ultimo capitolo.

Capitolo sesto Uno sguardo al futuro

Uno dei privilegi concessi all'autore di un libro di que­ sto tipo è l'opportunità di esercitarsi nella pericolosa arte del vaticinio dell'evoluzione cui la propria disciplina andrà incontro nei decenni a venire. La strada della fisica è lastri­ cata di baldanzose profezie, sovente uscite di bocca a illu­ stri personaggi, che nel volgere di pochi anni si sono rivela­ te affette da mio pia. Ciononostante, la tentazione di specu­ lare, o quanto meno di mettere in risalto qualche punto specifico, è troppo forte perché io possa resistervi. Super­ fluo dire che le opinioni espresse in questo capitolo sono personali e non pretendono in alcun modo di riflettere il consenso - ammesso che ne esista uno - della comunità dei fisici; semmai, è assai probabile che vadano a cozzare con­ tro il punto di vista della maggioranza. Qualche anno fa Stephen Hawking, autorevole cosmo­ logo e fisico delle particelle, tenne una conferenza dal tito­ lo Lafisica teorica ha i giorni contati?, rispondendo alla sua stessa domanda con un qualificato « sf ». La sua tesi era che a termine presumibilmente breve dovrebbe registrarsi una fusione non soltanto dell'interazione forte con quella de­ bole - cioè una teoria « di grande unificazione » (cfr. cap. n) - ma di entrambe con la gravità; che i dati della cosmo­ logia troveranno analoga spiegazione; e che dunque sul tappeto resteranno solo problemi di scarso richiamo. Simi­ li confidenti auspici sono andati proliferando negli ultimi dieci anni, in particolare con l'avvento delle cosiddette teorie di superstringa, con la loro promessa di giungere a

216

CAPITOLO SESTO

conoscere masse e interazioni di tutte le particelle senza dover introdurre parametri arbitrari, al punto che ormai molti a livello informale ne parlano come di reali o poten­ ziali « teorie universali» o « teorie buone a tutti gli usi ». Questa concezione sottintende naturalmente la possibi­ lità « teorica » di svelare i piu riposti segreti del cosmo sol che si dia sistemazione logica alla pioggia di dati offerti dal­ la fisica delle particelle e dalla cosmologia; owero, per ci­ tare le succinte parole di un recente articolo divulgativo, che « le quattro interazioni fondamentali. . . insieme alla co­ smologia, spiegano tutti i fenomeni naturali conosciuti». Ritornerò piu avanti sul merito di quest'affermazione; vi­ sto che una corposa maggioranza di fisici (in particolare fi­ sici delle particelle e cosmologi ! ) sembra sottoscriverla, prendiamola al momento per buona. Siamo dunque in vi­ sta della fine del cammino ? Di fronte ai progressi della fisica delle particelle e della cosmologia in questi ultimi decenni, un profano potrebbe essere tentato di paragonarne i protagonisti a una cordata intenta ad attraversare un ghiacciaio infido di crepacci. I baratri si succedono l'uno all'altro, ciascuno piu pericolo­ so e spettacolare del precedente, ma tutti vengono superati o aggirati con manovre sicure e, per quanto il percorso possa apparire erratico e tortuoso, la compagnia avanza lentamente ma senza soste. La modesta portata dell'intera­ zione debole costituisce un ostacolo? Postuliamo l' esisten­ za di un bosone intermedio debole pesante. La massa di questa particella pone problemi tecnici invalicabili? Ricor­ riamo al meccanismo di Higgs. Le simmetrie postulate dal­ la fisica delle particelle generano conseguenze cosmologi­ che indesiderate? Spazziamole via ipotizzando un periodo di espansione « inflattiva » dell'universo. E cosi via. Unica guida autorizzata è quella fornita dalla struttura concettua­ le della teoria quantistica dei campi, considerata dalla stra­ grande maggioranza dei fisici come la verità ultima sull'u­ niverso fisico.

UNO SGUARDO AL FUTURO

Manco a dirlo, i movimenti del gruppo non lasciano nulla al capriccio ; per lo piu molte difficoltà vengono risol­ te simultaneamente e, in certi casi, le previsioni sono state confermate in modo vistoso dall'esperimento, come ad esempio nella scoperta dei vettori bosoni intermedi. Ma ciò che lascia davvero sconcertati, sol che si sollevi un atti­ mo lo sguardo dalla routine quotidiana, è il modo in cui questi brillanti sviluppi sono riusciti per quasi sessant'anni a circoscrivere (la parola non va intesa in senso peggiorati­ vo) la nostra comprensione del mondo fisico entro i limiti fissati dalla teoria quantistica dei campi. E in effetti, mal­ grado l'uso frequente dell'espressione « la nuova fisica » in riferimento alle evoluzioni degli ultimi vent'anni, il sistema concettuale al cui interno i fisici interpretano i fenomeni che vanno studiando, proiettato contro lo sfondo di tre­ cento anni di storia, non si discosta molto da quello che era nel 1930; persino le recenti teorie di superstringa, che so­ stituiscono la nozione di particelle puntiformi con quella di entità unidimensionali (simili a cordicelle), in realtà cambiano soltanto i giocatori, non le regole del gioco. La ricerca di coerenza matematica nella cornice della teoria quantistica dei campi continuerà a guidarci tra i cre­ pacci in futuro come ha fatto in passato, e ci porterà alla fi­ ne su terreno piu sicuro? Salterà fuori prima o poi che i suoi severi vincoli, nella versione della superstringa o in qualche altra forma, non soltanto autorizzano ma impon­ gono il mondo che conosciamo? O dovremo prender atto, analizzando via via le conseguenze, che questi vincoli non lasciano adito neppure a una sola soluzione compatibile? Hanno ragione i cinici nel sostenere che la disponibilità, nel 1990, di una descrizione ragionevolmente congruente della struttura dell'universo è esclusivamente dovuta al fat­ to che manca la tecnologia per compiere gli esperimenti che ne dimostrerebbero la fallacia? Dopo tutto, molte teo­ rie moderne comportano congetture sul comportamento della materia a energie fuori della portata degli acceleratori

218

CAPITOLO SESTO

esistenti o progettati ancor piu di quanto questi lo siano ri­ spetto alle energie con cui abbiamo a che fare nella nostra esistenza quotidiana. Se la Natura ha qualche sorpresa in serbo, certo non ha che l'imbarazzo della scelta per pro­ porcela! Ma non è tutto: se anche la teoria quantistica dei campi riuscisse a risolvere tutti i problemi connessi alle interazio­ ni fondamentali, saremmo pronti ad accoglierla come teo­ ria definitiva dell'universo? Consentitemi di dubitarne. Come spesso hanno osservato i sociologi e gli storici della scienza, l'insoddisfazione nei riguardi dell'architettura concettuale di una teoria scientifica rimane latente sintan­ toché essa produce risposte a un buon ritmo, ma esplode non appena si profili un intoppo - cosa che potrebbe be­ nissimo succedere anche se non vi fossero piu domande ! Ho il sospetto che nel volgere di un paio di generazioni co­ minceremo ad avvertire, a livello inconscio, l'esigenza di formulare nuovi tipi di domande cui non sarà possibile ri­ spondere nell'ambito della teoria quantistica dei campi. L'impulso, come chiarirò tra poco, non sarà però dato dal­ la fisica delle particelle. Proviamo comunque a immaginare di essere riusciti a dare sistemazione logica ed esauriente a tutti i dati della fi­ sica delle particelle e della cosmologia. La fisica, o per me­ glio dire la fisica teorica, ne uscirebbero ridimensionate? Soltanto alla luce di una definizione molto restrittiva. Co­ me abbiamo evidenziato nel quarto capitolo , anche se il comportamento dei sistemi di materia condensata è « in teoria » null'altro che una conseguenza di quello delle par­ ticelle « elementari » che li compongono, il compito di de­ lucidare e prevedere questo comportamento non è affatto cosi banale come talora si suppone. Purtroppo il profano è spesso abbarbicato all'idea che i fisici, sintantoché si occu­ pano di materia in condizioni relativamente « terrestri » ­ escludendo quindi quelle presenti nei grandi acceleratori o in regioni remote dell'universo -, siano sempre in grado di

UNO SGUARDO AL FUTURO

219

prevederne con esattezza il comportamento. Questo è un mito. Come abbiamo già avuto modo di osservare nel quarto capitolo, nel pronosticare l'esistenza e le proprietà di fasi qualitativamente nuove della materia sono stati otte­ nuti successi alquanto modesti; persino nel momento in cui leggete queste pagine la fisica delle basse temperature propone almeno un fenomeno accertato che non soltanto è uscito fuori a sorpresa, ma che la maggior parte dei fisici, dati alla mano, avrebbe probabilmente escluso dal novero delle possibilità teoriche. (Ancor oggi non sappiamo per­ ché avvenga !) Che uno scienziato affermi di « sapere» con certezza come reagirà un particolare sistema fisico in situa­ zioni lontanissime dalla pratica sperimentale - ad esempio, quelle in cui potrebbero venirsi a trovare certi sistemi di di­ fesa spaziale se mai dovessero essere usati - mi sembra ar­ rogante, e in qualche circostanza diciamo pure pericoloso. La N atura, ahimè, ha il brutto vezzo di percorrere strade di cui noi neppure sospettiamo l'esistenza: ignorarne la saga­ cia non è salutare. A meno di stabilire che tutto ciò che esu­ la dallo studio dei costituenti elementari della materia sia « derivato » e quindi forse « non vera fisica » - una posizio­ ne che ho attaccato nel quarto capitolo - rimane molto da fare nell'area della materia condensata (e, s'intende, in molti altri settori che lo spazio tiranno m'impedisce di cita­ re in questo libro) . Torniamo ora all'asserzione che « le quattro interazioni fondamentali. . . insieme alla cosmologia, spiegano tutti i fe­ nomeni naturali conosciuti ». Non si tratta, come ben si comprende, di una dichiarazione di fatto, ma di un atto di fede, anche se per nulla irragionevole. Chi vi aderisce rico­ nosce che vi sono molti fenomeni naturali attualmente in­ spiegati alla luce delle quattro interazioni fondamentali, fa­ cendo però notare che l'impossibilità di questa interpreta­ zione non è stata documentata neppure per uno di questi fenomeni; il principio del rasoio di Occam ci imporrebbe perciò di andare avanti con ciò che abbiamo. Con una si-

220

CAPITOLO SESTO

mile impostazione, è inevitabile una cernita dei « fatti » da spiegare; ad esempio, nutro il forte sospetto che, ove do­ vesse rivelarsi genuina la cosiddetta « quinta forza» (cfr. cap. n), assisteremmo al rapido proliferare di fenomeni (magari anche qualcuno di quelli oggi etichettati «para­ normali ») decifrabili come sua conseguenza, ma in passa­ to attribuiti a errori sperimentali, frode o allucinazione. Ciò che costituisce un « fatto » in fisica non è del tutto indi­ pendente dai pregiudizi personali! Una domanda che per quanto mi riguarda giudico an­ cor piu affascinante è la seguente: il comportamento di si­ stemi complessi è soltanto il risultato del « composito in­ terscambio tra un gran numero di atomi, su cui Heisen­ berg e soci ci hanno insegnato tutto ciò che dovevamo sa­ pere molto tempo fa », anche nel senso alquanto blando preso in esame nel quarto capitolo? Oppure la presenza di complessità o organizzazione o qualche qualità affine è di per sé sufficiente a introdurre nuove leggi fisiche? In altri termini, la soluzione completa dell'equazione chiave della meccanica quantistica - l'equazione di Schrodinger - per i 1016 nuclei ed elettroni mal contati che compongono un piccolo organismo biologico ci fornirebbe davvero, se mai fosse ottenibile, una descrizione esaustiva del comporta­ mento fisico di quell'organismo? Non v'è dubbio che la ri­ sposta convenzionale a questo interrogativo sia uno squil­ lante « Si». Ma ciò di cui pochi, addetti o meno ai lavori, paiono rendersi conto è l'inconsistenza - o meglio, l'asso­ luta mancanza - delle evidenze sperimentali a sostegno di questa conclusione. È bensi vero che l'applicazione del formalismo della meccanica quantistica a sistemi comples­ si garantisce per numerose grandezze di misura corrente previsioni in buon accordo, quantitativo non meno che qualitativo, con i risultati sperimentali; che le discordanze piu macroscopiche si possono in generale addebitare a una mescolanza di fattori ignoti nel sistema sperimentale e ap­ prossimazioni nella teoria; e che per ora non vi sono testi-

UNO SGUARDO AL FUTURO

221

monianze incontrovertibili che i calcoli quanto-meccanici diano risposte sbagliate. Spesso però si dimentica che, !i­ mitandoci ai test significanti nella meccanica quantistica, quasi sempre si sono prese in considerazione caratteristi­ che molto « sommarie», che in un certo senso rappresenta­ no la sommatoria di proprietà di particelle (o « quasi­ particelle ») isolate, o nella migliore delle ipotesi di coppie di particelle. Laddove le componenti spea/icamente quan­ to-meccaniche del comportamento di un sistema comples­ so sono davvero apprezzabili come somma dei contributi di gruppetti di entità microscopiche, la meccanica quanti­ stica sembra dare risultati positivi. Al di là di questo, nono­ stante tutto ciò che è stato detto nel quarto capitolo 1, siamo soltanto ai primi passi. A questo punto può essere giustificato un moto d'impa­ zienza: « Voi ammettete che la meccanica quantistica fun­ ziona - anzi, funziona benissimo - per atomi e molecole se­ parati o anche riuniti in piccoli gruppi. Dal momento che i corpi complessi sono formati da atomi e molecole, non è ovvio che la meccanica quantistica debba funzionare al­ trettanto bene per loro? Che diamine, un po' di logica! » Nulla da obiettare, salvo che la storia della fisica ci ha ripe­ tutamente dimostrato che la « logica » può essere sbaglia­ ta! Senza dubbio il principio riduzionista - in sostanza che il tutto è uguale alla somma delle sue parti - ci è stato di grande aiuto in passato; anche se sospetto che la nostra simpatia nei suoi confronti risenta di una punta di antro­ pomorfismo, giacché il subconscio ci porta a far conto sul­ la nostra esperienza nel separare cose messe insieme da al­ tri esseri umani per «vedere come funzionano » e a sup­ porre quindi automaticamente che la Natura operi allo stesso modo. Sia come sia, il principio del rasoio di Occam favorisce senza discussione il riduzionismo e l'unico palese 1 Anche i fenomeni della superfluidità e superconduttività, per quanto spettaco­ lari, sono pur sempre la somma di un gran numero di effetti dovuti a particelle isolate o a coppie.

222

CAPITOLO SESTO

motivo di dubbio - vigoroso secondo il mio parere, peral­ tro non condiviso dalla maggioranza dei fisici - è il para­ dosso della misurazione quantistica discusso nel quinto ca­ pitolo, che si può concretizzare nella seguente domanda: il formalismo della meccanica quantistica è applicabile an­ che quando sembra suggerire che un oggetto macroscopi­ co non debba necessariamente trovarsi in uno stato macro­ scopico definito? In questi ultimi anni sono stati messi in cantiere vari esperimenti orientati tra l'altro a indagare se, e in tal caso dove e come, la meccanica quantistica vada in tilt di fronte a una complessità crescente; sino ad ora non si sono riscon­ trate tracce di collasso. Quale che sia l'esito di questo parti­ colare programma sperimentale (e del lavoro cui abbiamo fatto cenno sul finire del quarto capitolo, un lavoro che, sia pure indirizzato in modo un po' diverso, alla fine dovrebbe rivelarsi pertinente), sono per parte mia convinto che al­ l'interno dell'attuale quadro teorico non vi sia soluzione al problema di realizzare una « fusione » filosoficamente ac­ cettabile tra il formalismo quantistico che tanti successi ha mietuto a livello atomico e subatomico e la visione «reali­ stica » che impregna la nostra esistenza quotidiana; che di qui a non molto la lievitante sofisticazione tecnologica ne farà una questione urgente non solo sul piano filosofico, ma anche su quello sperimentale; che la conseguente im­ passe concettuale sfocerà alla fine in una descrizione del mondo completamente nuova e per ora inimmaginabile; e che in un futuro non troppo remoto - cinquant'anni, cen­ t'anni? - la teoria quantistica dei campi e l'intera concezio­ ne quanto-meccanica appariranno ai nostri discendenti, come oggi appare a noi la fisica classica, nulla piu di una rappresentazione approssimata che il caso ha voluto for­ nisse le risposte giuste per il genere di esperimenti ritenuti fattibili e interessanti dai fisici del tardo xx secolo. Se anche solo una frazione di queste congetture si rivele­ rà esatta, bisogna dire che, ben lungi dall'essere in vista del

UNO SGUARDO AL FUTURO

223

termine della strada, siamo in realtà, dopo trecento anni, soltanto all'inizio di un lungo viaggio su un percorso disse­ minato di scorci panoramici che al momento vanno al di là della nostra piu sfrenata immaginazione. Personalmente, la reputo una conclusione improntata all'ottimismo. Nella ricerca intellettuale, non foss' altro, è sicuramente meglio viaggiare fiduciosi che arrivare, e mi piace pensare che l'at­ tuale generazione di studenti, e i loro figli, e i figli dei loro figli, si confronteranno con questioni appassionanti ed es­ senziali almeno quanto quelle che oggi ci affascinano ; que­ stioni per le quali, con tutta probabilità, i loro predecessori del xx secolo non disponevano neppure del linguaggio adatto.

Bibliografia

aa.vv. The New Physics, a cura di P. C. W. Davies, Cambridge Uni­ versity Press, Cambridge 1 988 (in particolare i saggi di A. Bruce, D . J . Wallace, J . Ford, G. Nicolis, D . J . Thouless e A. ]. Legget). Barrow, J . D. e Tipler, F. J. The Anthropic Cosmologica! Principle, Oxford University Press, Oxford 1 986. The Le/t Hand o/ Creation, Counter­ point, London 1 983 (trad. it. La mano sinistra della creazione, Mondadori, Milano 1 985) . Butterfield, H. The Origins o/Modern Science IJ OO-r8oo, Beli and Sons, Lon­ don 1950 (trad. it. Le origini della scienza moderna, il Mulino, Bologna 1962) . Herbert, N. Quantum Reality: Beyond the New Physics, Auchor Press/Doubleday, New York 1985 . Kuhn, T. S. The Structure o/Scientific Revolutions, University of Chicago Press, Chicago 1 962 (trad. it. La struttura delle rivoluzioni scientifiche, Einaudi, Torino 1 969). Ne'eman, Y e Kirsh, Y. The Particles Hunters, Cambridge University Press, Cam­ bridge 1986 (trad. it. Cacciatori di particelle, Bollati Borin­ ghieri, Torino 1 988) . Pickering, A. Constructing Quarks. A Sociologica l History of Particle Phy­ sics, Edimburgh University Press, Edimburgh 1 984.

228

BIBLIOGRAFIA

Rae, A. Quantum Physics: Illusion or Reality?, Cambridge University Press, Cambridge 1 988. Reichenbach, H. The Direction ofTime, University of California Press, Berke­ ley 1 956. Sciama, D. The Physical Foundations of Genera! Relativity, Doubleday, Garden City (N .Y.) 1969 (trad. it. La relatività generale. Fon­ damenti fisici della teoria, Zanichelli, Bologna r 97 2 ) . Watkins, P. Story of the W and Z, Cambridge University Press, Cam­ bridge 1986. Weinberg, S . The Discovery of Subatomic Particles, Scientific American Library, New York r 983 (trad. it. La scoperta delle particelle subatomiche, Zanichelli, Bologna 1 986) . - The First Three Minutes: A Modern View of the Origins of the Universe, Basic Books, New York 1 977 (trad. it. I primi tre minuti, Mondadori, Milano 1 979).

Stampato per conto della Casa editrice Einaudi presso la Stamperia Artistica Nazionale, s.p. a., Torino C.L.

Ristampa

1 2 244

Anno 9 1 9 2 93 94 95 96 97