Stati e trasformazioni della materia [PDF]

Il mondo inanimato si presenta ai nostri occhi con grande ricchezza di forme e di proprietà. Fin dalle origini del pensi

163 24 3MB

Italian Pages 207 Year 1993

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Indice

Premessa

1. Gli stati di aggregazione della materia
1.1 Introduzione
1.2 Gli stati di aggregazione
1.3 I cambiamenti di stato

2. Cenni di termodinamica
2.1 Generalità
2.2 Temperatura e zeresimo principio
2.3 Quantità di calore
2.4 Il primo principio
2.5 Il secondo e il terzo principio
2.6 Equazioni di stato
2.7 Sistemi ideali

3. Proprietà macroscopiche
3.1 Il gas ideale
3.2 I gas reali
3.3 I liquidi
3.4 Le soluzioni liquide
3.5 L'elio liquido. Superfluidità
3.6 I solidi
3.7 Proprietà fisiche dei solidi
3.8 I solidi amorfi
3.9 I cristalli liquidi
3.10 Il plasma

4. La struttura microscopica della materia
4.1 Introduzione
4.2 L'architettura
4.3 I solidi ideali
4.4 I solidi reali. Le imperfezioni reticolari

5. Transizioni di fase
5.1 Generalità
5.2 Transizioni di primo ordine
5.3 I fenomeni critici

Schede
Derivata e gradiente
Prodotto scalare
Prodotto vettoriale
Scalari, vettori, tensori

Bibliografia

Indice analitico

Collana "Biblioteca Scientifica"
Papiere empfehlen

Stati e trasformazioni della materia [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Il mondo inanimato si presenta ai nostri occhi con grande ricchezza di forme e di proprietà. Fin dalle origini del pensiero filosofico e scientifico l'uomo si è posto il problema di interpretarne la molteplicità, riconducendo la varietà dei fenomeni osservati ad alcuni principi fondamentali. Da oltre due millenni, dunque, si è awiata la ricerca dei "mattoni" che costituiscono il mondo fisico così come esso ci appare e delle leggi fondamentali per il cui tramite essi interagiscono, in modo da poter interpretare l'architettura della materia nei suoi tre stati di aggregazione e le sue trasformazioni dall'uno all'altro. Qui si tenta di dare una visione complessiva dei fenomeni più significativi relativi all'immenso settore della fisica che va sotto il titolo generale di struttura .della materia, e di inquadrare le proprietà macroscopiche entro gli schemi della fisica contemporanea. Dedicato non solo ai tecnici, ma anche agli studenti di liceo e, come lettura preliminare a corsi specifici, agli studenti universitari, questo libro è articolato in due parti: nella prima si esaminano le proprietà fisiche macroscopiche, prescindendo in genere dalla descrizione a scala atomica; nella seconda si delineano le strutture portanti dell'architettura della materia, riportando all'unità la molteplicità dei fenomeni.

Roberto Fieschi, laureato in Fisica all'Università di Pavia, ha conseguito il Ph.D. in Fisica all'Università di Leida (Paesi Bassi). Ha tenuto corsi universitari alle Università di Milano, Pavia, Pisa e Genova. È professore ordinario di Struttura della materia all'Istituto di Fisica dell'Università di Parma dal 1965.

BIBLIOTECA SCIENTIFICA /

IO

Collana diretta da Carlo Bernardini Comitato editoriale: Francesco Amaldi, Carlo Bernardini, Giorgio Di Maio, Renato Funiciello

I lettori che desiderano informazioni sui volumi pubblicati dalla casa editrice possono rivolgersi direttamente a: La Nuova Italia Scientifica, via Sardegna 50, oor87 Roma, telefono o6 l 487 07 45, fax o6 l 474 79 31

Roberto Fieschi

Stati e trasformazioni della materia

La Nuova Italia Scientifica

1• edizione, maggio 1993 © copyright 1993 by

La Nuova Italia Scientifica, Roma Finito di stampare nel maggio 1993 per i tipi delle Arti Grafiche Editoriali srl, Urbino Disegni di Barbara Gianquinto

Riproduzione vietata ai sensi di legge (art. 171 della legge 22 aprile 1941, n. 633) Senza regolare autorizzazione,

è vietato riprodurre questo volume

anche parzialmente e con qualsiasi mezzo, compresa la fotocopia, neppure per uso interno o didattico.

Indice

9

Premessa Gli stati di aggregazione della materia

II

Introduzione Gli stati di aggregazione I cambiamenti di stato

15 16

2.

Cenni di termodinamica

19

2.!. 2.2. 2.3. 2.4. 2.5. 2.6. 2.7.

Generalità Temperatura e zeresimo principio Quantità di calore Il primo principio Il secondo e il terzo principio Equazioni di stato Sistemi ideali

19 21 21 22 24 27 28



Proprietà macroscopiche

31

Il gas ideale

31

I,

I. I.

!.2. !.3.

3·!.

II

3.I.Ì:. L'equazione di stato l 3.1.2. Energia interna l 3.1.3· Altre ca­ ratteristiche del gas ideale

3.2.

I gas reali

3.2.1. Equazioni di stato l 3.2.2. Energia interna. L'effetto Joule-Kel­ vin (o Joule-Thomson)

3·3·

I liquidi

3·3.1. Caratteristiche generali l 3·3.2. La tensione di vapore saturo l 3·3·3· La temperatura critica l 3·3·4· L'acqua

7

42

3·4· 3·5· 3.6.

Le soluzioni liquide L'elio liquido. Superfluidità I solidi 3.6.1. Cenni sullo sviluppo storico

3·7·

Proprietà fisiche dei solidi

3·7·1. Proprietà meccaniche l 3.7.2. Proprietà ottiche l 3·7·3· Pro· prietà termiche l 3·7·4· Proprietà elettriche l 3·7·5· Proprietà magne· tiche l 3.7.6. Superconduttività l 3·7·7· Ferroelettricità

70

3.8. 3·9· 3-10.

I solidi amorfi I cristalli liquidi n plasma

119 123 125



La struttura microscopica della materia

129

Introduzione

129

L'architettura

149

I solidi ideali

160

4. 1 . 4-2. 4·3·

4·4·

4.1.1. l mattoni l 4.1.2. L e leggi 4.2.1. Alcuni modelli l 4.2.2._j)i costruisce su basi solide 4·3·1. Proprietà elettroniche. Teoria delle bande l 4·3-2· Gli isolanti l 4·3·3· I semiconduttori l 4·3·4· I metalli l 4·3·5· Proprietà ferroma­ gnetiche l 4.3.6. Dinamica reticolare. Modello unidimensionale

I solidi reali. Le imperfezioni reticolati

4·4·1. I posti vacanti l 4.4.2. Altre imperfezioni 4·4·3· Imperfezioni lineari. Le dislocazioni

172 puntiformi



Transizioni di fase

179

5·1. 5.2. 5·3·

Generalità Transizioni di primo ordine I fenomeni critici

179 181 188

Schede

195

Bibliografia

199

Indice analitico

201 8

Premessa

Questo libretto - e la collana di cui fa parte - si rivolge a persone di cultura liceale, quindi con un certo livello di conoscenze di matemati­ ca, chimica e fisica. L'argomento è vasto, riguarda l'immenso settore della fisica contemporanea che va sotto il titolo generale di struttura della materia. Qui ho cercato di illustrarne alcuni aspetti significativi, ma ho trascurato di necessità alcuni argomenti importanti. Nei primi tre capitoli si esaminano le proprietà fisiche macrosco­ piche della materia, prescindendo in genere dalla descrizione dei fe­ nomeni a scala atomica. Nel quarto capitolo si tenta di fornire il qua­ dro concettuale che consente di interpretare, sulla base delle leggi generali della fisica, la molteplicità dei fenomeni. Il quinto capitolo riguarda le transizioni fra gli stati di aggregazione della materia e, più in generale, le transizioni di fase. Poiché è impossibile, senza uno stu­ dio di alcuni anni, disporre degli strumenti matematici e fisici indi­ spensabili, mi sono dovuto limitare a delineare le strutture portanti dell'architettura della materia. So che alcuni punti in quest'ultima parte dell'esposizione non si prestano a una facile comprensione; penso però che possano risultare utili a chi proseguirà gli studi scien­ tifici. Desidero esprimere gratitudine a mia moglie Anna che mi ha molto aiutato, al mio collega e amico Roberto De Renzi per gli utili consigli e a Francesca Piergentili per l'accurata preparazione del te­ sto.

ROBERTO FIESCHI

9

I

Gli stati di aggregazione della materia

I,I

Introduzione Nel loro tentativo razionale di trovare un ordine nelle cose, di indivi­ duare un principio generatore unico, i primi filosofi occidentali cono­ sciuti, i naturalisti della Scuola di Mileto, fissarono la loro attenzione sugli stati di aggregazione della materia e sulle loro trasformazioni. Non, quindi, su quelli che noi oggi chiamiamo elementi e sostan­ ze chimiche. Così Talete (624-546 a.C., ca. ) cercò la suprema unità del cosmo nell'acqua, Anassimene (586-528 a.C., ca. ) nell'aria. Attra­ verso la rarefazione (riscaldamento) e la condensazione (raffredda­ mento) dell'aria avrebbero origine fuoco, nubi, acqua, terra, pietra. Un poco più tardi altri filosofi si occuparono del problema; ad esem­ pio Eraclito (540-470 a.C., ca. ) vide nel fuoco 'il principio generatore; Empedocle (490-430 a.C., ca. ) portò a quattro gli elementi fonda­ mentali, terra, acqua, aria, fuoco: dunque lo stato solido, quello liqui­ do e quello gassoso, oltre al fuoco, che non è certamente uno stato della materia in senso termodinamico; Aristotele, un secolo dopo, ac­ cetterà la stessa classificazione e il suo prestigio influirà per quasi due millenni. Queste antiche speculazioni sull'unità della materia, alle quali una tradizione consolidata associa la nascita ufficiale della filosofia e della scienza, sembrano indicare che la marcata diversità fra gli stati della materia era stata individuata, e così pure il ruolo del calore nell'in­ durre le trasformazioni. Queste, al tempo dei filosofi ionici, e anche in seguito, includevano tutti i cambiamenti che si osservano sotto il grande arco del cielo. Avanziamo un'ipotesi. Già allora si potevano osservare due tipi di trasformazione di natura ben diversa: i cambia­ menti di stato veri e propri, come il condensarsi in pioggia dell'umiII

STATI E TRASFORMAZIONI DELLA MATERIA

dità dell'aria, o il fenomeno inverso dell'ebollizione, o la fusione del rame e del bronzo, ma anche le· reazioni chimiche, realizzate dai me­ tallurgisti per ricavare i metalli dai loro minerali. Nelle prime la so­ stanza 1 che subisce la trasformazione rimane la stessa ( trasformazio­ ne fisica), non così nelle seconde. Se questa distinzione fosse stata chiara ai primi fùosofi, forse la ricerca dell'elemento - o degli ele­ menti - fondamentale sarebbe stata meno arbitraria. Rimane il fatto che il grande merito dei sapienti del VI secolo fu proprio la convin­ zione che esistesse un principio unificatore, basata sulla fiducia che la ragione fornisse uno strumento essenziale per individuare un ordine nella natura delle cose. Sulla natura infatti (Physis) è spesso il titolo di queste prime opere fùosofico-scientifiche, delle quali tuttavia non abbiamo conoscenza diretta, ma attraverso gli scritti di Aristotele (384-322 a.C.) o di altri autori posteriori. La ricerca dei mattoni fon­ damentali dell'universo ha accompagnato l'intero sviluppo della scienza, dall'alchimia alla chimica, alla fisica. Negli ultimi due secoli lo scenario è mutato più e più volte, oscillando fra ipotesi audace­ mente unificatrici - per William Prout (1785-185o) , all'inizio dell'Ot­ tocento, gli atomi di tutti gli elementi erano costituiti dall'unione di atomi di idrogeno - e proliferazioni di entità fondamentali; negli anni Cinquanta, ad esempio, si è assistito a una . crescita abnorme dei tipi delle cosiddette particelle elementari; in seguito ci si è resi conto che alcune particelle sono più elementari delle altre (ad esempio i famosi quark) ed è stato possibile realizzare una nuova unificazione. Oggi alcune partiCelle, di cui i fisici teorici garantiscono l'esistenza sulla base di speculazioni ben più solide di quelle dei primi atomisti, Leu­ cippo e Democrito, mancano ancora all'appello; esse hanno nomi esotici: bosone di Higgs, top quark, gravitone. Dunque la partita è .lontano dall'essere chiusa; la ricerca dei mattoni fondamentali oggi I. In chimica e in fisica si definisce elemento una sostanza semplice costi­ tuita da atomi con la stessa carica nucleare (il numero atomico Z) e con Io stesso numero di elettroni; esistono 89 elementi naturali, dal più leggero, l'idrogeno (Z=I), al più pesante, l'uranio (Z=92) , oltre a tre elementi intermedi, il tecnezio (Z=43) , il promezio (Z=6I) e l'astato (Z = 85), e a una quindicina di elementi pesanti, detti transuranici, preparati artificialmente, e instabili. La sostanza, o composto chimico, è caratterizzata da molecole di struttura ben definita conte­ nenti più speci atomiche; ne esiste un numero molto grande di naturali e di sintetiche. Nelle reazioni chimiche si hanno trasformazioni molecolari nelle quali gli elementi in gioco restano gli stessi.

12

I. GLI STATI DI AGGREGAZIONE DELLA MATERIA

coincide con quella delle forze (interazioni) fondamentali presenti nell'universo. La natura della materia stabile, quella cioè che abbiamo sotto gli occhi ogni giorno, di cui siamo fatti noi stessi, gli animali, le piante, la terra (se trascuriamo le piccole quantità di nuclei radioattivi natu­ rali) è abbastanza ben capita. Essa ci appare nei suoi tre stati di ag­ gregazione fondamentali, lo stato solido, quello liquido e quello gas­ soso, ed è ad essa che dedicheremo qui la nostra attenzione. Vedre­ mo anche come le ricerche dell'ultimo secolo abbiano messo in luce che sostanze o sistemi fisici particolari esistono anche in stati di ag­ gregazione diversi dai tre stati classici. Quanto alle trasformazioni da uno stato all'altro - che sono dette transizioni di fase 2 - oggi sappiamo che sono del tutto generali e che sono determinate da due fattori, la temperatura e la pressione. Que­ sta generalità era tutt'altro che evidente al tempo dei filosofi naturali­ sti, e probabilmente non è evidente neanche oggi alla maggior parte delle persone; quanti sanno, ad esempio, che possono esistere il va­ pore di rame, o il carbonio liquido, o l'aria solida? Eppure anche il rame, come ogni altro elemento, esiste anche allo stato aeriforme, perché alcuni atomi. sfuggono alla superficie; solo che, se la tempera­ tura non è molto alta, la densità del gas è così piccola da non essere rilevabile senza strumenti particolari. L'esistenza di vapori metallici può essere provata sperimentalmente se invece del rame, che evapora solo in misura trascurabile a temperatura ambiente, scegliamo un al­ tro metallo, il mercurio; se in una camera ben chiusa, di 25 mq di area e 4 m di altezza mettiamo 1 g di mercurio (Hg) , dopo un certo tempo vedremo che le gocce del liquido scompaiono: il mercurio è passato allo stato di vapore diffuso per tutta la stanza con una densi­ tà molto tenue (un centesimo di grammo per metro cubo) . Il carbo­ nio, nella sua struttura di grafite, liquefa, ma solo a pressioni superiori ai 100 kg per centimetro quadrato (cento volte la pressione atmosfe­ rica) e a temperature superiori ai 4.ooo °K (FIG. 1 . 1 ) ; l'aria solidifica, ma a temperature inferiori a circa 70 °K , ossia a circa 200 gradi al di sotto dello zero della scala centigrada. Nelle condizioni normali in cui viviamo, la pressione è quella at­ mosferica e la temperatura subisce oscillazioni di alcune decine di 2. Fase è una porzione fisicamente omogenea di un sistema, delimitata da superfici di separazione definite; per esempio per l'acqua a o °C possono coesi­ stere la fase liquida, la fase solida e la fase vapore.

13

STATI E TRASFORMAZIONI DELLA MATERIA

FIGURA 1 . 1 Diagramma d i fase del carbonio ,...... 111 « w ... "' o :1:

!( ;;

-
IAMAIHE

100

;n

1/1 u.l "' G.

Le

o

�000

2000

:5000 4000 TEHPERHURII ('C.)

aree delimitate dalle tre curve indicano i valori (P, n ai quali sono stabili le due fasi solide e queUa liquida; le transizioni dall'una all'altra fase hanno luogo per i valori (P, n corrispondenti alle tre curve.

gradi; con la combustione, con l'impiego di forni non troppo sofisti­ cati, come quelli realizzati già nell'antichità per la cottura della cera­ mica e per la fusione dei metalli, la temperatura può essere aumenta­ ta di diverse centinaia di gradi. In questi intervalli limitati di tempe­ ratura e limitatissimi di pressione, e senza ricorrere a strumenti parti­ colari, ben poche sostanze danno luogo a transizioni di fase osserva­ bili. A parte l'acqua, che si presenta in tutti e tre gli stati di aggrega­ zione, come ghiaccio, acqua liquida e vapore acqueo, tutt'al più si ha esperienza diretta della fusione e della solidificazione del vetro e di alcuni metalli e leghe, della solidificazione della lava dei vulcani, del­ l'evaporazione dei liquidi volatili come l'etere, l'alcool, l'acetone, del­ la sublimazione (transizione da solido a gas) della naftalina o dell'ani­ dride carbonica (C02). Dunque non deve stupire che i filosofi dai quali siamo partiti non siano stati in grado di discriminare i cambia­ menti di stato di una stessa sostanza dalle trasformazioni di natura chimica da una sostanza all'altra, e abbiano cercato il principio unifi­ catore in uno degli stati di aggregazione della materia, o in più d'u­ no. Per valutare la difficoltà a compiere passi significativi, si pensi che ancora nel xvn secolo Jean Baptiste van Helmont ( 1579-1644 ) ,

I. GLI STATI DI AGGREGAZIONE DELLA MATERIA

uno dei primi scienziati che cercò di superare la tradizione alchimisti­ ca e che per primo distinse i gas dell'aria, postulava come elemento primario l'acqua. Spetta a Robert Boyle (I627-I69I) la critica radica­ le della teoria aristotelica dei quattro elementi. Come scrisse Lucio Anneo Seneca già nel primo secolo dopo Cri­ sto, nella sua enciclopedia Quaestiones natura/es, «La scienza è in continuo divenire; la verità è sempre in cammino e il fascino del mi­ stero ci mette sulla sua strada. Un giorno molti segreti saranno svelati con gli studi accumulati nei secoli [ . . . ] . Verrà tempo in cui i nostri posteri si stupiranno che noi abbiamo ignorato fatti così chiari». 1.2 Gli stati di aggregazione

Nello studio delle proprietà fisiche degli stati di aggregazione della materia è utile distinguere fra descrizione macroscopica e microscopi­ ca. La prima prescinde dalla struttura a scala atomica, cioè su dimen­ sione di I - Io A (un angstrom - dal nome del fisico svedese Anders Jonas Angstrom, vissuto tra il I8I4 e il I874 - equivale a Io -s cm ed è l'unità di misura di lunghezza usata nella fisica atomica e molecola­ re) , e considera il sistema come un oggetto continuo, così come ap­ pare ai nostri sensi; la seconda parte dal fatto che il sistema è costi­ tuito da un gran numero di particelle che interagiscono più o meno fortemente (atomi, molecole, ioni, elettroni) e cèrca di interpretare le proprietà macroscopiche partendo da quelle degli elementi costituenti. Dal punto di vista macroscopico possiamo dire, ad esempio, che un cristallo di quarzo è trasparente alla luce visibile e la rifrange, mentre un cristallo di alluminio è opaco e riflettente; sappiamo anche che il quarzo è un buon isolante elettrico, mentre l'alluminio è un buon conduttore, e siamo in grado di descrivere le proprietà ottiche ed elettriche con leggi fisiche rigorose. Dal punto di vista microscopi­ co sappiamo che questi due tipi di solido sono costituiti da distribu­ zioni regolari di atomi nello spazio (i reticoli çristallini) e siamo in grado di interpretare in modo soddisfacente le proprietà fisiche par­ tendo dalle leggi fondamentali che regolano il comportamento delle particelle che costituiscono il solido. Dal punto di vista macroscopico si distinguono abbastanza chiara­ mente i tre stati di aggregazione, solido, liquido, gas, e oggi si sa che tutti gli elementi e molti composti (sostanze) chimici possono assuI5

·

STATI E TRASFORMAZIONI DELLA MATERIA

mere ciascuno dei tre stati; fanno eccezione quei composti che si de­ compongono a temperature inferiori a quella alla quale si ha la tran­ sizione da solido a liquido, cioè al punto di fusione. Una definizione rigorosa e non ambigua dei tre stati di aggrega­ zione, dal punto di vista macroscopko, non è facile né molto signifi­ cativa. I solidi hanno un volume e una forma definiti, offrono resi­ stenza alla deformazione (sono cioè rigidi) e sono difficili da compri­ mere; anche i liquidi hanno un volume definito e una compressibilità bassa, ma modificano facilmente la loro forma, così da adattarsi alla forma del recipiente; i gas occupano completamente il volume dispo­ nibile e sono facilmente comprimibili, se la densità non è molto gran­ de; la viscosità, che qualitativamente misura la resistenza offerta al cambiamento di forma, in un gas è molto inferiore che in un liquido. In condizioni ordinarie la densità dei solidi e dei liquidi è molto più elevata di quella dei gas, per un fattore di circa mille. Esistono tutta­ via situazioni che non si inquadrano in questo schema. Un vetro, ad esempio, può essere considerato un solido, oppure un liquido con viscosità molto alta; i ghiacci sono fatti di acqua allo stato solido, eppure col tempo modificano lentamente la loro forma, e lo stesso accade per alcuni metalli teneri come il piombo; l'elio liquido, se la temperatura è inferiore a circa 2 °K, ha una viscosità inferiore a quel­ la di qualsiasi gas. Inoltre, nel caso dello stato solido, lo schema è generico e poco significativo. È evidente, anche a un esame qualitati­ vo, che un cristallo di quarzo, un pezzo di ghisa, una ceramica, una roccia e una materia plastica hanno caratteristiche strutturali profon­ damente diverse, anche a prescindere dalla loro struttura a scala ato­ mica. Inoltre una sostanza allo stato solido può assumere varie fasi, caratterizzate da proprietà fisiche e da strutture differenti; il carbo­ nio, ad esempio, può presentarsi come grafite, come diamante, come carbone di legna o in strutture scoperte solo recentemente, i fullere­ ni. La descrizione microscopica è più precisa e più ricca, e mette in luce differenze che sfuggono alla descrizione macroscopica sopra ac­ cennata. I.J I cambiamenti di stato

Come si è detto, la sola sostanza chimica che in condizioni normali ci si presenta in tre stati di aggregazione o fasi è l'acqua; è facile con­ statare che il calore provoca la liquefazione del ghiaccio e l'evapora16

I. GLI STATI DI AGGREGAZIONE DELLA MATERIA

zione dell'acqua liquida e che il freddo provoca la condensazione del vapore d'acqua e la solidificazione dell'acqua liquida. Solo nel secolo scorso ci si rese conto che questa situazione è generale; giocando sul­ la riduzione della temperatura e sull'aumento della pressione, gra­ dualmente si realizzò la liquefazione di molti gas e ·la loro solidifica­ zione (il processo inverso non è cosi generale, perché molte sostanze solide, quando vengono riscaldate, sono chimicamente instabili) . Un ruolo essenziale giocarono i progressi nelle tecniche per otte­ nere basse temperature. Mentre l'uomo già nella preistoria imparò, con la scoperta del fuoco, che è facile ottenere temperature relativa­ mente alte, il problema del raffreddamento si presentò più difficile. Una tecnica per abbassare in qualche misura la temperatura nelle giornate torride e asciutte risale a qualche millennio avanti Cristo, quando i popoli dell'Asia Minore usarono l'evaporazione dell'acqua da vasi porosi. L'evaporazione è una delle tecniche utili, ma la corsa alle basse temperature iniziò solo due secoli fa. Oggi in laboratori specializzati si è in grado di ottenere temperature prossime allo zero assoluto (circa un milionesimo di grado kelvin) . Intorno al 1790 si osservò che l'anidride solforosa (S02 ) liquefa quando viene raffredda­ ta per mezzo di una miscela di ghiaccio e sale, e che l'ammoniaca liquefa quando il gas viene compresso; la liquefazione dell'ammonia­ ca per raffreddamento fu realizzata nel 1799 e sei anni più tardi si ottenne la liquefazione del cloro (Ct) , comprimendo il gas a 15 at­ mosfere. Nel 1823 M. Faraday ( 1791-1867) e H. Davy ( 1778-1829) riuscirono a liquefare alcuni altri gas, ma le temperature allora rag­ giungibili non erano abbastanza basse per generalizzare il fenomeno. Un passo importante fu realizzato nel 1834 da Thilorier, con la soli­ dificazione dell'anidride carbonica (C0 2 ) e la scoperta che si ottiene una nuova, più efficace miscela frigorifera mescolando co2 solida (detta comunemente ghiaccio secco, quel solido biancastro che spesso si usa per mantenere freddo il gelato durante il trasporto) ed etere: con questa miscela si poteva scendere fino a circa 8o gradi sotto ze­ ro. In seguito Faraday, riducendo la pressione di un gas pre-com­ presso, raggiunse i - I I O °C; lavorando a pressioni fino a 50 atmosfe­ re fece altri progressi, ma non riuscì a liquefare l'ossigeno (0 2 ) , l'azo­ to (N 2 ) , l'idrogeno (H 2 ) ed alcuni altri gas; questi gas ribelli furono allora detti permanenti. Il mistero fu diradato solo intorno al 1 86o, quando T. Andrews (1813-1885) scoprì che per ogni sostanza esiste una temperatura ca­ ratteristica Te al di sopra della quale non si ha la transizione gas-

STATI E TRASFORMAZIONI DELLA MATERIA

liquido, qualunque sia la pressione applicata; questa temperatura è detta punto critico e per l'anidride carbonica Andrews trovò che è di 31 °C. Al punto critico la densità del liquido e del gas coincidono, e così anche le altre proprietà fisiche, in altre parole la distinzione fra liquido e gas scompare. L'esistenza del punto critico era già stata in­ dividuata anni prima da C. Cagniard de la Tour, che nel 1822 aveva pubblicato il lavoro Exposé de quelques résultats obtenus par l'action combinée de la chaleur e de la compression sur certains liquzdes, ma la scoperta era passata inosservata. In seguito si realizzò la liquefazione e la solidificazione di tutti gli altri gas; nel 1877 P. Cailletet e Raoul Pierre Pictet (1833-1913) ottennero la liquefazione dell'aria, dell'azo­ to e dell'ossigeno, nel 1896 James Dewar (1842-1923), successore di Faraday come professore nella Royal Institution di Londra, ottenne quella dell'idrogeno; (Dewar è meglio noto come l'inventore del reci­ piente a doppia parete, con il vuoto nell'intercapedine, per conserva­ re la temperatura di un liquido; il vaso di Dewar è comunemente no­ to come thermos) . L'ultimo gas a cedere, dopo un assedio di una dozzina di anni (1908), fu l'elio, che liquefa solo al di sotto di 5,2 °K (4,2 °K alla pressione atmosferica) ; il merito fu di Heike Kamerling Onnes (1853-1926) che, nel 1894, aveva creato a Leida il celebre la­ boratorio criogenico nel quale furono compiute fondamentali espe­ rienze sulle proprietà dei corpi alle basse temperature. Lo sviluppo delle tecniche per ottenere le basse temperature ben presto trovò applicazioni pratiche; intorno alla metà del secolo scorso incominciò a svilupparsi l'industria del freddo e dopo il 1875 si dif­ fusero macchine frigorifere per il congelamento degli alimenti, basate sull'espansione dell'ammoniaca. Oggi al posto dell'ammoniaca spesso si usano come gas frigoriferi i clorofluorocarburi (CFC), ma il loro impiego è criticato perché pare che, disperdendosi nell'alta atmosfe­ ra, contribuiscano a ridurre lo spessore della fascia di ozono (0 3 ) che _ circonda la terra proteggendola dalle radiazioni ultraviolette del sole.

2

Cenni di termodinamica

2.1

Generalità La termodinamica si occupa dei fenomeni riguardanti il calore, o più in generale delle proprietà fisiche e chimico-fisiche di sistemi macro­ scopici, prescindendo dai modelli sulla struttura atomica o molecola­ re della materia. È una disciplina fenomenologica, nel senso che il suo obiettivo è di stabilire relazioni generali fra variabili fisiche diret­ tamente misurate, come pressione, volume, temperatura e anche altre variabili come energia interna, energia libera, entropia ecc., che non si misurano direttamente. Si fonda su alcuni principi (leggi) fonda­ mentali, stabiliti come risultato della generalizzazione di un gran nu­ mero di osservazioni sperimentali. La termodinamica è caratterizzata da grande generalità e semplicità; non è limitata a un particolare gruppo di fenomeni, come è il caso dell'ottica, o della meccanica, o dell'elettromagnetismo; può essere usata nello studio di ogni sistema che contenga un numero sufficientemente grande di particelle, quindi di gas, liquidi, solidi, plasmi, radiazione elettromagnetica, e perfino nuclei atomici pesanti. Poiché i meccanismi a scala atomica che stan­ no alla base dei fenomeni macroscopici sono ignorati dalla termodi­ namica, questa disciplina non può dare un'interpretazione dei proces­ si fisici, e non si pone nemmeno questo obiettivo. Ad esempio la ter­ modinamica dice che in un gas ideale la differenza fra il calore speci­ fico molare a pressione costante e quello a volume costante è uguale alla grandezza nota come costante dei gas (R = 8,310 joule per gra­ do) , ma nulla dice sul valore del calore specifico, né sulla sua dipen­ denza dalla temperatura; un secondo esempio : per il secondo princi­ pio della termodinamica il calore passa da un corpo più caldo a un

STATI E TRASFORMAZIONI DELLA MATERIA

corpo più freddo, quando il sistema complessivo è isolato, ma non si spiega perché il rame conduce il calore meglio del ferro. La grande generalità della termodinamica ha dunque una contro­ partita negativa. Per andare più a fondo bisogna rivolgersi a un altro ramo della fisica, la termodinamica statistica (o meccanica statistica) , il cui obiettivo può essere così formulato: partendo dalle leggi (classi­ che o quantistiche) che governano il comportamento delle particelle che costituiscono un sistema macroscopico, e dalla struttura del siste­ ma stesso a scala atomica, derivare le leggi macroscopiche della ter­ modinamica. Poiché un sistema macroscopico contiene molte parti­ celle, la termodinamica statistica può legittimamente impiegare il con­ cetto di valore medio e i metodi del calcolo delle probabilità. Un esempio semplice può forse essere utile per chiarire, per ana­ logia, il significato dei due diversi approcci. Supponiamo di avere un mazzo di 40 carte da gioco, inizialmente ordinato, e di mescolarlo più e più volte; il punto di vista termodinamico ci porta ad afferma­ re, sulla base di osservazioni ripetute, che il mazzo passa gradualmen­ te dalla situazione ordinata a quella disordinata; ciò corrisponde al secondo principio della termodinamica, in base al quale un sistema isolato evolve verso lo stato in cui l'entropia è massima (stato di equi­ librio termodinamico) . Il punto di vista statistico giustifica questo principio e in più consente di calcolare la probabilità che, ad esem­ pio, dopo tutti i possibili mescolamenti le prime quattro carte del mazzo siano i quattro assi; il numero che risulta è circa 10 - 5 ; in altre parole ipotesi ragionevoli ci portano a concludere che la frequenza empirica con cui questa particolare distribuzione si realizzerà, in un numer9 grande di prove, sarà vicina a un caso ogni wo.ooo prove (dal calcolo delle probabilità si ottiene 91.390) . La termodinamica si occupa di sistemi che si trovano in stati di equilibrio, nei quali cioè le variabili macroscopiche non cambiano nel tempo; in sistemi con una sola fase esse in generale hanno lo stesso valore in tutti i punti del sistema. Fenomeni come la conduzione del calore e dell'elettricità sono trattati nell'ambito della termodinamica dei processi irreversibili, che è un'estensione della termodinamica tra­ dizionale (o di equilibrio) ; negli ·esempi considerati, temperatura e potenziale elettrico non sono uguali nei vari punti del sistema, cioè esistono dei gradienti (cfr. Schede) . Non è nostro compito esporre, sia pure schematicamente, i con­ cetti e le leggi della termodinamica; vale la pena però di richiamare 20

2. CENNI DI TERMODINAMICA

alcuni concetti generali, senza alcuna pretesa di .completezza e nem­ meno di rigore. 2.2 Temperatura e zeresimo principio

Ognuno sa cosa si intende per temperatura; la lettura di un termo­ metro, che misura appunto la temperatura, rientra nell'esperienza co­ mune. In quasi tutti i paesi del mondo si usa la scala centigrada o Celsius; la temperatura del ghiaccio che fonde (a pressione atmosferi­ ca) è definita o °C, e 100 °C è quella dell'acqua che bolle. In fisica si usa invece la scala assoluta, o di Kelvin; in questa scala l'unità di misura, il grado, è la stessa, ma si assegna lo zero alla temperatura più bassa raggiungibile, uguale per tutti i sistemi: o °K = - 273,16 °C; di conseguenza o oc = + 273,!6 °K; la temperatura assoluta si indica normalmente col simbolo T. Se mettiamo in contatto due cor­ pi a temperatura diversa, dopo un tempo più o meno lungo si rag­ giunge l'equilibrio termico, cioè i due corpi hanno la stessa tempera­ tura; due corpi in equilibrio termico con un terzo sono in equilibrio termico anche tra loro. Questo è lo zeresimo principio della termodi­ namica. 2. 3 Quantità di calore

Un qualsiasi oggetto, per esempio l'acqua contenuta in un recipiente, quando viene riscaldato, cioè portato a una temperatura più alta, pos­ siede una maggiore quantità di calore. Ma corpi diversi, portati alla stessa temperatura, possiedono quantità di calore differenti: ad esem­ pio è esperienza comune che se due recipienti uguali non contengono la stessa quantità d'acqua, quello più pieno richiede una maggiore quantità di calore per raggiungere l'ebollizione. L'unità di misura del calore è la caloria, cioè la quantità di calore necessaria per aumentare di un grado (da 14,5 °C a 15,5 °C) la temperatura di un grammo di acqua, a pressione atmosferica; la precisazione in parentesi è necessa­ ria, perché il calore specifico dipende dalla temperatura. Ricordiamo che il calore specifico di una sostanza è definito come la quantità di calore necessaria per innalzare di un grado la temperatura dell'unità di massa della sostanza stessa, o, più rigorosamente, come il rapporto fra la quantità infinitesima di calore dQ assorbita da un grammo del2I

STATI E TRASFORMAZIONI DELLA MATERIA

la sostanza e l'aumento infinitesimo di temperatura d T che ne conse­ gue: [ 2 . 1]

C = dQ!dT

La quantità di calore Q non è una variabile di stato; di conseguenza anche l'incremento infinitesimo di Q non può essere espresso tramite una funzione delle derivate delle variabili di stato. A rigore non si dovrebbe usare il simbolo dQ, mentre è corretto scrivere dT, dV, dP ecc. quando si tratta di incrementi infinitesimi di variabili di stato; per semplicità, con questo avvertimento, continueremo a scrivere dQ. Il calore specifico è diverso se il corpo viene riscaldato mantenen­ do costante il volume (Cv) o mantenendo costante la pressione (Cp), o nei casi intermedi. Indicando con cm il calore specifico per mole, ossia per una quantità di materia uguale al peso molecolare M, si ha C = cm l M. Se invece di acqua usiamo un uguale volume di un'altra sostanza, per esempio ferro, è necessaria una diversa quantità di calore per au­ mentarne la temperatura, in questo caso minore. Lo si vede facilmen­ te con il processo inverso. Prendiamo due recipienti uguali, conte­ nenti la stessa quantità d'acqua, alla stessa temperatura, per esempio o °C ; in uno di essi versiamo un chilogrammo di acqua bollente, nel­ l'altro immergiamo un chilogrammo di ferro portato anch'esso a 100 0( e attendiamo fino a che in ciascuno dei due recipienti la tempera­ tura sia stabilizzata (trascuriamo la perdita di calore durante il pro­ cesso) ; si trova che l'acqua del primo recipiente è più calda di quella del secondo; ciò significa che l'acqua versata ha portato con sé una quantità di calore maggiore del blocco di ferro, o, in altre parole, che il ferro ha un calore specifico inferiore a quello dell'acqua. Fino a quasi la metà del secolo scorso si credeva che il calore fosse una specie di fluido indistruttibile, il fluido calorico; il processo di riscaldamento era interpretato come il passaggio di questo fluido da un corpo a un altro. 2.4 Il primo principio

Una formulazione limitata del principio di conservazione dell'energia si deve a G. W. Leibniz ( 1646-qi6) , il quale dimostrò, nel 1693, che per un punto materiale di massa m che si muova liberamente nel 22

2. CENNI DI TERMODINAMICA

campo gravitazionale terrestre si conserva la somma di energia cineti­ ca (rh m v2) ed energia potenziale (mgh) dove g è l'accelerazione di gravità e h l'altezza del punto rispetto alla superficie terrestre. Il prin­ cipio fu gradualmente esteso includendo le nuove forme di energia che via via si individuavano. Un passo essenziale fu compiuto quando si riconobbe che il calore è una forma di energia. Una stufetta elettri­ ca, ad esempio, trasforma energia elettrica in calore nel passaggio di corrente elettrica attraverso un filo avente una certa resistenza (effet­ to Joule) . È facile misurare il rapporto di conversione, per esempio tenendo in funzione per un'ora una stufetta da un chilowatt e misu­ rando la quantità di calore ceduta all'ambiente; si trova che un chilo­ wattora (energia elettrica dissipata) corrisponde a 86o.ooo calorie (86o chilocalorie) . L'equivalenza tra energia meccanica e calore fu stabilita con buona approssimazione nel 1842 da Julius Robert von Mayer (1814-1878) e qualche anno più tardi, con maggiore precisio­ ne, da James Prescott Joule (1818-1889) ; ma già nel 1778 Benjamin Thomson, il conte Rumford ( 1753-1814), a quel tempo consulente militare del principe di Baviera, osservando il forte riscaldamento dei cannoni durante la trapanazione, aveva concluso che il calore non può essere un fluido e che esiste una relazione fra il lavoro meccani­ co e la produzione di calore. Questo fu un grave colpo alla teoria allora dominante del fluido calorico. Poiché l'energia termica e quella meccanica avevano storie diffe­ renti, esse erano misurate in differenti unità, la prima in calorie, la seconda in una unità che, in seguito, fu chiamata joule (equivalente all'incirca al lavoro che si compie per sollevare di un metro un ogget­ to che pesa centogrammi) ; una caloria equivale a circa 4,18 J. Il primo principio della termodinamica riassume queste e molte altre osservazioni su fenomeni fisici e afferma che in ogni trasforma­ zione l'energia si conserva, se includiamo fra le varie forme di energia anche l'energia termica (calore) . Molto tempo prima che la termodi­ namica ne sancisse formalmente l'impossibilità, il moto perpetuo (di prima specie) veniva intuitivamente considerato irrealizzabile; fin dal 1755 l'Académie des Sciences di Parigi aveva stabilito di rifiutare le proposte che le venivano continuamente avanzate su ingegnose mac­ chine che generavano energia meccanica senza ricorrere ad altre fonti di energia. La formulazione del primo principio implica l'introduzio­ ne di una nuova variabile termodinamica, l'energia interna U, che, insieme alle altre, è caratteristica dello stato del sistema (mentre il calore Q non lo è) ; macroscopicamente non si valuta direttamente U,

STATI E TRASFORMAZIONI DELLA MATERIA

ma la differenza .1 U nel passaggio da uno stato iniziale a uno finale, dunque l'energia interna è definita a meno di una costante arbitraria, che può essere calcolata nel quadro della termodinamica statistica. Il principio è assolutamente generale ed è stato confermato in tut­ te le esperienze successive su scala macroscopica, molecolare, nuclea­ re e subnucleare; si può dimostrare che esso riposa sulle proprietà generali di simmetria del mondo fisico rispetto a traslazioni temporali, ossia sul fatto che le stesse leggi fisiche valgono ora, come in qualsiasi altro momento del passato e del futuro. Per non accettarne la viola­ zione, nel 1930 Wolfgang Pauli ( 1900-1958) fu indotto a postulare l'esistenza - in seguito confermata - di una nuova particella, il neutri­ no. Nel 1905 Albert Einstein ( 1 879-1955) estese il primo principio, nel quadro della relatività ristretta, introducendo l'equivalenza tra massa ed energia; la manifestazione più nota di questa equivalenza è l'esplosione nucleare di Hiroshima: una massa di circa un grammo si convertì in una quantità di energia equivalente a quella rilasciata nel­ l'esplosione di oltre diecimila tonnellate di tritolo, con risultati dram­ matici. 2.5 n secondo e il terzo principio

Le varie forme che assume l'energia, meccanica, elettrica, magnetica, chimica, nucleare, termica, possono trasformarsi in molti modi l'una nell'altra; nel caso del calore, però, vi è qualcosa di particolare ed è il carattere di irreversibilità dei processi che lo coinvolgono. Si può tra­ sformare facilmente l'energia meccanica in calore, come avviene nel­ l'attrito, ma non si può ottenere energia meccanica semplicemente sottraendo calore a un oggetto; se così fosse, l'umanità avrebbe risol­ to i suoi problemi di fonti di energia, perché gli oceani fornirebbero una fonte praticamente inesauribile, e rinnovabile. C'è sempre una parte di energia termica che non può essere convertita in energia meccanica o elettrica. Lo stesso genere di irreversibilità si presenta nel processo della conduzione del calore: come si è detto, il calore, spontaneamente, passa da un corpo più caldo a uno più freddo, e non viceversa. Il secondo principio della termodinamica indica la di­ rezione in cui evolvono i processi fisici reali, quindi riassume in sé anche le osservazioni qualitative sopra riportate. La sua scoperta risa­ le a un giovane ingegnere militare francese, Sadi Carnot ( 1796-1832), che nel 1824 pubblicò il suo famoso lavoro sul rendimento ideale di

2. CENNI DI TERMODINAMICA

una macchina termica, ossia di una macchina capace di trasformare il calore in lavoro; Carnot, prima di formulare le sue considerazioni sul rendimento delle macchine termiche, era partito da una collezione di osservazioni su molte macchine a vapore e aveva constatato, nel suo lavoro su La potenza motrice del calore, che fino ad allora «la loro teoria ha compiuto scarsi progressi e i tentativi di migliorarle sono ancora guidati quasi esclusivamente dal caso». A quel tempo il prin­ cipio di conservazione dell'energia non era ancora stato formulato e il calore era un fluido invisibile. La formulazione precisa del secondo principio si deve a Rudolf Clausius (1822-1888) che, partendo dallo studio del lavoro di Carnot, nel 1865, introdusse una nuova funzione di stato, l'entropia 5, grazie alla quale si esprime in modo quantitati­ vo la direzione in cui avvengono i processi fisici reali (irreversibili) e, di conseguenza, le condizioni di equilibrio termodinamico di un siste­ ma. Anche 5, come U, è definita a meno di una costante arbitraria; ciò che si misura, nella transizione da uno stato iniziale a uno finale, è la variazione di entropia .15; se nella transizione reversibile è coin­ volto solo uno scambio di calore, il secondo principio dice che .15 = .1 Q/T, dove .1 Q è la quantità di calore assorbita dal sistema e T la sua temperatura. Una formulazione alternativa del secondo principio è la seguente: in un sistema isolato, che cioè non scambia energia con l'ambiente, lo stato di equilibrio è quello nel quale l'entropia è massima. Di conse­ guenza, se inizialmente un sistema isolato non è in equilibrio (per esempio se esistono gradienti di temperatura o di concentrazione) , l'evoluzione del sistema è tale che la sua entropia cresce; quando essa ha raggiunto il valore massimo non si ha più alcun cambiamento, su scala macroscopica. Secondo Clausius «l'entropia dell'Universo tende a un massimo». Alcuni anni più tardi Ludwig Boltzmann (1844-1906) collegò l'en­ tropia, che è una variabile macroscopica, alle proprietà di un sistema a scala atomica: l'entropia di uno stato è una misura quantitativa del grado di disordine di quello stato. Ad esempio, quando un cristallo sublima, cioè passa allo stato di gas, l'entropia cresce; gli atomi di un cristallo compiono piccole oscillazioni intorno a punti distribuiti nello spazio in modo molto regolare a formare il reticolo cristallino, dun­ que si trovano in una situazione relativamente ordinata, a bassa en­ tropia; al contrario, nello stato gassoso gli atomi sono distribuiti qua­ si completamente a caso nel volume disponibile e si muovono disor­ dinatamente, quindi dopo la sublimazione l'entropia è maggiore. 25

STATI E TRASFORMAZIONI DELLA MATERIA

Quando ci si avvicina allo zero assoluto l'agitazione termica degli atomi diminuisce, fino ad annullarsi, così che ogni sistema viene a trovarsi in uno stato completamente ordinato; l'entropia è allora nul­ la. Questa è la formulazione più stringente del terzo principio della termodinamica (Walter Nernst, 1906). Abbiamo detto che in un sistema isolato l'entropia cresce, ten­ dendo al valore massimo che corrisponde allo stato di equilibrio. In molti casi i sistemi fisici con cui abbiamo a che fare non sono isolati, ma in equilibrio termico con l'ambiente, a una temperatura T, ed è importante sapere anche in questo caso come si comporta il sistema. Si può dimostrare, partendo dal secondo principio, che lo stato di equilibrio (trascurando le variazioni di volume) è quello in cui è mi­ nima la funzione [2.2]

F

=

U - TS

F è detta energia libera (di Helmholtz) e svolge nella termodinamica

un ruolo analogo a quello dell'energia potenziale nella meccanica. La differenza fra l'energia totale di un sistema e la sua energia libera misura il calore immagazzinato sotto una forma inutilizzabile praticamente, ad esempio per produrre lavoro; la formula [2.2] mo­ stra che questa differenza è connessa all'entropia. Tutta l'energia meccanica, elettrica, magnetica è energia libera, perché può essere trasformata completamente in altre forme utilizzabili di energia; pos­ siamo ad esempio trasformare l'energia meccanica in elettrica (a parte piccole perdite) con una dinamo e ritrasformare l'energia elettrica in meccanica con un motore elettrico. Non è così per l'energia termica, che solo in parte può essere trasformata. Ad esempio, da un sistema composto da una parte calda e una parte fredda si può ottenere lavo­ ro, per mezzo di una macchina termica; ma se si lascia fluire sponta­ neamente il calore dal corpo caldo a quello freddo, fino a che le due parti hanno raggiunto la stessa temperatura, non è più possibile con­ vertire il calore in energia meccanica, nonostante che l'energia totale del sistema sia rimasta invariata. L'energia libera è dunque maggiore quando le parti del sistema sono a temperature diverse, che non quando si è raggiunto l' equili­ brio termico: nel processo di conduzione del calore la parte calda del sistema ha perduto una quantità di energia libera maggiore di quella acquistata dalla parte fredda.

2. CENNI DI TERMODINAMICA

2. 6 Equazioni di stato

Un processo termodinamico, cioè la trasformazione da uno stato a un altro, è associato con una situazione di non-equilibrio del sistema. È conveniente considerare trasformazioni sufficientemente lente da ren­ dere tale violazione insignificante, così che il processo possa essere consid�rato una sequenza continua di stati di equilibrio; un processo del genere, che è solo un caso limite dei processi fisici reali, è reversi­ bile e presenta il vantaggio che ad ogni stato possono essere applicate le leggi della termodinamica (di equilibrio) . L'esempio più semplice di un processo è la compressione di un gas contenuto in un recipien­ te con una parte mobile (pistone) : quando la variazione di volume è sufficientemente lenta, ad ogni istante lo stato del gas è caratterizzato da un unico valore della pressione (e della temperatura) e il processo è reversibile; se il pistone è spostato rapidamente, si producono diso­ mogeneità all'interno del gas, il processo è irreversibile e gli stati in­ termedi non possono essere rappresentati da un unico valore di P. In un sistema omogeneo contenente una data quantità di materia le variabili termodinamiche che ne caratterizzano lo stato (nel caso più semplice P, V e D non sono quantità indipendenti; esse sono legate da una relazione, detta equazione di stato, la cui forma dipen­ de dalle proprietà della sostanza che costituisce il sistema. In generale si scrive: /(P, V, T) = o e la relazione è tale che, assegnati i valori di due delle variabili, la terza è determinata; in altre parole, lo stato del sistema è determinato da due qualunque delle variabili P, V, T. In generale l'equazione di stato di una sostanza è complicata; i dati sperimentali mostrano che non può essere rappresentata da funzioni analiticamente semplici. L'eccezione più importante è quella dei gas a pressioni sufficiente­ mente basse, per i quali è approssimativamente costante il rapporto PV/T. Questa relazione serve anche per definire la scala della tempe­ ratura assoluta, perché T è semplicemente proporzionale al prodotto PV; basta allora definire T per uno stato preciso di un sistema: que­ sto stato è il punto triplo dell'acqua, cioè lo stato in cui coesistono ghiaccio, acqua e vapore; alla temperatura T del punto triplo è stato assegnato il valore di 273,16 gradi assoluti, o gradi kelvin (273,16

STATI E TRASFORMAZIONI DELLA MATERIA

°K); il numero è stato scelto in modo che l'unità di temperatura, il grado kelvin, sia approssimativamente uguale al grado centigrado ( oC) . I processi reversibili possono essere rappresentati graficamente da una curva piana in un sistema di assi cartesiani ortogonali, dove i due assi rappresentano una coppia di variabili termodinamiche; se sceglia­ mo come variabili, ad esempio, V e P, ogni curva del piano corri­ sponde a un valore di T differente. Il processo inverso di una trasfor­ mazione reversibile segue la stessa curva, ossia il sistema passa attra­ verso la stessa successione di stati di equilibrio, percorsa in senso in­ verso. 2. 7 Sistemi ideali

In fisica - ma anche negli altri campi delle scienze della natura - il problema dell'interpretazione di una realtà inevitabilmente complessa viene affrontato per gradi, partendo da situazioni idealizzate, schema­ tizzabili in termini di modelli che richiedono la conoscenza di un nu­ mero limitato di parametri. La validità dei modelli dipende da un lato dalla loro capacità di inquadrare gli aspetti essenziali del campo dei fenomeni che si intende studiare, dall'altro dalla possibilità di for­ nire uno schema semplice e formalizzabile, dal quale trarre conclusio­ ni quantitative, suscettibili di verifica sperimentale. Questo processo di idealizzazione si ritrova, sia pure in misura minore, nelle scienze umane e sociali. Così la storia è stata interpreta­ ta da Karl Marx (1818-1883) come storia della lotta di classe, l'eco­ nomia classica si basa su un modello di mercato, la psicanalisi sull'i­ potesi di un inconscio, e così via. Poiché i settori di indagine delle scienze umane sono complessi, è difficile individuare modelli che ti­ specchino gli aspetti essenziali della realtà e che si impongano per la loro forza interpretativa e predittiva all'intera comunità scientifica. Nei fatti ognuno può constatare che in genere coesistono modelli di­ versi, senza che nessuno abbia la capacità di imporsi. Trascuriamo qui per semplicità il fatto che nel caso delle scienze umane e sociali l'impostazione dei singoli ricercatori e delle varie scuole di pensiero risente, molto più che nel caso delle scienze della natura, di condizio­ namenti esterni, sociali e culturali. In fisica la ricerca di un modello di sistema ideale costituisce un primo passo essenziale e inevitabile per interpretare la ricca realtà del 28

2. CENNI DI TERMODINAMICA

mondo fisico. Ad esempio, sarebbe difficile cercare di capire il moto

di caduta di una piuma nell'aria, o la traiettoria di un proiettile, se prima non si conoscesse la legge di caduta di un grave nel vuoto; per interpretare le proprietà degli atomi dei vari elementi chimici è stato essenziale essere in grado di capire il più semplice di essi, l'idrogeno, costituito di due sole particelle, il nucleo (protone) e l'elettrone, e ciò ha richiesto una grande rivoluzione nei concetti della fisica; la grande ricchezza di proprietà dei corpi solidi - meccaniche, ottiche, elettri­ che, magnetiche ecc. - è risultata comprensibile solo dopo che si è stati in grado di descrivere il comportamento di un elettrone in un cristallo ideale, cioè costituito di atomi distribuiti regolarmente nello spazio, come in un pavimento fatto di piastrelle identiche, e allo zero assoluto, in modo da trascurare le complicazioni introdotte dall'agita­ zione termica. Naturalmente il modello ideale di partenza è solo una prima ap­ prossimazione; è poi necessario ampliare lo schema, introducendo le opportune perturbazioni. Ad esempio, nel caso di un solido sarà ne­ cessario considerare che gli atomi in un cristallo ideale non se ne stanno fermi, ma sono dotati di agitazione termica, che non tutti i siti di un reticolo cristallino sono occupati da atomi, ma che esistono ir­ regolarità di varia natura, e così via. Spesso il modello ideale da cui si è partiti risulta idoneo a descrivere solo situazioni particolarmente semplici, ma deve essere abbandonato in molti altri casi significativi. Nei sistemi allo stato gassoso un modello semplice che si è impo­ sto per la sua efficacia nel descrivere le proprietà macroscopiche e nel dare la connessione con le proprietà a scala atomica (o molecola­ re) è quello del gas ideale, o perfetto.

3

Proprietà macroscopiche

n 3.1.1.

J .I

gas ideale

L'equazione di stato

Le proprietà di un gas chimicamente omogeneo, quando la pressione (e la densità) non è troppo elevata e la temperatura non è troppo bassa sono descritte con ottima approssimazione da un modello mol­ to semplice, quello del gas ideale (o perfetto) . L'equazione di stato del gas ideale, per una mole di materia (cioè per un numero di gram­ mi uguale al peso molecolare del gas) è PV = RT dove R è una costante universale, che cioè ha lo stesso valore per tutti i gas: [3.2]

R = 8,31

·

ro7 erg/grado · mole = 1,986 caVgrado · mole

Se il sistema contiene n grammomolecole, il secondo membro va moltiplicato per n. L'equazione di stato contiene le varie leggi dei gas scoperte a par­ tire dalla metà del Seicento. Robert Boyle (r627-169r) , proseguendo i lavori di Otto von Guericke (r6o2-r686) sulla pressione dell'�ria, scoprì, nel r66o, che i volumi e le pressioni di una determinata massa d'aria, se la temperatura è costante, sono inversamente proporzionali; tale scoperta venne rifatta indipendentemente da Edme Mariotte (r62o-r684) sei anni più tardi; in seguito si trovò che tale legge vale 3I

STATI E TRASFORMAZIONI DELLA MATERIA

con ottima .approssimazione per tutti i gas, nelle condizioni indicate all'inizio del paragrafo. Se si rappresenta la legge di Boyle rispetto a un sistema di assi cartesiani (V, P) si hanno, per le trasformazioni isoterme, le ben note iperboli equilatere, che hanno gli assi V e P come asintoti. Joseph-Louis Gay-Lussac (1778-1850), proseguendo i lavori di John Dalton sull'espansione dei gas per azione del riscaldamento, nel 1802 trovò che il coefficiente di dilatazione a pressione costante è uguale per tutti i gas; osservazioni analoghe erano state fatte qualche anno prima da Jacques Alexandre Cesar Charles (1746-1823 ) . In se­ guito fu possibile precisare che la densità è inversamente proporzio­ nale alla temperatura assoluta, in accordo con la [ 3 . 1 ] . Infine Ame­ deo Avogadro (1776-1856) nel 1811 formulò l'ipotesi che qualunque tipo di gas, nelle stesse condizioni di temperatura e di pressione, ab­ bia una densità (rapporto fra la massa e il volume) proporzionale al peso molecolare; ciò corrisponde ad affermare, tenendo conto della struttura molecolare, che per un dato valore di P, di V e di T, una quantità di ogni gas di peso uguale al suo peso molecolare contiene lo stesso numero di molecole; questo numero, che si indica in genere con il simbolo A, o con il simbolo N0 , è 6,02 · 10 2 3 molecole per mole. La costante dei gas può essere allora scritta come R = N0k, dove si è introdotta la costante di Boltzmann k = RIN0 = 1,38 · I0- 1 6 erg/0 K. Una miscela di diversi gas segue leggi simili a quelle di un gas chimicamente omogeneo. Un'aggiunta importante è la legge di Dal­ ton, che afferma che la pressione è uguale alla somma delle pressioni che ogni componente della miscela eserciterebbe se occupasse da so­ lo il volume disponibile (pressione parziale) . Questa legge esprime il fatto che le pressioni esercitate dai gas componenti sono proporzio­ nali al numero di molecole di ogni componente; nell'aria secca il 78,09% delle molecole è di azoto (N2 ) , il 20,95 % di ossigeno (02 ) , lo 0,93 % di argon (Ar) e lo o,o3 % di altri gas; l a massa molecolare media è 28,97, dunque l'aria secca si comporta come un gas ideale di massa molecolare di circa 29. Deviazioni modeste dal modello di gas ideale si hanno nel caso di atomi fortemente reattivi, come il potassio allo stato gassoso, e di molecole dipolari, ma sono irrilevanti per i gas più comuni, come l'ossigeno, l'azoto, l'anidride carbonica, e per i gas nobili, come l' ar­ gon. 32

3 · PROPRIETÀ MACROSCOPICHE

3 . 1 .2 . Energia interna La seconda equazione che caratterizza il gas ideale risale all'esperien­ za condotta da Joule sull'espansione libera di un gas (in uno stato che approssimi la situazione del gas ideale) : la temperatura non varia quando il gas si espande, dal recipiente nel quale è inizialmente con­ tenuto, in un altro nel quale precedentemente è stato fatto il vuoto (FIG. 3 . 1 ) . Poiché durante il processo non si ha scambio di energia con. l'esterno, si può concludere che l'energia interna del gas ideale non dipende dal volume, ma dipende solo dalla temperatura: U

=

U(T)

Questa relazione rispecchia il fatto che nel gas ideale l'energia di in­ terazione &a le molecole è nulla (cfr. CAP. 5 ) , quindi l'energia è pura­ mente cinetica; se così non fosse, infatti, U dovrebbe dipendere an­ che dalla distanza fra le molecole, quindi dal volume. Si può dimostrare termodinamicamente che la [ 3 . 3 ] , ricavata per via sperimentale da Joule, è valida per una sostanza che ubbidisce all'equazione di stato [3 . 1 ] , ossia per il gas ideale. Quanto più un gas si discosta dal modello ideale, tanto più questa semplice legge è vio­ lata; è noto che nei gas reali l'espansione libera di un gas compresso è accompagnata da raffreddamento e su questo "fatto si basano le macchine frigorifere. FIGURA 3 . 1 Esperimento d i J oule T E R M O M ET R O

T�

ACQ U A

A sinistra: inizialmente il gas occupa il volume V, ; a destra: dopo l'espansione i l g as occupa i l volume v. > v;.

33

STATI E TRASFORMAZIONI DELLA MATERIA

Dal risultato dell'esperienza di Joule e dal primo principio della termodinamica si ricava una relazione semplice fra il calore specifico molare a pressione costante e quello a volume costante:

C;' = C':; + R (per una mole) Cp = Cv + R/M (per un grammo di gas di peso molecolare M)

È abbastanza difficile misurare direttamente i calori specifici dei gas, poiché la massa di un gas, e quindi le quantità di calore coinvolte nel processo, sono necessariamente modeste; inoltre Cv si determina con maggiore difficoltà di Cp. Per ottenere il calore specifico a volume costante è più agevole determinare il rapporto C/Cv con metodi in­ diretti, misurando le variazioni di temperatura in un'espansione adia­ batica - cioè quando il sistema è termicamente isolato - o misurando la velocità delle onde sonore nel gas. Per un gas ideale monoatomico si ha C;: = 3h R; per un gas ideale biatomico, cioè costituito da molecole composte di due atomi, si ha C: = 5/2 R, purché la temperatura del sistema non sia troppo elevata. Ciò è in buon accordo con i risultati che si ottengono teori­ camente dalla meccanica statistica classica. 3. L 3. Altre caratteristiche del gas ideale Trasformazioni adiabatiche Abbiamo visto che l'equazione di stato dice che, per trasformazioni isoterme, si ha una proporzionalità inversa fra pressione e volume (legge di Boyle) . Se consideriamo invece una trasformazione reversi­ bile adiabatica, nella quale cioè il gas è isolato termicamente dall'am­ biente, si può dimostare, ricordando il primo principio, che la rela­ zione fra pressione e volume è: PVY = costante dove il parametro all'esponente è

Il diagramma PV mostra che la curva è più ripida di quella per una trasformazione isoterma; il gas infatti durante l'espansione compie la34

3 · PROPRIETÀ MACROSCOPICHE

voro a spese dell'energia interna, di conseguenza diminuisce la tem­ peratura. Onde sonore Tutti i mezzi elastici possono trasmettere onde di velocità e frequen­ za definita; velocità v, frequenza v e lunghezza d'onda À sono legate dalla relazione = V

ÀV

In un gas, e pm m generale in un fluido, si propagano solo onde longitudinali, nelle quali cioè si alterna una successione di zone rare­ fatte e di zone compresse lungo la direzione di propagazione dell'on­ da. La velocità di propagazione dipende dalla densità del mezzo e dal suo modulo di compressibilità definito, per un volume unitario, dal rapporto fra la variazione di pressione e la variazione di volume, col segno cambiato :

B

=

-

V

v

(dP/dV)

per la velocità delle onde longitudinali, o, come comunemente si di­ ce, la velocità del suono, si ha: v =



Un gas è un cattivo conduttore di calore, di conseguenza mentre l'onda si propaga, la quantità di calore scambiata fra le regioni ad alta e a bassa densità è trascurabile; ciò equivale a dire che le varia­ zioni di pressione e di volume sono adiabatiche. Dalle [3.5] e [ 3 . 1 ] si ottiene allora, per il gas ideale: v =



=

y'yRT/M

dove si è indicato con M il peso molecolare del gas. Per l'aria a o °C e alla pressione atmosferica si ottiene v = 331 m/s in eccellente ac­ cordo con l'esperienza. Quando si tiene conto della struttura molecolare dei gas, si vede che questo risultato è prossimo a quello che si ottiene per la velocità media delle molecole, alla stessa temperatura; ciò è comprensibile, se si pensa che il suono attraverso un gas si propaga per effetto dell'ur­ to reciproco fra le molecole. 35

STATI E TRASFORMAZIONI DELLA MATERIA

J. 2 I gas reali

3 . 2 . 1 . Equazioni di stato La differenza più rilevante fra il gas ideale e i gas reali sta nel fatto che il primo non può subire cambiamenti di stato, cioè dar luogo a transizioni dallo stato gassoso a quello liquido e solido; secondo la legge di Boyle, infatti, qualunque sia la temperatura, l'aumento di pressione ha il solo effetto di ridurre il volume del gas. Al contrario si è visto al PAR. 1 . 3 che ogni gas, per T < T0 liquefa, se la pressione è sufficientemente elevata. Ma prescindendo dai cambiamenti di sta­ to, quando la densità è elevata si osservano deviazioni dall'equazione di stato del gas ideale. Nella TAB. 3 . 1 vediamo, ad esempio, le devia­ zioni crescenti per l'azoto (N 2 ) , per T = o °C, al crescere della pres­ sione; nella prima colonna è riportata la pressione, in atmosfere, nella seconda il prodotto PV che, se valesse la legge di Boyle, dovrebbe rimanere costante. Si osserva che, per P > 200 atmosfere, il prodotto cresce considerevolmente, dunque un gas reale, quando la densità è elevata, offre una resistenza addizionale alla compressione, rispetto al gas ideale. L'interpretazione di tali deviazioni risale al fatto che ad alta densità diventano rilevanti le interazioni fra le molecole del gas, ossia la repulsione che si esercita quando le molecole sono in contat­ to stretto e l'attrazione che è apprezzabile anche a distanze maggiori. Non è possibile trovare per le equazioni di stato espressioni anali-

TABELLA 3 . 1 Deviazioni rispetto all'equazione di stato del gas ideale (seconda colonna) e all'e­ quazione di Van der Waals (terza colonna) per l'azoto gassoso, a pressioni cre­ scenti P( atmosfere)

100 200 500 ! . 000

(P + a/V') (V - b) (atmosfere per litri)

PV(atmosfere per litri)

1,ooo 1,ooo 1,009 1,014 0,893

1,ooo 0,994 1,048 1,390 2,069

200

Nel primo caso si hanno deviazioni a pressioni superiori alle atmosfere, mentre nel secondo l'accor­ do con i dati sperimentali è soddisfacente anche a pressioni elevate.

3· PROPRIETÀ MACROSCOPICHE

tiche semplici che descrivano correttamente i dati sperimentali. In ge­ nerale si può scrivere: PV

RT =

I

C( D B( D D( D + -v + ""V2 + � + . . .

ossia si può sviluppare il rapporto al primo membro in serie d i po­ tenze di I l V. È evidente che, quando la densità è bassa (V grande) , i termini al secondo membro successivi al primo termine diventano trascurabili e il gas si comporta come ideale. I coefficienti B( D , C( D . . . sono funzioni della temperatura e sono caratteristici del gas in esa­ me; essi vanno determinati empiricamente e nei casi più semplici possono essere calcolati conoscendo le forze intermolecolari. B si chiama secondo coefficiente del viriale, C è il terzo coefficiente del viriale e così via. Per densità non troppo elevate la serie può essere arrestata al secondo termine poiché è B > > C > > D ecc. Una grande quantità di equazioni (almeno una sessantina) è stata proposta per descrivere il comportamento dei gas reali. Una delle più semplici e interessanti è quella di Johannes Diderik Van der Waals ( I 837-I923) , che introduce due termini correttivi nell'equazione di stato del gas ideale:

(p + �)

( V - b) =

RT

' I parametri a e b si ricavano empiricamente e sono c aratteristici di ogni dato gas. Nella TAB. 3 . 2 ne sono riportati i valori per alcuni gas. Van der Waals dedusse la sua equazione da considerazioni sulla struttura molecolare dei gas. Il termine b rappresenta l'effetto dovuto alla dimensione finita delle molecole o, meglio, all'intensa forza re­ pulsiva che si esercita quando la distanza intermolecolare è piccola; l'effetto si manifesta come una riduzione da V a ( V-b) del volume vuoto disponibile. Il termine a/P è dovuto alle forze attrattive che si esercitano fra le molecole e si manifesta come una pressione interna di coesione, come se sul gas agisse una pressione superiore a quella esercitata dalle pareti del recipiente che lo contiene. Van der Waals formulò la sua equazione nel I873 e grazie ad essa nel I9IO ottenne il premio Nobel. I dati sperimentali sono descritti abbastanza bene dall'equazione [3.12] per molti gas, per temperature superiori alla temperatura criti37

STATI E TRASFORMAZIONI DELLA MATERIA

TABELLA 3 . 2 Costanti d i Va n der Waals per alcuni gas a

Gas

(atmosfere

02

H20 Cl2

Tn

b (cm3)

cm6)

23,7 17, 1 30,2 3 8, 5 32,6 30, 5 5 6,3

0,034 0,21 1,30 1,3 5 1,36 5 >47 6,71

He Ne Ar N2

ca

·

come si vede, per il caso dell'azoto dalla terza colonna della

TAB. 3 . 1 . Nella FIG. 3 . 2 sono riportate alcune isoterme di Van der

Waals. Le tre curve superiori descrivono la relazione fra pressione e volume del gas; per temperature sufficientemente alte le isoterme ap­ prossimano le iperboli equilatere del gas ideale. Si può vedere che l'equazione per i gas reali si approssima alla [3 . r ] per il gas ideale se il volume tende all'infinito riscrivendo la [3.12], in modo da mettere in evidenza il prodotto PV: PV [I +

(;v) vJJ [I t] = RT (

-

infatti, poiché il prodotto PV è approssimativamente costante, per V molto grande i secondi termini nelle due parentesi diventano trascu­ rabili rispetto all'unità. La curva tratteggiata, che presenta un flesso con tangente orizzontale nel punto K, è l'isoterma critica: per T < Te al crescere della pressione il gas passa gradualmente allo stato liquido e le curve riportate non rappresentano stati reali del gas. Nel tratto di curva fra il minimo e il massimo, infatti, al crescere del volume si avrebbe un aumento di pressione, e ciò è contrario all'esperienza; inoltre, per T < Te sperimentalmente si osserva che se si comprime un gas fino a raggiungere la pressione di saturazione, in generale par­ te del gas. (vapore) condensa e la pressione non varia, si ha cioè la transizione dallo stato gassoso allo stato liquido. Di ciò si tratterà nel CAP. 5 · È interessante notare che l'equazione di Van der Waals può esse­ re scritta in una forma più generale, introducendo il legame fra i pa­ rametri a e b e i parametri critici della stessa sostanza, Pc e Vn cioè i

PROPRIETÀ MACROSCOPICHE FIGURA 3.2 Isoterme di Van der Waals, per temperature crescenti a partire dalla curva infe­ riore p

\

',

\\

TRAN S I Z I O N E 6A5 -

L I Q U IDO

v

La curva contrassegnata da Te è l'isoterma critica e presenta un punto di flesso a tangente orizzontale (K). Le curve superiori a questa descrivono il gas reale. Le curve inferiori, sulla wna centrale, tra il massimo e il minimo, non rappresentano stati reali, perché a un aumento del volume corrisponderebbe un aumento della pressione. Il cambiamento di stato è indicato dalle linee punteggiate.

valori della pressione del volume che corrispondono, nell'isoterma T = TC> al punto in cui la curva presenta un flesso con tangente oriz­ zontale (punto K nella FIG. 3 .2) ; lo stato corrispondente ai valori Te> Ve> Pc è detto stato critico, o punto critico del sistema. Calcoli abba­ stanza semplici consentono di trovare le relazioni

Tc =

pc =

8a

27Rb

Prendiamo ora come unità di volume, pressione e temperatura rispet-

39

STATI E TRASFORMAZIONI DELLA MATERIA

tivamente Ve. bili ridotte:

Pc. Te. cioè introduciamo le nuove variabili,

dette varia­

allora l'equazione [3.12] si può riscrivere nella forma

Questa espressione, ricavata da Van der Waals nel 188o, è detta equazione ridotta, o equazione degli stati corrispondenti; essa ha una generalità maggiore della equazione originaria, perché è la stessa per tutte le sostanze; gli stati che corrispondono alla stessa tema di valori di P*, V', 1 si chiamano stati corrispondenti. 3.2.2. Energia interna. L'effetto Joule-Kelvin (o Joule-Thomson) Nei gas reali l'energia interna non dipende solo dalla temperatura (cfr. PAR. 3 . 3 ) , ma anche dal volume. A questo risultato giunsero, fra il 1842 e il 1856, Joule e Lord Kelvin (William Thomson, 1824-1907) studiando, in un tubo isolato termicamente, il flusso di un gas, attra­ verso un setto poroso fatto di cotone compresso, indotto da una dif­ ferenza di pressione mantenuta ai due lati del setto (FIG. 3 . 3 ) . Duran­ te il processo si osserva in generale che, nel lato del tubo dove la pressione è inferiore, la temperatura è diversa da quella del gas nel lato dove la pressione è superiore: ad esempio, se espandiamo l'aria FIGURA 3 · 3

Spiegazione dell'effetto Joule-Thomson, con l'inserimento di un pistone immagi­ nario

-----jl l

.

l i/ 1

1---

3 · PROPRIETÀ MACROSCOPICHE

FIGURA

3 ·4

Curva di inversione per l'azoto . La pressione è in atmosfere, la temperatura in

OK

T

Z O N .\

600

DI

R I SC.ALDA M E NTO

400 ZO NA

DI

IIAFF R E D D .l. H EI"TO

200

o

200

p

400

attraverso un setto, partendo da una pressione di 200 atmosfere e da una temperatura di 52 °C, e giungendo alla pressione di un' atmosfe­ ra, si osserva un raffreddamento di circa 29 °C. Al contrario, se espandiamo l'elio partendo dalle stesse condizioni iniziali, si osserva un riscaldamento di circa 12 °C; affinché l'elio espandendosi si raf­ freddi dobbiamo partire da una temperatura inferiore a circa 40 °K, cioè occorre un preraffreddamento. I valori della temperatura al di sotto dei quali durante l'espansione si ha raffreddamento dipendono dalla pressione; la corrispondente curva (PV) è la curva di inversione (FIG. 3 .4) : la regione all'interno della curva si chiama regione di raf­ freddamento, quella all'esterno regione di riscaldamento. Fu proprio grazie allo studio dell'equazione di Van der Waals per l'elio gassoso che Kamerling-Onnes individuò le condizioni in cui si 41

STATI E TRASFORMAZIONI DELLA MATERIA

sarebbe· ottenuto il raffreddamento di Joule-Thomson e, alla fine, la liquefazione. n raffreddamento di un gas durante un'espansione è alla base del­ le tecniche impiegate per liquefare i gas e per ottenere basse tempe­ rature. Durante un'espansione libera un gas reale, diversa�ente dal gas ideale, si raffredda, indipendentemente dalla temperatura di par­ tenza. Ciò è comprensibile, se si tiene conto del fatto che fra le mole­ cole di un gas reale agiscono forze attrattive che decrescono al decre­ scere della distanza fra le molecole stesse. Nel 1895 il chimico tedesco Karl von Linde sfruttò l'effetto Joule­ Thomson per la liquefazione dei gas su grande scala. Il gas, preraf­ freddato e compresso, viene fatto espandere e, subendo un ulteriore raffreddamento, liquefa in parte; il gas residuo viene riconvogliato al compressore e di nuovo preraffreddato, e il ciclo si ripete, dando luogo ad una ulteriore liquefazione. Per ottenere temperature molto basse i processi basati sull'effetto Joule-Kelvin non sono applicabili e si deve ricorrere ad altre tecni­ che. 3·3 I liquidi

3 · 3 · 1 . Caratteristiche generali Degli stati di aggregazione della materia lo stato liquido è il più diffi­ cile da trattare. Spesso viene descritto sottolineando le analogie con lo stato gassoso e con lo stato solido. L'analogia più rilevante fra li­ quido e gas sta nel fatto che in ambedue · i casi una sostanza è priva di rigidità, non ha una forma definita ed è in grado di fluire attraver­ so un condotto o una fenditura. Per questa analogia il comportamen­ to meccanico delle due fasi - chiamate fasi fluide - viene trattato allo stesso modo. A parte alcune eccezioni, un liquido, come un gas, è isotropo, cioè le sue proprietà fisiche sono le stesse in ogni direzione; al contrario, molti solidi cristallini presentano anisotropia. Alle alte densità le differenze fra gas e liquido si attenuano, fino a sparire al punto critico. Per la maggior parte delle altre proprietà fisiche un liquido non è molto diverso dal solido corrispondente. La compressibilità, la densi­ tà e il calore specifico, ad esempio, sono simili in un liquido e in un solido; un metallo allo stato liquido è un conduttore di elettricità, 42

3 · PROPRIETÀ MACROSCOPICHE

come un metallo solido, e in ambedue gli stati un metallo è opaco alla luce e la riflette; l'azoto liquido è invece trasparente alla luce, assorbe la radiazione ultravioletta di breve lunghezza d'onda ed è un buon isolante elettrico e termico, come l'azoto solido. Ancora mag­ giori sono le _analogie di comportamento fra un liquido e un solido amorfo. Alcune proprietà dei liquidi sono intermedie fra quelle dei gas e quelle dei solidi. Una sostanza estranea, ad esempio, diffonde in un liquido più lentamente che in un gas, ma più rapidamente che in un solido. Differenze e analogie fra le tre fasi sono meglio inquadrate dal punto di vista della struttura su scala atomica, cioè della distribuzio­ ne spaziale degli atomi o delle molecole che le compongono, e della dinamica, cioè del moto degli atomi o delle molecole. 3 · 3 · 2 . La tensione di vapore saturo Supponiamo di avere un recipiente chiuso, parzialmente riempito con acqua, a una temperatura T, di estrarne rapidamente l'aria contenuta e di richiudere il recipiente (FIG. 3 .5 ). L'acqua incomincia a bollire e ad evaporare, e il processo si interrompe solo quando il vapore ac­ queo nel recipiente ha raggiunto una pressione il cui valore dipende dalla temperatura del liquido. Supponiamo per semplicità che la tem­ peratura del sistema venga mantenuta costante fornendo calore dalFIGURA 3 · 5

Recipiente con volume definito, che contiene acqua e vapore d'acqua. Il mano­ metro in alto a sinistra misura la pressione P del vapore

H .z O

p

VA PORE

.

,,_

. . . :.

.

. .

43

. ·. · .

.

FIGURA 3 . 6 Curva di vaporizzazione per l'acqua . Essa dà le condizioni sotto le quali coesisto­ no liquido e vapore saturo



-I'>

LIQU I D O

600

j5

f � 4 00 Ul z o

,o

't"'V

"v'l/ �

;;j

"' w '"' Q.

A)

��

200

ODI O

�00

TE.M P E. RATO RA

(•c)

L a solubilità del nitrato d i sodio aumenta con l a temperatura; l a solubilità del solfato d i sodio decresce; quella del cloruro di sodio è praticamente indipendente.

il terzo termine è meno importante nel caso delle soluzioni. La termodinamica dimostra che le condizioni di equilibrio, per un sistema non isolato, sono quelle in cui è minimo il valore di G. Perché si abbia una soluzione è necessario che sia: [ 3 .1 8]

G(soluzione) < G(componenti separati)

Se U (soluzione) :::; U (componenti separati) , la condizione [3. 18] si realizza su ampi intervalli di concentrazione. In molti casi è U (solu­ zione) > U (componenti separati) , ossia si deve spendere energia per sciogliere una sostanza in un solvente. Affinché la disuguaglianza [3. 18] sia soddisfatta, è necessario che l'entropia della soluzione, su­ periore a quella degli elementi separati, sia tale che il prodotto T S compensi l'aumento di energia; poiché l'entropia esprime una misura del disordine del sistema, questa condizione in molti casi si realizza, infatti lo stato di una soluzione è più disordinato di quello dei com­ ponenti separati (PAR. 2.5) . La solubilità è elevata quando l'energia 53

STATI E TRASFORMAZIONI DELLA MATERIA

interna non varia molto, ossia quando le forze attrattive fra le mole­ cole del solvente e quelle del soluto sono prossime a quelle che si esercitano nei due componenti separati; ciò accade, ad esempio, nel caso degli idrocarburi, delle soluzioni acqua-alcool, di metalli chimi­ camente simili, come rame e oro, di sali chimicamente simili, come NaCl e NaBr. Se invece U (soluzione) >> U (componenti separati) , l'aumento di entropia non è sufficiente per abbassare G, quindi la soluzione non si forma, o la solubilità è molto piccola. 3·5 L'elio liquido. Superfluidità

È noto che liquidi diversi non fluiscono attraverso un tubo con la

stessa facilità. L'acqua fluisce meglio della glicerina e questa meglio del miele o del bitume. La velocità del liquidi a contatto con le parti del condotto è pressoché nulla, a causa della frizione fra liquido e parete; la velocità cresce verso il centro del condotto, a causa della frizione fra i vari strati del liquido (paralleli alla direzione del moto) . Si dice che un liquido che fluisce facilmente ha bassa viscosità; la viscosità può essere definita in modo rigoroso e misurata con preci­ slOne. Anche il flusso dei gas presenta viscosità, sebbene minore di quel­ la dei liquidi. Alla viscosità si deve il· fatto che un corpo in caduta nell'aria (gocce di pioggia) accresce la sua velocità fino a una velocità limite, cioè la sua accelerazione decresce fino ad annullarsi. La visco­ sità dell'aria a 20 °C è solo due centesimi di quella dell'acqua alla stessa temperatura, e inoltre nei gas la viscosità aumenta al crescere della temperatura (in modo proporzionale alla radice quadrata della temperatura assoluta) , mentre nei liquidi la viscosità diminuisce al crescere della temperatura. Questa diversa dipendenza dalla tempera­ tura suggerisce che il meccanismo molecolare della viscosità sia diffe­ rente per i due stati di aggregazione della materia. Esiste un liquido anomalo, il cui comportamento, a temperature sufficientemente basse, differisce da quello di tutti gli altri liquidi: l'elio liquido. L'elio è il più leggero dei gas nobili. Occupa il secondo posto nel Sistema periodico, dunque la sua carica nucleare è il doppio di quella dell'idrogeno (Z = 2) ; la sua massa è circa quattro volte maggiore. È presente in grande quantità nell'universo (quasi il w % ) , dove si è formato pochi minuti dopo il " big-bang" , ma in piccole concentra54

3 · PROPRIETÀ MACROSCOPICHE

FIGURA 3 . 10 Diagramma di stato per lo He4

S O L I DO

C R I 5TA LL I N O

r5

ELI O L I Q U I D O N O R I'I A L E

50

( H& I )

25

2

3 4 TE: H PE RAT U P. "'

La cuiVa À segna la transizione fra il liquido normale e il liquido superfluido.

(• ! I O N E I N E L A ST I C A

In situazioni opportune, l'intensità del fascio incidente viene amplificata, E M I SS I O N E mantenendo la stessa fase. Il fascio ST I M O L ATA uscente è fortemente collimato (laser e maser) .

Quando la frequenza cade nella zona di raggi X, i fasci diffusi elasticamen· te hanno direzioni ben determinate, caratteristiche della struttura del cri­ stallo in esame.

DI FFRAZ. I O N E X

8o

v

v

1' //

� "" u



:o v·

3 · PROPRIETÀ MACROSCOPICHE

per la zona delle radioonde la tecnica della risonanza magnetica nu­ cleare (NMR) . Negli ultimi cinquant'anni lo studio delle proprietà ottiche dei so­ lidi poté svilupparsi fortemente grazie agli sviluppi strumentali nel campo delle sorgenti e dei rivelatori di radiazione e dell'analisi dei segnali. L'invenzione del laser, in particolare, ha fornito ai laboratori di ottica uno strumento di grande importanza e ha consentito, fra l'altro, grandi progressi nello studio della diffusione della luce. Nella FIG. 3 . 18, sono schematizzati i più importanti fenomeni che hanno luogo nell'interazione della radiazione elettromagnetica con la mate­ ria. 3·7·3· Proprietà termiche Si è già detto del calore specifico (PAR. 2.3) e del calore specifico dei solidi (PAR. 3.6) . Ricordiamone la definizione; il calore specifico è il rapporto fra l'incremento infinitesimo di calore e il corrispondente incremento di temperatura per grammo di materia, o per mole: C = dQ!dT. Nei solidi il calore specifico a volume costante differisce di poco da quello a pressione costante. Con lo sviluppo delle tecniche per raggiungere temperature prossime a o °K fu possibile constatare che la dipendenza dalla temperatura segue con buona approssimazio­ ne una legge generale, valida per ogni sostanza: in prossimità di o °K il calore specifico si annulla; al crescere di T inizialmente cresce co­ me 'P; nei metalli, a temperature molto basse, è evidenziabile anche un piccolo contributo proporzionale a T. Alle alte temperature il ca­ lore specifico atomico segue la legge di Dulong e Petit, ossia tende asintoticamente al valore 3 R ( -6 calorie per grado) . Il calore specifi­ co si approssima al valore asintotico a temperature relativamente bas­ se nel caso di solidi poco rigidi, come il potassio, mentre nel caso di solidi molto rigidi, come il diamante, ancora alla temperatura am­ biente ( -300 °K) il calore specifico è sensibilmente inferiore a 3 R. Nelle sostanze poliatomiche il calore specifico molare Cvm ha lo stesso comportamento, ma bisogna tener conto di un fattore moltipli­ cativo uguale al numero di atomi che formano la molecola; di conse­ guenza il limite alle alte temperature per NaCl è 6 R, e quello per il seleniuro di nickel (Ni Se2 ) è 9 R. La generalità è ancora maggiore; è possibile trovare empiricamente un parametro 8, caratteristico per ogni sostanza, tale che, se riportiamo in un diagramma C in funzione T/8, tutte le curve si sovrappongono (FIG. 3 . 19 ) . Il parametro 8 è 81

STATI E TRASFORMAZIONI DELLA MATERIA

FIGURA 3.19

Calori specifici in funzione di T/8 (in calorie/mole · °K) 6

5

3 2

O

0.�

O. Z

alluminio; O Debye. X

=

O. �

=

IU

rame; D

=

0. 5

0. 6

argento; +

0.1 =

0.8

0. 9

of . O

�- �

U

� . !>

�- 4

H

piombo; la curva continua dà il risultato dd modello di

noto come temperatura di Debye, dal nome del fisico olandese che nel 1912 fu in grado di interpretare il fenomeno, dimostrandone la connessione con le onde elastiche che si propagano in un solido (PAR. 4.2) . n calore specifico è legato a un altro fenomeno caratteristico dei solidi, l'espansione termica. È ben noto che, con pochissime eccezio­ ni, un solido si dilata quando viene riscaldato; le rotaie di una ferro­ via, i blocchi di un viadotto sono separati da un piccolo tratto vuoto perché è necessario lasciare spazio alla dilatazione nella stagione cal­ da. Il rapporto fra la variazione di temperatura e la variazione di vo­ lume che ne consegue (per volume unitario) definisce il coefficiente di espansione di volume; il coefficiente di espansione lineare: I l

a = - ·

d/ dT

-

è un terzo di quello di espansione di volume, e questi coefficienti,

3 · PROPRIETÀ MACROSCOPICHE

TABELLA 3·5 Coefficienti di espansione termica lineare a

Metallo

Mo Fe Cu

(alla temperatura ambiente)

5,2

1 1 ,7 17,0

Al Pb Na

24,6 28,8

71,0

x

x

x

x

x

x

I0- 6 l oc 10- 6 l oc I0- 6 l oc I0- 6 l oc 10- 6 l oc 10- 6 l oc

TABELLA 3 6 .

Coefficienti di espansione termica lineare di alcune sostanze Sostanza

Diamante Vetro Ghiaccio K Cl Teflon Gomma

a

(alla temperatura ambiente)

10- 6I°C I0- 61oc 51 x ro- 61°C roo x ro- 61°C 120 x 10- 6I°C 10o-5oo x ro- 61°C 1 2

x

__: 3 ·9

x

molto piccoli alle basse temperature, crescono allontanandosi dallo zero assoluto. Si è trovato empiricamente che, con buona approssi­ mazione, il coefficiente di espansione termica è direttamente propor­ zionale al calore specifico e inversamente proporzionale al modulo di compressibilità (relazione di Griineisen) . La TAB. 3-5 mostra i coefficienti di espansione lineare di alcuni metalli intorno alla temperatura ambiente; la TAB. 3 . 6 riguarda alcuni materiali non metallici. Nel caso di sostanze anisotrope a dipende dalla direzione; nel caso del quarzo, ad esempio, l'espansione nella direzione z è, diversa da quella in direzione perpendicolare a z. Per alcune applicazioni, in particolare alla strumentazione scientifica e al­ la metrologia, è opportuno disporre di materiali con bassa espansione termica; il diamante ha tale proprietà (TAB. 3 .6), ma è raro e ha pic­ cole dimensioni. Una risposta a questa esigenza giunse alla fine del secolo scorso. Nel 1897 Charles-Edouard Guillaume scopri che una lega ferro-nickel di composizione prossima a Fe6,Ni3, ha un'espansio­ ne termica molto piccola (un decimo di quella dell'acciaio) e presso-

STATI E TRASFORMAZIONI DELLA MATERIA

ché costante in un ampio intervallo di temperatura intorno alla tem­ peratura ambiente; nel 1920 per questa scoperta a Guillaume fu con­ ferito il premio Nobel per la fisica. La lega Fe65 Ni3 5 fu chiamata In­ var; in seguito furono create altre leghe con la stessa proprietà, ad esempio una lega Fe Ni Cr (Elinvar) , una lega Fe Ni Co (Super In­ var) e una lega Fe Co Cr (Inv'ar inossidabile) , che hanno molte im­ portanti applicazioni pratiche. Le leghe tipo Invar hanno anche inte­ ressanti proprietà magnetiche. Molti sforzi furono dedicati all'inter­ pretazione di questo fenomeno e almeno 20 modelli furono proposti, nessuno dei quali a tutt'oggi interamente soddisfacente. La dilatazione termica, come l'elasticità, è un fenomeno particola­ re inquadrato, come nel caso dei gas, nell'equazione di stato, ossia nella relazione che collega pressione, volume e temperatura. Nel caso di un solido cristallino il problema è complicato dal fatto che si può esercitare su di esso non solo una pressione idrostatica, ma anche una pressione in una direzione particolare rispetto agli assi del cri­ stallo. Limitandosi alla pressione idrostatica, anche per un solido l'e­ quazione di stato può essere rappresentata da curve isoterme in un diagramma P-V, o da isobare in un diagramma T- V ecc. La compressibilità dei solidi è relativamente piccola, di conse­ guenza per ampliare i dati sperimentali sull'equazione di stato si è reso necessario studiare il comportamento dei solidi alle alte e altissi­ me pressioni (un milione di atmosfere) . Alcuni solidi modificano pro­ fondamente le loro proprietà fisiche quando sono sottoposti a pres­ sioni molto elevate; lo iodio, ad esempio, che normalmente è un iso­ lante, diventa un metallo al di sopra di 20o.ooo atmosfere. Probabil­ mente anche l'idrogeno solido, che è isolante, diventa conduttore di elettricità alla pressione di 106 atmosfere. Le tecniche per ottenere alte pressioni e per studiare le proprietà fisiche di un materiale sotto­ posto ad alta pressione sono molto impegnative. Non è però possibile trovare un'equazione di stato semplice, come quella dei gas ideali, valida per un modello idealizzato di solido, dalla quale partire per introdurre correzioni in grado di descrivere i solidi reali. I fenomeni termici sopra descritti sono detti fenomeni di equili­ brio, ossia riguardano sistemi in equilibrio termodinamico, nei quali sono dunque assenti gradienti delle variabili di stato (ad esempio pressione e temperatura sono le stesse in tutti i punti) e i flussi (di energia, di materia, di carica elettrica) sono nulli. Il più noto dei fe­ nomeni di non-equilibrio è la conducibilità termica: in presenza di un

3 · PROPRIETÀ MACROSCOPICHE

gradiente di temperatura si ha un flusso di energia termica, ossia di calore, dalle zone più calde a quella più fredde (n principio della termodinamica) . Se consideriamo una lamina di spessore infinitesimo dx e di superficie A, con una differenza di temperatura dT fra le due superfici che la delimitano, la quantità di calore Q che passa attraver­ so la lamina nell'unità di tempo è proporzionale alla differenza di temperatura e alla superficie, e inversamente proporzionale allo spes­ sore. In altre parole il fenomeno è governato all'equazione Q

KA . dT dx

oppure dQ dt

KA

.

dT dx

il coefficiente di proporzionalità K è detto conducibilità termica, è caratteristico del materiale e dipende dalle variabili di stato P e T e da altri eventuali parametri fisici e chimici (purezza e perfezione del campione, campi elettrici e magnetici) . Il segno è dovuto al fatto che il flusso di calore avviene dalla zona più calda a quella più fred­ da; K è allora positivo; il flusso di calore si misura di solito in watt (joule al secondo) o in calorie al secondo; una caloria al secondo è uguale a 4,186 watt. L'inverso della conducibilità si chiama resistività. Nel caso di solidi anisotropi (a parte quelli a simmetria cubica) la relazione scalare [3.25] è insufficiente; il flusso di calore, rappresen­ tato da un vettore ]q, può aver luogo in direzioni diverse dal gradien­ te di temperatura; la conducibilità termica è allora un tensore (del second'ordine) , ossia è descritta da diversi parametri indipendenti che danno la relazione fra il flusso in una data direzione e i gradienti di temperatura rispetto ai tre assi cartesiani (oT/ox, oT/{jy, oT/oz) (cfr. Schede) . Le sostanze e i materiali con bassi valori di K si dicono isolanti termici; i metalli in generale sono buoni conduttori di calore e la loro conducibilità termica diminuisce con l'aggiunta di elementi estranei; le leghe sono meno conduttrici dei metalli puri; i sistemi disordinati (vetri) conducono meno dei sistemi ordinati (cristallini) . K varia di -

STATI E TRASFORMAZIONI DELLA MATERIA

TABELLA 3·7 Conducibilità termica di alcune sostanze e di alcuni materiali (alla temperatura ambiente) Sostanza

K (watt/cm

Ag Cu Al Ottone (70% Cu-30% Zn) Fe Acciaio Al203 Vetro Ghiaccio Polietilene Lana di vetro Sughero Aria

4,3 4,0 2,4 1,2 o,8 -o,5 0,2 -0,007-0,009 o,oo6 0,0034 -o,ooo4 -o,ooo4 0,00026

·

°K)

un fattore mille da un buon isolante a un buon conduttore; buoni materiali isolanti per impiego pratico si ottengono in strutture non omogenee che racchiudono piccole sacche d'aria, poiché i gas sono ottimi isolanti (TAB. 3 .7) ; il polistirolo espanso è un ottimo isolante; i doppi vetri sono discreti isolanti grazie all'intercapedine d'aria, nella quale però si hanno fenomeni di convezione che peggiorano le pre­ stazioni. Negli elementi e nelle sostanze cristalline pure la conducibilità termica aumenta al diminuire della temperatura, fino a raggiungere un massimo oltre il quale, raffreddando ulteriormente, diminuisce; il calo alle basse temperature è dovuto alla presenza di impurezze e imperfezioni, mai del tutto eliminabili, che ostacolano il flusso di energia termica attraverso il solido; a temperature ancora inferiori, in un cristallo puro, la diminuzione di K è dovuta alle dimensioni stesse del cristallo. La conducibilità termica dell'allumina (Al2 0 3 ) a 40 °K è molto più alta di quella dell'argento a temperatura ambiente: 6o con­ tro 4,2 watt per centimetro e per grado; in un certo intervallo di temperatura la conducibilità del metallo è inferiore a quella del non­ metallo. La variazione di conducibilità in cristalli di cloruro di potas­ sio puri e contenenti differenti concentrazioni di impurezze, per esempio sotto forma di ioni molecolari, è marcata; la diminuzione 86

3 · PROPRIETÀ MACROSCOPICHE

FIGURA 3 . 20 Conducibilità termica del quarzo cristallino (Si02) , lungo l'asse c (curva superio­ re) e del quarzo amorfo, o vetroso (curva inferiore) t'\

10

'>l



..._

:!
TATO

S U P ( R C O N DUTT O R E

/

I>IAI1A611

/� / l

l l l l l P�NEìR.O.Z.IONE.

l

l l l l l l l l

!>T,..,iO

NORMALE

1>1 P,-j

l l l

H

3-7-7· Ferroelettricità Un isolante posto in un campo elettrico statico si polarizza, ossia si formano al suo interno dipoli il cui momento elettrico per unità di volume definisce la polarizzazione P. Il rapporto fra il campo appli­ cato E e P normalmente (per campi non troppo elevati) è costante e si chiama suscettività dielettrica (X) ; nel caso di un sistema isotropo o ad alta simmetria x non dipende dalla direzione di E ; essa è collegata alla costante dielettrica E dell'isolante da una relazione semplice: X= E - I Nei cristalli le relazioni possono essere più complicate, perché biso­ gna tener conto della direzione in cui E è applicato; in altre parole X ed E sono tensori (del secondo ordine) anziché scalari. In ogni caso, in assenza di campo, la polarizzazione è nulla. In molti isolanti crìstallini E ha anche l'effetto di indurre una de­ formazione (elettrostrizione) ; inversamente, deformando elasticamen­ te il cristallo si induce una polarizzazione che è proporzionale alla forza applicata, quindi alla deformazione. I cristalli che hanno questa proprietà si chiamano piezoelettrici e hanno varie applicazioni, dagli

STATI E TRASFORMAZIONI DELLA MATERIA

oscillatori elettronici degli orologi, ai pick-up, ai microfoni, agli ac­ cendini per il gas domestico. Il quarzo (Si02 ) è il cristallo pieioelet­ trico più noto, ma anche molti polimeri sono piezoelettrici. Uno dei composti più efficaci è una lega di piombo, zirconio e titanio (PZT) ; sottoposto alla pressione che si può ottenere con una martellata si polarizza tanto da sviluppare una differenza di potenziale di 1 . 500 volt. La piezoelettricità fu scoperta dai Curie nel 188o. Esistono anche solidi nei quali, al di sotto di una temperatura T0 detta ancora una volta temperatura critica di Curie, la polarizzazione è diversa da zero anche in assenza di un campo esterno. Sono i cri­ stalli ferroelettrici. La ferroelettricità ha alcuni aspetti in comune col ferromagneti­ smo: a) per T < Te esistono i domini, ossia zone del cristallo caratterizza­ te da una polarizzazione spontanea omogenea; la zona di separazione fra domini adiacenti, che in molti casi hanno polarizzazioni parallele ma di verso opposto, è detta parete, e in genere ha uno spessore molto piccolo (alcuni À) ; b) la dipendenza della polarizzazione da E è descritta da un ciclo di isteresi, caratterizzato da una polarizzazione di saturazione, da una polarizzazione residua P, = P(E=o) e da un campo coercitivo Ee [P(E = -Ee) = o] ; l'aumento della polarizzazione macroscopica al crescere del campo elettrico è dovuto alla crescita dei domini orienta­ ti favorevolmente rispetto ad E , a spese degli altri, fino a che, per P = Pn il cristallo contiene un solo dominio; c) la ferroelettricità scompare bruscamente al di sopra di una tempe­ ratura Te rigorosamente definita; per T > Te il cristallo è paraelettri­ co, cioè ha una polarizzazione direttamente proporzionale a E e in­ versamente a T. La polarizzazione spontanea di un dominio è elevata e in molti ferroelettrici ha valori tali che in un isolante non ferroelettrico richie­ 8 derebbero campi di 107 - 10 volt/cm per essere raggiunti. L'esisten­ za dei domini ferroelettrici può essere messa in evidenza con luce polarizzata (come ad esempio quella che si ottiene con una lamina di polaroid) , perché attraversando un dominio cambia l'orientazione del piano di polarizzazione della luce. La ferroelettricità fu scoperta nel 1920 in un composto comples­ so, il sale di Rochelle; esso ha, oltre alla normale temperatura di Cu­ rie a 24 °C, anche una temperatura di Curie inferiore ( - 18 °C) al di 118

3 · PROPRIETÀ MACROSCOPICHE

sotto della quale il sale torna ad essere paraelettrico. Oggi si conosco­ no alcune centinaia di materiali ferroelettrici. Un ferroelettrico molto noto è il titanato di bario (BaTi0 3 ) , la cui temperatura di Curie è 120 °C; la sua polarizzazione spontanea, misurata dalla carica elettri­ ca per unità di superficie, è alta (26 micro coulomb per cm 2 ) . A T = Te cambia anche la struttura del cristallo; al di sotto di Te la struttura stabile ha una simmetria inferiore (tetragonale anziché cubica) . I cristalli ferroelettrici sono an �he piezoelettrici. L'alto valore del­ la loro costante dielettrica li rende adatti per impieghi nei capacitori, per condensatori ad alta capacità, e nei trasduttori, per convertire un segnale meccanico in un segnale elettrico, e viceversa. Molti ferroelettrici sono anche piroelettrici, cioè si elettrizzano per riscaldamento o per raffreddamento; l'effetto è una conseguenza se­ condaria della ferroelettricità, perché è dovuto alla variazione della polarizzazione dei domini al variare della temperatura e al desorbi­ mento degli ioni che neutralizzano le cariche di superficie del cam­ pione, per effetto del riscaldamento. La piroelettricità è stata osserva­ ta già nel XVII secolo in cristalli naturali di tormalina. J .8 I solidi amorfi

Per la maggior parte dei materiali la transizione dallo stato liquido allo stato solido (e viceversa) ha luogo a una temperatura ben defini­ ta, la temperatura di fusione Tm (m da melting che vuol dire appunto fusione) . Il solido che così si forma ha struttura cristallina, cioè è caratterizzato da una distribuzione regolare di atomi nello spazio, il reticolo di Bravais, di cui si è fatto cenno al PAR. 3.6. Alla temperatu­ ra di fusione si ha una discontinuità di tutte le proprietà fisiche del sistema. Il volume, ad esempio (tranne che in pochi casi) , mostra una brusca diminuzione passando dal liquido al solido. Sono noti tuttavia dalla preistoria materiali, i vetri, nei quali la transizione non è discon­ tinua, ma graduale (FIG. 3·33), e si allontana tanto più dalla transizio­ ne liquido - solido cristallino quanto più rapido è il processo di raf­ freddamento. Nella transizione non si ha sviluppo di calore latente. Il solido che ne risulta è caratterizzato da una distribuzione irregolare di atomi nello spazio, dunque si perde la periodicità caratteristica dei reticoli cristallini e le proprietà fisiche sono isotrope, come nei liqui­ di. La mobilità degli atomi è però minore e la rigidità molto maggio-

STATI E TRASFORMAZIONI DELLA MATERIA FIGURA 3 · 3 3

Volume specifico (inverso della densità) in funzione della temperatura, nell'intor­ no della temperatura di solidificazione del liquido

o \.)

...

;::;

l.l.l 0.. "'

w r :>

-'o

>

VETRO

b

---( l l

l

l

l

C R I !>TA LLO

T�

T""

T E M PE RATU RA

a: transizione cristallina; b: transizione vetrosa.

re; la viscosità aumenta gradualmente durante il raffreddamento. Un solido con queste caratteristiche si dice amor/o (senza forma) o anche vetro; il termine ha dunque un significato più ampio di quello riser­ vatogli nel linguaggio comune. Un vetro può essere considerato un liquido la cui viscosità è estrema­ mente elevata. Lo stato amorfo (o vetroso) non è uno stato di equili­ brio, ma è metastabile; tende dunque a riportarsi allo stato di equili­ brio, che è cristallino, in un tempo i più o meno lungo; i è tanto più lungo quanto più bassa è la temperatura. Alla temperatura ambiente, per i vetri comunemente noti i è praticamente infinito, e infatti gli antichi oggetti di vetro mantengono ancor oggi la loro struttura amorfa. Se la temperatura è sufficientemente alta si ha il graduale passaggio allo stato cristallino di equilibrio, cioè la devetrificazione (processo di rinvenimento) ; il vetro, se originariamente è trasparente, 120

3 · PROPRIETÀ MACROSCOPICHE

acquista allora un aspetto traslucido dovuto alla diffusione della luce sulle superfici dei piccoli cristalli che si formano al suo interno. L'ossido di silicio ( Si0 2 ) è una sostanza che presenta la transizione vetrosa. Il suo puntq di fusione è di circa 1.700 ac. Se viene raffred­ dato molto lentamente si ha la normale discontinuità per T = Tm e il cristallo che si forma si chiama cristobalite. Se il raffreddamento è più rapido si forma un solido amorfo, detto quarzo fuso. Se all'ossido di silicio si aggiungono altri ossidi metallici, si abbassa notevolmente il punto di fusione e il solido amorfo che ne risulta è uno dei molti tipi di vetro comunemente usato. Ad esempio una miscela di Si0 2 (75 % ) e Na2 0 (25 % ) ha Tm = 8oo 0C. Dal punto di vista pratico un secondo vantaggio del vetro comune sul quarzo fuso è l'abbassamen­ to della viscosità, che rende più facile lavorare gli oggetti nella forma voluta. Le lastre di vetro ordinarie (finestre ecc.) contengono circa il 15 % di ossido di sodio, ed altre aggiunte (CaO) ; il vetro pyrex, più resistente agli attacchi chimici, e con un basso coefficiente di dilata­ zione termica, contiene aggiunte di B 2 0 3 ; vetri per strumenti ottici (lenti, prismi), con valori appropriati dell'indice di rifrazione, conten­ gono aggiunte di altri ossidi metallici (Pb, Ba, K, Zn) . Esistono molte migliaia di tipi di vetro. Anche molti polimeri solidificano in strutture amorfe, seguendo una curva del tipo di quella caratteristica dei vetri (FIG. 3 · 3 3 ) . Uno sviluppo relativamente recente è nel campo delle fibre d i tra­ sparenza elevata per radiazioni di lunghezza d'onda opportuna: le fi­ bre ottiche, impiegate come guide d'onda per trasmettere informazio­ ni (segnali) anche su lunghe distanze. Il sistema di trasmissione di segnali ottici presenta numerosi vantaggi rispetto a quello convenzio­ nale di trasmissione di segnali elettrici lungo cavi conduttori. Uno dei problemi da risolvere è quello della trasparenza. Un buon vetro da finestra ci appare trasparente; se però sovrap­ poniamo molte lastre, anche trascurando le perdite per riflessione, ci rendiamo conto che la luce, attraversando uno spessore di qualche decimetro, viene fortemente attenuata; in altre parole, anche per un vetro ritenuto comunemente trasparente il coefficiente di assorbimen­ to f.l ha un valore piccolo ma non trascurabile (cfr. [3.22] ) . L'assorbi­ mento residuo è dovuto a piccole quantità di impurezze; la riduzione a livelli molto bassi delle impurezze ha consentito di realizzare fibre di quarzo fuso o di altro materiale, tipicamente con diametro di una decina di micron, nelle quali l'attenuazione dell'intensità della radia121

STATI E TRASFORMAZIONI DELLA MATERIA

zione di lunghezza d'onda intorno al micron è dell'ordine del 50 per cento su percorsi di oltre una decina di chilometri. Fibre di questo genere realizzate recentemente sono impiegate nelle trasmissioni. Anche certi semiconduttori possono essere ottenuti nello stato amorfo. Il caso più interessante è quello del silicio, con il quale si realizzano strati sottili utilizzati, ad esempio, nelle celle solari deÌ cal­ colatori tascabili; un vantaggio del silicio amorfo sta nel basso costo di produzione, rispetto ai film cristallini, così che si prospetta un im­ piego più ampio nelle celle solari di grandi dimensioni. Fino al r96o si credeva che i metalli solidificassero necessaria­ mente in forma cristallina o policristallina. Con lo sviluppo di tecno­ logie di raffreddamento rapido, dell'ordine di un milione di gradi al secondo, il metallurgista Poi Duwez fu in grado per primo di evitare . la nucleazione di microcristalli, ottenendo così strati sottili amorfi di leghe metalliche (vetri metallici) . La tecnica del raffreddamento rapi­ do si è in seguito perfezionata ed è stata estesa a molte leghe metalli­ che. Oggi è possibile ottenere nastri sottili di vetri metallici alla velo­ cità di due chilometri al minuto schizzando il · metallo fuso su un ci­ lindro metallico freddo in rapida rotazione. Leghe amorfe tipiche si ottengono da miscele di un metallo di transizione o di un metallo nobile con un metalloide leggero (AuSi, PdSi, FeB) o da miscele di due metalli di transizione con altre impurezze (FeNiB, NiNb), o da miscele più complicate (FePBAI, PdAuSi) . Alcune di esse hanno pro­ prietà interessanti: resistenza meccanica, resistenza alla corrosione, e proprietà magnetiche, che consentono di ridurre le perdite per istere­ si o vantaggiosi impieghi nelle memorie magnetiche. Nel r984 si scoprì che alcune leghe metalliche, ottenute per raf­ freddamento rapido dal fuso, possono solidificare in uno stato meta­ stabile intermedio fra lo stato cristallino e quello amorfo; lo stato che si realizza è detto quasicristallo ed è caratterizzato da legami atomici a simmetria pentagonale ma da assenza dell'ordine a lungo raggio tipi­ co dei reticoli di Bravais. La comprensione delle proprietà della materia negli stati disordi­ nati o parzialmente disordinati presenta difficoltà molto superiori ri­ spetto alla comprensione delle proprietà dello stato cristallino. Men­ tre le basi per la comprensione delle proprietà dei cristalli sono state gettate a cavallo degli anni Trenta, lo studio dello stato amorfo, come quello dello stato liquido, ha trovato convincenti basi teoriche solo in anni più recenti e molte difficoltà sono ancora da superare. I22

3 · PROPRIETÀ MACROSCOPICHE

3 ·9 I cristalli liquidi

Solidi e liquidi non esauriscono le possibilità degli stati (fasi) di equi­ librio della materia condensata. Altre fasi possono presentarsi, nel ca­ so in cui si abbia a che fare con molecole organiche di forma allun­ gata, nelle quali l'ordine spaziale e orientazionale delle molecole co­ stituenti il sistema è intermedio fra quello dei cristalli (reticoli di Bra­ vais, quindi simmetria traslazionale in ogni direzione) e quello dei li­ quidi isotropi (assenza di ordine a lungo raggio) . Stati di questo tipo si chiamano mesofasi, o cristalli liquidi; l'apparente contraddizione fra i due ultimi termini esprime il fatto che nello stato di cristallo liquido un sistema ha bassa rigidità, quindi come un liquido assume la forma del recipiente, mentre mantiene un qualche tipo di ordine a lungo raggio su scala microscopica, ordine che si riflette su molte proprietà macroscopiche. I display degli orologi da polso e dei calcolatori tascabili sono fatti con cristalli liquidi, come pure i termometri che segnalano la variazione della temperatura della superficie corporea cambiando di colore. Ma anche i colori brillanti di alcuni coleotteri sono dovuti a cristalli liquidi. Le mesofasi sono abbastanza comuni in natura; la membrana cellulare, ad esempio, consiste in un doppio strato di mo­ lecole lipidiche ordinate in una struttura liquido-cristallina e il trenta per cento del nostro cervello (esclusa la componente acquosa) si tro­ va in una mesofase. Alcune malattie sono correlate a cambiamenti nella fase di cristallo liquido; ciò accade ad esempio nell' arterioscle­ rosi e nell'anemia falciforme. L'esistenza di fasi liquido-cristalline fu scoperta da Friedrich Rei­ nitzer già nel 1888; studiando il benzoato di colesterile, una molecola organica la cui lunghezza è circa 8 volte maggiore della larghezza, egli osservò che, quando a T = 145 °C la fase solida fonde, si ottiene un liquido blu e torbido; colore e torbidità scompaiono bruscamente a 179 °C, per dar luogo a un liquido trasparente. Reinitzer osservò anche che il fenomeno è reversibile. Più tardi Otto Lehmann, stu­ diando il sistema con luce polarizzata, giunse alla conclusione che la torbidità della fase intermedia è connessa con l'ordine nella orienta­ zione spaziale delle molecole elongate e coniò il nome di cristallo li­ quido per questa fase. La luce polarizzata è utile nello studio delle mesofasi perché le molecole orientate provocano la rotazione del pia-

123

STATI E TRASFORMAZIONI DELLA MATERIA

no di polarizzazione, così come awiene nei cristalli birifrangenti (spa­ to d'Islanda) . Non deve stupire che il grado d'ordine di un sistema di molecole lunghe non sia descritto solo dai due casi estremi del cristallo e del liquido isotropo. Oltre alla posizione del baricentro delle molecole infatti deve essere considerata anche la loro orientazione relativa; il cristallo corrisponde al caso in cui i' baricentri costituiscono i punti di un reticolo cristallino e le orientazioni sono tutte parallele; ma si pos­ sono avere anche casi in cui le orientazioni sono meno ordinate, o casi in cui c'è un ordine nelle orientazioni ma un disordine nella po­ sizione spaziale di baricentri. Ritroviamo queste diverse possibili strutture parzialmente ordinate nelle mesofasi. Le tre fasi più comuni di un cristallo liquido sono la nematica, la smectica e la colesterica. Nella prima l'orientazione delle molecole elongate è la stessa (approssimativamente, perché esistono oscillazioni termiche) , mentre le posizioni dei baricentri sono casuali come in un liquido normale; un'analogia suggestiva colla fase nematica è rappre­ sentata da uno sciame di pesci che nuotano tutti in una stessa dire­ zione. La viscosità in questa fase è simile a quella del liquido ordina­ do, mentre le proprietà ottiche, elettriche o magnetiche mostrano anisotropia. I nematici sono in genere impiegati nei display, in forma di strati sottili (-2 micron) fra due lamine parallele di vetro; l'applicazione di un debole campo e�ettrico modifica la direzione di allineamento delle molecole, modificando l'interazione con la luce incidente, se questa è preventivamente polarizzata; si ottengono così le tipiche variazioni chiaro-scuro usate per scrivere su uno schermo cifre e lettere. Il van­ taggio dei cristalli liquidi, rispetto ad esempio ai display basati sull'e­ lettroluminescenza, sta nella bassa potenza necessaria per modificare il segnale; grazie a ciò, ad esempio, le pile di un orologio da polso funzionano a lungo prima di esaurirsi. Nella fase smectica le molecole sono raccolte a strati che formano piani paralleli equispaziati; all'interno di ogni piano l'orientazione delle molecole è perpendicolare al piano stesso, mentre la posizione di baricentri è più o meno disordinata. Una immagine della fase smectica è data da bottiglie disposte su una serie di scaffali equidi­ stanti. Esistono però vari tipi di fase smectica. La fase colesterica può essere immaginata pensando a bottiglie sdraiate orizzontalmente sugli scaffali, in modo che su ogni piano l'o­ rientazione sia la stessa, ma ruoti gradualmente passando da un piano

3 · PROPRIETÀ MACROSCOPICHE

a quello adiacente. I colesterici presentano vistose variazioni di colore al cambiare della temperatura e della pressione, a causa degli effetti di interferenza con la radiazione visibile; questo effetto, che consentì a Reinitzer di scoprire le mesofasi, oggi viene sfruttato per misure approssimate di variazioni della temperatura corporea e per screening di tumori non profondi. Una delle applicazioni più interessanti dei cristalli liquidi è la rea­ lizzazione di schermi televisivi; si possono costruire schermi piatti, funzionanti con potenze molto basse, non essendo più necessario il tubo a raggi catodici, costituente indispensabile dei normali cinesco­ pi. La difficoltà sta nel fatto che, mentre l'immagine televisiva deve cambiare rapidamente, i tempi necessari per il riarrangiamento dell'o­ rientazione molecolare in una mesofase sono relativamente lunghi. Una strada promettente sembra sia offerta dall'impiego dei cristalli liquidi con proprietà ferroelettriche, scoperti negli anni Ottanta. J . IO Il plasma

Un gas a temperature non troppo elevate e in condizioni di equilibrio è costituito di atomi o di molecole elettricamente neutri, perché il numero degli elettroni di ogni atomo o molecola è tale che la carica elettrica negativa complessiva uguaglia la carica positiva dei nuclei atomici. Atomi e molecole però, sotto l'azione di vari agenti fisici (al­ ta temperatura, urto con particelle veloci, radiazione elettromagneti­ ca) , possono perdere uno o più elettroni, trasformandosi in ioni posi­ tivi. Un plasma è sostanzialmente un gas ionizzato, ossia una miscela di ioni e di elettroni, e di atomi neutri. La ionizzazione può essere parziale o completa. Molte delle proprietà fisiche di un plasma sono diverse da quelle di un gas non ionizzato, di un liquido e di un solido, e per questo il plasma è stato chiamato il quarto stato della materia. Per lungo tem­ po le scarse conoscenze sui plasmi si limitarono agli studi della scari­ ca elettrica nei gas, dove il plasma si forma per urto del fascio di elettroni accelerato con le molecole del gas a bassa densità. In segui­ to lo studio delle trasmissioni a radioonde rivelò che nell'alta atmo­ sfera, (60-500 km) il gas residuo è in uno stato di plasma (ionosfera) , le cui caratteristiche sono influenzate dall'attività solare. L'importanza della ionosfera per le comunicazioni radio è ben 125

STATI E TRASFORMAZIONI DELLA MATERIA

nota: la maggior parte della ionosfera agisce come specchio riflettente (a questo fatto si deve il successo allora inspiegabile delle esperienze di Marconi di trasmissione sulle lunghe distanze), mentre gli strati inferiori sono parzialmente assorbenti. In caso di grande attività sola­ re questi strati si rafforzano temporaneamente, causando l'affievoli­ mento (fading) dei segnali. Oggi si sa che il plasma è lo stato della materia più diffuso nel cosmo; non solo la calda materia stellare è in massima parte un plasma denso, ma anche il freddo spazio interstel­ lare contiene un tenuissimo plasma, le code delle comete sono plasmi e le nebulose sono parzialmente in uno stato di plasma. In astrofisica si entra nel regno in cui i tre stati convenzionali della materia sono l'eccezione e lo stato di plasma è la regola. Lo studio dei plasmi ha assunto grande importanza negli ultimi decenni, in relazione ai progetti per realizzare la fusione nucleare controllata. È noto infatti che per realizzare la fusione di due nuclei leggeri è necessario che i nuclei siano molto prossimi; ciò si può otte­ nere se la temperatura del sistema è elevata, dell'ordine delle decine di milioni di gradi, perché bisogna vincere la repulsione coulombia­ na. A queste temperature la materia si trova nello stato di plasma, perché l'agitazione termica provoca la ionizzazione degli atomi, strap­ pando ad essi l'elettrone meno legato. La FIG. 3 · 34 mostra come cresce la percentuale degli atomi ioniz­ zati all'aumentare della temperatura. Sull'asse delle ascisse è riportata la temperatura assoluta, su quello delle ordinate la percentuale degli atomi ionizzati. La curva alla sinistra riguarda un gas di atomi di ce­ sio; un buon grado di ionizzazione si ha già a qualche migliaio di gradi, perché l'elettrone è debolmente legato all'atomo e non è neces­ saria una grande agitazione termica per provocarne il distacco; nell'i­ drogeno (curva alla destra) l'unìco elettrone è fortemente legato, dun­ que è necessario riscaldare il gas a temperature più elevate per otte­ nere il plasma; a IO.ooo gradi meno del 10% degli atomi di idrogeno si ionizza. Dunque la transizione dal gas al plasma è graduale e conti­ nua, non esiste una temperatura critica, diversamente da quanto ac­ cade per le vere e proprie transizioni di fase (CAP. 5 ) . Per ottenere la fusione nucleare sono necessarie temperature ben superiori, qualche decina di milioni di gradi (interno delle stelle come il sole) , o molte decine di milioni (negli impianti per studiare la fusione termonuclea­ re) . Naturalmente non è possibile contenere in un recipiente un pla­ sma così caldo; un buon materiale refrattario può resistere a 3.ooo4·ooo °K, ma per le temperature dei plasmi per fusione termonuclea126

3 · PROPRIETÀ MACROSCOPICHE

FIGURA 3 · 34

Percentuale degli atomi ionizzati in funzione della temperatura, per un gas di cesio e di idrogeno �00 "' W Z ..J

2�

.... ,.. < z .... ..,

�v

z ac: o UI - A.

50

o

10000

�5000

20000

TEMPERATURA

(• c. )

re s i devono impiegare altri metodi di contenimento, che tengano il plasma lontano dalle pareti, metodi che in questa sede non è possibi­ le esaminare. In un plasma ottenuto per mezzo di una scarica elettrica in un gas non si può definire una sola temperatura, ma dobbiamo distin­ guere fra una temperatura Te degli elettroni, una temperatura T; degli ioni e una T0 degli atomi neutri. In genere Te è molto maggiore di T; e di T0 , perché la sorgente esterna che genera e mantiene la scarica trasmette energia direttamente agli elettroni del plasma; gli elettroni a loro volta urtano gli ioni, ma, essendo molto più leggeri, in ogni urto trasmettono agli ioni solo una frazione piccola della loro energia. In un normale tubo a scarica per insegne luminose o per lampade fluo­ rescenti Te è dell'ordine delle decine di migliaia di gradi, mentre T; e T0 sono inferiori di oltre un ordine di grandezza. Queste differenze non contraddicono lo zeresimo principio della termodinamica, peréhé in una scarica il sistema non si trova in uno stato di equilibrio termi­ co. Un plasma è un buon conduttore di elettricità. L'interazione di 127

STATI E TRASFORMAZIONI DELLA MATERIA

un plasma con i campi elettrici e magnetici, statici o variabili nel tempo, è interpretabile in linea di principio nel quadro delle leggi dell'elettromagnetismo, ma in pratica la trattazione è piuttosto com­ plessa. Nei plasmi si possono generare e propagare diversi tipi di molti oscillatori.

128

4

La struttura microscopica della materia

4· 1

Introduzione Le principali proprietà macroscopiche della materia nei suoi tre stati di aggregazione, esaminate finora, ci forniscono un quadro molto ricco ed eterogeneo. Il livello fenomenologico della descrizione ci ha per­ messo al massimo di raggruppare i sistemi fisici e le loro proprietà individuando lè caratteristiche principali o più evidenti, come la densi­ tà, la simmetria, le proprietà meccaniche, elettriche, ottiche ecc. Tal­ volta gli stessi confini di questa categorizzazione di farga massima sono risultati non rigorosamente definiti e, inoltre, le relazioni quantitative fra le variabili misurabili (le leggi fisiche fenomenologiche) sono state presentate come leggi empiriche la cui validità è limitata a un gruppo di sistemi, in condizioni fisiche ben definite: legge di Hooke, di Ohm, di Lambert, di Dulong e Petit ecc.; infine, nell'ambito di una determi­ nata legge, i parametri che compaiono ( coefficenti di elasticità, di as­ sorbimento ottico, conducibilità ecc.) dipendono dalla sostanza in esa­ me, senza che se ne possa dare una giustificazione (perché la conduci­ bilità in certi casi è piccola, in altri grande? ecc . ) . Questo primo livello d i descrizione macroscopica, che prescinde cioè dalla conoscenza della struttura della materia a scala atomica, ancorché insoddisfacente sia dal lato concettuale che da quello pratico, è però indispensabile per poter passare al secondo livello, al quale i sistemi fisici non sono più descritti semplicemente come oggetti conti­ nui che occupano un certo volume nello spazio, ma si tiene conto delle particelle che li costituiscono e delle loro proprietà e interazioni fonda­ mentali: è indispensabile cioè passare alla descrizione microscopica. Già tre secoli fa Isaac Newton adombrava la necessità di spiegare la coesione dei solidi sulla base delle proprietà dei costituenti ele-

129

STATI E TRASFORMAZIONI DELLA MATERIA

mentari. Così infatti egli scrisse nel suo trattato Opticks: «Le parti dei corpi omogeneamente duri, in contatto fra di loro, sono legate molto fortemente. L'esperienza di una forte coesione suggerisce che le par­ ticelle costituenti i solidi si attraggano reciprocamente con una forza che è molto intensa quando le particelle sono in contatto immediato [ . . ] . Ci sono quindi in natura agenti capaci di legare insieme le parti­ celle dei corpi per mezzo di attrazioni molto intense. È compito della Filosofia sperimentale trovare tali forze». E nel 1776 Immanuel Kant (1724-I8o4) aggiungeva: «Esistono due forze fondamentali, solo due forze fondamentali, che rendono conto di tutte le proprietà della materia: una forza attrattiva e una forza repulsiva». È dunque necessario, per realizzare l'architettura in grado di in­ terpretare le proprietà della materia, disporre dei mattoni (i costi­ tuenti elementari) e conoscere come si legano gli uni agli altri, come interagiscono (leggi fondamentali) . La fisica e la chimica nei secoli passati, ma soprattutto la fisica nei primi decenni di questo secolo, ci hanno fornito ambedue gli ingredienti, così che le strutture che gli scienziati sono venuti costruendo presentano un aspetto soddisfacen­ te; agli occhi di un fisico di oggi la ricchezza delle proprietà della materia nei suoi stati di aggregazione non si presenta più come un quadro eterogeneo, casuale e disordinato, ma la molteplicità dei feno­ meni empirici è vista come la manifestazione di un numero limitato di fatti fondamentali. Scopo di questo capitolo è mostrare il processo di riduzione dell'eterogeneità all'unità, ossia di spiegare le proprietà della materia nei suoi stati di aggregazione, dunque della materia sta­ bile, quella che è oggetto normalmente dei nostri sensi; esula quindi dal nostro obiettivo il campo della fisica che si occupa di particelle elementari e anche quello che si occupa di nuclei atomici, che pure in parte sono stabili. Preliminare a questo tentativo sarebbe la cono­ scenza delle leggi fondamentali della fisica, o almeno di alcune di es­ se, ma di necessità, dati i limiti di questa esposizione, di queste leggi, come delle proprietà dei costituenti fondamentali, si può dare qui so­ lo un cenno schematico, qualitativo e incompleto. .

4.L I . I mattoni Sembra sia stato Democrito, il filosofo di Abdera (�460-�370 a.C . ) , il primo pensatore che mise i n discussione il punto d i vista macrosco­ pico: i corpi sono continui solo in apparenza, ma in realtà sono far-

4· LA STRUTTURA MICROSCOPICA DELLA MATERIA

mati da particelle diverse da un corpo all'altro per la forma e tanto piccole da non poter essere osservate. Come spiegare altrimenti il fat­ to che l'acqua riscaldata si dissolve in un vapore invisibile, o che sen­ tiamo l'odore dei fiori a distanza? Questi mattoni elementari di cui tutta la materia deve essere costituita furono chiamati atomi, che si­ gnifica indivisibili. La coraggiosa ipotesi di Democrito (ma qualche merito pare spetti anche al suo maestro Leucippo), ripresa qualche secolo dopo in forma poetico-didascalica da Tito Lucrezio Caro, fu quasi dimenticata per due millenni, sepolta sotto il peso dell'autorità di Aristotele. Alla metà del secolo xvn l'abate francese Pierre Gassendi ( I592I655) riprese le teorie degli antichi atomisti e spiegò che, come con mattoni, assi e travi si possono costruire molti tipi di edifici, così con pochi tipi di atomi si può formare un gran numero di corpi diversi; Gassendi introdusse anche il concetto di molecola, l'unità formata da alcuni atomi legati fra loro. Solo nel secolo scorso gradualmente il concetto di atomo trovò le sue basi sperimentali, ma ancora cent'anni fa alcuni scienziati ritenevano che l'ipotesi atomica mancasse di basi solide; fra questi Ernst Mach (I838-I9I6) , al quale pure dobbiamo importanti contributi sui fondamenti della meccanica e della relatività. In prima approssimazione si può dire che gli atomi degli elementi chimici (cfr. nota I al PAR. LI) sono i mattoni fondamentali della materia. Gli atomi hanno dimensioni dell'ordine dell'angstrom e mas­ se che vanno da I,67 · IO - 24 g per il più leggero, l'idrogeno, a 395 · I O - 24 g per l'uranio, il più pesante degli elementi naturali (l'unità di peso atomico è I,66 · I0- 24 g) ; dunque un grammo di materia è co­ stituito da un numero di atomi dell'ordine del numero di Avogadro (No = 6,02 · I0 2 3 ) se si tratta di idrogeno, o di qualche ordine di grandezza inferiore, passando a elementi più pesanti. A rigore si può parlare di atomi solo quando si ha a che fare con gli atomi isolati, che allora hanno simmetria sferica. Nella maggior parte dei casi gli atomi interagiscono formando molecole, con atomi uguali (H2 , OJ o diversi (H 20), o formando gli stati aggregati della materia, e in questi casi essi perdono in parte la loro individualità. Per capirne qualcosa è necessario conoscere la struttura interna del­ l' atomo, che non è affatto indivisibile, cioè individuarne i costituenti elementari e le leggi secondo le quali interagiscono. Ernest Rutherford (I87I-I937) scoprì, nel I9II, che l'atomo è co­ stituito da un nucleo centrale piccolo (w- r 3 - w- 12 cm) e da elettroni distribuiti nello spazio atomico, intorno al nucleo. L'elettrone, sco-

STATI E TRASFORMAZIONI DELLA MATERIA

perto alla fine del secolo scorso da ]. ]. Thomson (1856-1940) , è una particella di massa 1 . 8oo volte inferiore a quella dell'atomo di idroge­ no e di carica elettrica (per convenzione negativa) uguale a 1,6 10 - r 9 coulomb . L'elettrone è inoltre caratterizzato da un momento meccanico, detto spin (come se fosse una minuscola trottola) , e da un momento magnetico 11 (come se fosse una piccola calamita) ; il valore dello spin è Il2(hhn), dove h è la costante di Planck (PAR. 4 . 1 . 2 ) , e si dice comunemente che l'elettrone ha spin 1/2 . Lo stesso simbolo e si usa per indicare sia la particella che la sua carica (e- ) , che è detta unità di carica elementare. I nuclei degli atomi sono particelle composite, ma per quanto ci interessa ora possiamo trascurare la loro struttura interna e conside­ rarli come palline, eventualmente un po' allungate. Le dimensioni li­ neari di queste palline sono circa centomila volte inferiori a quelle dell'atomo; la massa del nucleo è appena inferiore a quella dell'ato­ mo, poiché la massa dell'elettrone è molto piccola; nuclei di uno stes­ so elemento possono avere masse differenti (isotopi) . La carica del nucleo è il vero parametro che caratterizza gli elementi; essa ha segno opposto a quello della carica dell'elettrone e varia secondo multipli interi della carica elementare e: il nucleo dell'idrogeno (protone) ha carica + e, quello dell'elio + ze, quello del litio + 3e . . . quello del carbonio +6e . . . quello del ferro + 26 e . . . fino a quello dell'uranio + 9ze; l'elemento che occupa la Z-esima posizione nel sistema perio­ dico degli elementi (Tavola di Mendeleev) ha carica nucleare +Ze. Z è detto il numero atomico, e ha un valore intero caratteristico per ogni elemento chimico; il numero atomico dell'idrogeno è uno, quel­ lo del ferro è 26 ecc. Anche il nucleo atomico può avere uno spin e un momento ma­ gnetico, ma questi parametri sono relativamente ininfluenti. Un atomo è neutro elettricamente perché la carica nucleare +Ze è esattamente compensata da quella degli elettroni; l'atomo di un ele­ mento di numero atomico Z contiene dunque Z elettroni. La forza che determina la struttura e le proprietà fisiche e chimiche degli ato­ mi è la forza elettrostatica, o di Coulomb; essa è attrattiva fra il nu­ cleo e ciascun elettrone, e dipende direttamente dal prodotto delle cariche e inversamente dal quadrato della distanza r elettrone-nucleo :

F (attrattiva)

Ze · ( - e) r

+

Ze 2 r

4· LA STRUTTURA M ICROSCOPICA DELLA MATERIA

è invece repulsiva fra le varie coppie di elettroni che formano l' ato­ mo: e>

Fii (repulsiva) = - r

ZJ

dove rif è la distanza fra due elettroni caratterizzati dagli indici i e j, che indicano due qualsiasi degli Z elettroni dell'atomo; il numero del­ le coppie è Z(Z- r)h. Le forze sono dirette secondo le linee che con­ giungono le coppie di particelle e si sommano vettorialmente. Le for­ ze di attrazione gravitazionali, così importanti nell'universo, all'inter­ no della materia sono debolissime, perché piccola è la massa delle particelle, quindi trascurabili. Quando due o più atomi si legano chimicamente a formare una molecola o un solido, alcuni degli elettroni - i meno legati, ossia i più lontani dal nucleo chiamati elettroni di valenza - interagiscono anche con gli altri nuclei, così che non appartengono più solo all'atomo origi­ nario; allora l'individualità dell'atomo si perde, almeno in una certa misura. Da una parte si ha il cosiddetto nocciolo ionico ossia il nucleo, circondato dagli elettroni più interni, che mantengono pressoché immu­ tate le caratteristiche atomiche; dall'altra gli elettroni esterni responsa­ bili di buona parte delle proprietà fisiche della materia. Abbiamo così individuato, negli elettroni e nei nuclei - oppure negli elettroni di valenza e nei noccioli ionici - i mattoni del nostro edificio. Le forze elettriche che si esercitano fra questi mattoni sono i responsabili ultimi delle proprietà della materia, dalle interazioni at­ trattive e repulsive fra gli atomi e le molecole, alla coesione dei solidi e dei liquidi, all'attrito, alle proprietà elastiche, ottiche, magnetiche, di trasporto, e così via. Nel caso dei gas il problema si semplifica. Se la densità non è molto elevata, la distanza media fra le coppie di atomi (o di moleco­ le) è molto superiore alle dimensioni di un atomo (o di una moleco­ la) ; in queste condizioni non è più necessario considerare l'interazio­ ne di ogni elettrone e di ogni nucleo con tutti gli altri nuclei e tutti gli altri elettroni del sistema; in altre parole, come si è detto in prece­ denza, atomi e molecole mantengono la loro individualità, modifican­ dola solo un poco quando, per effetto dell'agitazione termica, si ap­ prossimano gli uni agli altri. Per questa ragione la trattazione teorica delle proprietà dei gas è diversa da quella della materia densa. Anche per studiare le proprietà di alcuni solidi e liquidi (quelli 133

STATI E TRASFORMAZIONI DELLA MATERIA

fatti di atomi di gas nobili - Ne, Ar ecc. - e i cristalli ionici) spesso si usa la descrizione approssimata in cui atomi o ioni mantengono la loro individualità. Lo stesso approccio atomistico viene impiegato per descrivere alcuni fenomeni come la diffusione, la conducibilità ionica nei solidi e nei liquidi e le imperfezioni nei cristalli, al fine di evitare le insuperabili complicazioni insite nella trattazione globale. Non de­ ve dunque stupire se si usa spesso il concetto di atomo per descrivere le proprietà degli stati aggregati della materia: è un concetto impreci­ so, ma utile, o addirittura indispensabile; per proseguire l'analogia dei mattoni e dell'edificio, si può dire che l'edificio può essere co­ struito anche collegando elementi prefabbricati (gli atomi) , ciascuno dei quali è a sua volta composto da più parti (elettroni e nuclei) . 4. 1 . 2 . Le leggi Qui il discorso si fa più difficile, perché non sempre è agevole ricor­ rere a modelli intuitivi, né d'altra parte possiamo qui esprimere le leggi fondamentali nella loro formulazione matematica, l'unica corret­ ta, rigorosa ed esauriente. Ci si deve dunque limitare a un'esposizio­ ne schematica dei concetti essenziali, ben coscienti della difficoltà di evitare imprecisioni. D'altra parte esistono innumerevoli libri dove il comportamento della materia a scala atomica è discusso in modo ap­ profondito e abbordabile anche da un lettore che non abbia affronta­ to corsi universitari specifici. Meccanica classica Legge del moto F = ma dove F è la forza complessiva che agisce su un corpo di massa m, a è l'accelerazione. In un sistema costituito da molte particelle, se sono note le forze agenti, le masse, le cariche e le condizioni iniziali, cioè le posizioni P;(r;) e la velocità v; di ogni particella a un dato istante, la [4.3] consente, in linea di principio, di calcolare l'evoluzione del si­ stema, ossia le posizioni e le velocità di ogni particella ad ogni altro istante (determinismo classico). La conoscenza di tutte le posizioni e di tutte le velocità definisce lo stato (classico) del sistema. Nel caso di un sistema di N particelle puntiformi lo stato è dato da 6 · N 134

4· LA STRUTTURA MICROSCOPICA DELLA MATERIA

numeri, 3 per le coordinate di ogni particella, 3 per le componenti della velocità di ogni particella. Chiamiamo microstato questa descri­ zione completa di un sistema meccanico di molte particelle, per di­ stinguerlo dal macrostato, definito da un numero limitato di variabili termodinamiche. In genere ci riferiremo per semplicità a un sistema di N particelle puntiformi, o a simmetria sferica; nel caso diverso (ad esempio un gas di molecole) occorrono altre coordinate per descrive­ re l'orientazione delle particelle e i gradi di libertà interni (vibrazio­ ni) ; il numero di coordinate necessario per descrivere lo stato di una particella si chiama grado di libertà. L'unità di forza (nel sistema di unità di misura Metro-Chilogram­ mo-Secondo, o MKS) è detta newton, ed è la forza che imprime l'ac­ celerazione di 1 rn/s 2 alla massa di un chilogrammo. L'unità di misu­ ra del lavoro, o dell'energia, è il joule, il lavoro di una forza di un newton per uno spostamento di un metro, nella stessa direzione. Le forze che entrano in gioco sono di varia natura: meccanica, elettrica per le particelle con carica, magnetica per le particelle con momento magnetico e per quelle in moto, se dotate di carica elettrica; le forze gravitazionali, che si esercitano per il fatto che le particelle hanno una massa, sono trascurabili nella struttura della materia. Spesso in fisica si usano formulazioni alternative della legge del moto; in esse compare una funzione H che si chiama hamiltoniana e che non è altro che l'energia totale del sistema; essa è la somma del­ l' energia cinetica di tutte le particelle, che dipende dalle loro velocità, e dell'energia potenziale, che dipende dall'interazione fra le particelle, quindi dalle loro mutue distanze; l'energia cinetica in generale si esprime, anziché attraverso la velocità v;, usando come variabile la quantità di moto, o momento, p;; nel caso di particelle puntiformi è p; = m; v;. Le leggi della meccanica classica implicano che per un sistema di particelle interagenti, isolato, non sottoposto a forze esterne, l'energia totale, la quantità di moto (momento) totale e il momento della quantità di moto (momento angolare) totale del sistema si conservi­ no. Queste tre importanti leggi di conservazione hanno validità gene­ rale e hanno la loro radice nella simmetria delle leggi fisiche, che non cambiano traslando il tempo, o per traslazioni e rotazioni nello spazio (isotropia dello spazio) . Il momento angolare è il vettore proporzio­ nale alla massa che ruota intorno a un asse, alla sua velocità tangen­ ziale e alla sua distanza dall'asse. Le quantità che si conservano sono 1 35

STATI E TRASFORMAZIONI DELLA MATERIA

la somma (vettoriale) delle quantità di moto e quella dei momenti angolari di tutte le particelle del sistema; l'energia totale invece non si può esprimere come somma delle energie delle singole particelle, perché ognuna di esse interagisce con tutte le altre. La meccanica classica newtoniana perde la sua validità quando entrano in gioco velocità prossime alla velocità della luce; allora deve essere sostituita dalla meccanica relativistica (relatività ristretta) , in­ trodotta da Einstein nel 1905. Essa è essenziale nel campo della fisica nucleare, delle particelle elementari, dell'astrofisica, ma è poco im­ portante nello studio della struttura della materia e può essere qui ignorata. A scala atomica le leggi della meccanica classica non sono più applicabili; esse conservano la loro utilità nei casi in cui i fenomeni quantistici (cfr. in/ra) sono trascurabili, come nei gas, o, in generale, nel limite in cui gli stati della materia possono essere approssimati come una collezione di atomi che mantengono la loro individualità. Elettromagnetismo Nel 1873 James Clerk Maxwell (1831-1879) unificò in una grandiosa sintesi la trattazione dei fenomeni elettrici, magnetici e ottici. Il siste­ ma di equazioni di Maxwell contiene le leggi fenomenologiche trova­ te da altri fisici nella prima metà dell'Ottocento e prevede l'esistenza delle onde elettromagnetiche (confermata sperimentalmente nel 1887 da Heinrich Hertz); Maxwell suggerì anche che la luce è un'onda elettromagnetica, che si propaga nel vuoto con velocità c ( = 3 · I0 10cm/s) . In particolare, per quanto riguarda l'interpretazione delle proprie­ tà della materia, ricordiamo che le equazioni di Maxwell implicano la legge di Coulomb e l'esistenza di una forza esercitata da un campo magnetico su una carica elettrica in moto (PAR. 3·7·4) . L'energia po­ tenziale dovuta all'interazione coulombiana fra due particelle punti­ formi di carica e1 ed e2 , poste alla distanza Y12 è U(r12 ) = e1 e/r12 ; essa è dunque positiva se le cariche hanno lo stesso segno, negativa se hanno segno opposto; le [4.1 ] e la [4.2] danno le forze coulombia­ ne che ne risultano , nel caso di atomi. Secondo l'elettromagnetismo classico l'energia associata alla radia­ zione elettromagnetica di una data frequenza può assumere qualun­ que valore, ossia varia in modo continuo. A partire dal 1900, quando •

4· LA STRUTTURA MICROSCOPICA DELLA MATERIA

Max Planck (r858-r947) interpretò con un'ipotesi ardita lo spettro di emissione del corpo nero, questo dato entrò in crisi: l'energia di una radiazione può assumere solo valori discreti, uguali a multipli interi della frequenza moltiplicata per una costante, nota come la costante di Planck e designata col simbolo h (il quanto d'azione) : h = 6,6 · r o- 34 J · s = 4,r · ro-' 5 eV · s. L'elettrone volt (eV) è l'unità di energia tipica dei fenomeni ato­ mici; essa equivale a r , 6 · r o- '9 J eçl è l'energia che acquista un elet­ trone accelerato attraverso la differenza di potenziale di un volt. Con l'interpretazione data da Albert Einstein cinque anni dopo dell'effetto fotoelettrico, fu chiaro che la radiazione elettromagnetica è costituita da un flusso di corpuscoli (detti fotoni o quanti di radia­ zione) di energia uguale a hv. Per la radiazione visibile, hv, l'energia del fotone, varia tra r,8 eV (luce rossa) e 3,3 eV luce violetta; i foto­ ni della radiazione ultravioletta e X hanno energia maggiore; quelli della radiazione infrarossa e delle micro - e radio - onde hanno energia minore. I fotoni, oltre ad avere un'energia definita, hanno anche uno spin e una quantità di moto, che è uguale a h v/c; per i fotoni della radia­ zione visibile questa quantità è piccola, molto inferiore alla quantità di moto media di un atomo in un gas o di un elettrone in un solido. La natura corpuscolare della radiazione elettromagnetica non con­ traddice la sua natura ondulatoria, dimostrata nel secolo xix dalle esperienze di interferenza e di diffrazione, ma è complementare ad essa: l'intensità della radiazione è proporzionale al flusso di fotoni (che nel vuoto viaggiano con velocità c = 3 · ro 10 cm/s) e il quadrato dell'intensità del campo elettromagnetico che si propaga è proporzio­ nale, in ogni punto, al numero di fotoni presenti. Alla distanza di un metro da una sorgente luminosa da un watt ci sono circa r .ooo foto­ ni per centimetro cubo, ossia una superficie di un centimetro quadra­ to è attraversata, in un secondo, da un flusso di circa 3 · r o' 3 fotoni. Il discorso corretto è più sottile; in realtà il quadrato dell'intensità del campo non dà una misura del numero di fotoni, ma della proba­ bilità di presenza dei fotoni. La natura corpuscolare della radiazione è essenziale nell'interpre­ tazione dell'interazione con la materia (processi di assorbimento, di emissione, di diffusione) . Il capitolo della fisica che tratta la natura corpuscolare della ra­ diazione elettromagnetica si chiama elettrodinamica quantistica.

137

STATI E TRASFORMAZIONI DELLA MATERIA

Meccanica quantistica Dopo la scoperta di Rutherford sulla struttura dell'atomo fu chiaro che le proprietà fisiche degli atomi non potevano essere spiegate ap­ plicando le leggi classiche, ad esempio perché gli elettroni in moto intorno al nucleo dovrebbero perdere energia con continuità, per ir­ raggiamento. I fisici si impegnarono allora a sviluppare una nuova teoria. Ciò richiese un vero stravolgimento dei concetti della mecca­ nica newtoniana, che aveva dominato per oltre due secoli. Dopo i primi modelli ad hoc (Niels Bohr, I9I 3 ; Arnold Sommer­ feld, I9I5), in poco più di un decennio fu sistemata una teoria soddi­ sfacente, le cui diverse formulazioni rientrano nel termine generale di meccanica quantistica. A scala atomica e subatomica lo stato di un sistema di particelle (e anche quello di una sola particella) non è più definito da tutte le coordinate di posizione e di velocità. Il principio di indeterminazio­ ne, enunciato nel I925 da Werner Heisenberg (I90I-I976), dice che non è possibile, neanche in linea di principio, conoscere simultanea­ mente con precisione sia la posizione che la velocità di una particella; il grado di indeterminazione è irrilevante per gli oggetti macroscopici, ma importante su scala atomica. Anche il concetto classico di traiet­ toria delle particelle, così intuitivo, deve essere abbandonato, perché implica la conoscenza simultanea, istante per istante, di posizione e velocità. È necessario trattare i fenomeni a scala atomica nel quadro di nuovi concetti e di nuove leggi. Lo stato è descritto da una funzione matematica complessa (nel senso che non è una funzione reale, ma contiene il numero comples­ so i, il cui quadrato è uguale a - I), le cui variabili indipendenti sono le coordinate di posizione di tutte le N particelle del sistema, e il tempo; questa funzione, indicata di solito con il simbolo IJI (r1 , r2 . . . rN; t), è chiamata funzione di Schrodinger; essa non è diretta­ mente misurabile, anche se contiene tutti i dati fisici relativi al siste­ ma che descrive; un esempio semplice di IJI è quella per l'elettrone dell'atomo di idrogeno, in assenza di eccitazioni o, come si dice, nel­ lo stato fondamentale; in questo caso la funzione è reale e non dipen­ de dal tempo (usiamo 1jJ minuscola per lo stato di una sola particel­ la) : 1jJ (r)

I -� (ao) - Y• 12 e - rla

a

4· LA STRUTTURA M ICROSCOPICA DELLA MATERIA

dove a0 è un parametro, chiamato raggio di Bohr, del valore di circa mezzo angstrom; esso è espresso tramite la carica e la massa dell'elet­ trone, e la costante h di Planck, già incontrata nella descrizione della natura corpuscolare della radiazione; r è la distanza dal nucleo. Il quadrato della tJI ha un significato fisico diretto; il suo valore è pro­ porzionale alla probabilità di trovare le N particelle nell'intorno delle posizioni r, r2 rN; nel caso semplice di una sola particella consi­ derato sopra, la probabilità di trovare l'elettrone dell'idrogeno nella posizione r è data da: • • •

1 1/1

(r)

12

1 - a - 3 e - ula lr o

a

Questa funzione ha la forma di una campana, col massimo per r = o. Dunque l'atomo non è descritto da un microscopico sistema pla­ netario, nel quale l'elettrone percorre orbite ellittiche intorno al nu­ cleo, verso il quale è attratto dalla forza elettrostatica coulombiana; l'elettrone può trovarsi in tutti i punti dello spazio intorno al nucleo, con probabilità decrescenti man mano che si allontana da esso; alla distanza di pochi angstrom la probabilità di trovare l'elettrone diven­ ta trascurabile. Anche la legge del moto deve essere modificata; la tJI si ricava, in linea di principio, risolvendo un'equazione che ha preso il nome dal fisico austriaco Etwin Schrodinger (1887-196I) che la introdusse nel 1926; l'equazione di Schrodinger è più complicata di quella di Newton, e non la scriviamo; se il sistema è isolato si può scrivere l'equazione di Schrodinger che non dipende dal tempo, ossia l'equazione degli stati stazionari; lo stato del sistema è dunque rappresentato da una delle possibili soluzioni W; dell'equazione di Schrodinger (autostato) ; a ogni autostato corrisponde un valore E; ben preciso dell'energia del sistema, detto autovalore dell'energia. In generale solo alcuni autovalori sono permessi, mentre tutti gli altri sono proibiti; si dice allora che l'energia degli stati elettronici presenta uno spettro discreto. Ad esempio, nel caso dell'atomo di idrogeno, la [4.4] è la soluzio­ ne per lo stato fondamentale e l'auto�alore corrispondente è -13,6 eV, ossia bisogna spendere un'energia di 13,6 eV per allontanare l'e­ lettrone dal nucleo; tutti i valori dell'energia inferiori a - 13,6 eV so­ no proibiti, ossia non esistono atomi di idrogeno il cui elettrone sia legato al nucleo da un'energia superiore. L'elettrone può essere meno legato (stati eccitati) ; i primi 8 stati eccitati che si incontrano hanno 139

STATI E TRASFORMAZIONI DELLA MATERIA

un'energia di legame di - 3,39 eV, i successivi 18 stati hanno un'e­ nergia di -1,51 eV, e così via; la risoluzione dell'equazione di Schro­ dinger per l'atomo di idrogeno ci dice che non esistono autostati la cui energia sia compresa fra - 13,6 e - 3,39 eV, o fra - 3,39 e - 1 ,51 eV, e così via. Quando uno stesso autovalore E; corrisponde a g; stati (g; > 1) si dice che si ha degenerazione; g; è il grado di degenerazio­ ne. Se risolviamo l'equazione di Schrodinger per un oscillatore armo­ nico, per esempio una corda elastica capace di oscillare con una fre­ quenza v, troviamo, per lo stato fondamentale, un'energia uguale a 1h hv; gli stati eccitati hanno energie uguali a quella dello stato fon­ damentale, aumentata di un numero intero di hv; anche qui ritrovia­ mo uno spettro discreto di autovalori dell'energia, mentre, se trattia­ mo il problema classicamente, troviamo che l'energia della corda ela­ stica può assumere con continuità un valore qualsiasi. Per una particella libera (non soggetta a forze) di massa m tutti gli autovalori positivi dell'energia sono permessi; le soluzioni sono onde piane di lunghezza d'onda data dalla relazione postulata nel 1924 da Louis de Broglie ( 1892-1987) : À vn

h

= ­ mv

dunque una particella si comporta come un'onda la cui lunghezza è tanto più piccola quanto maggiore è la sua velocità v. Poiché le onde sonore ed elettromagnetiche danno il fenomeno della diffrazione, ci si deve aspettare che lo stesso fenomeno abbia luogo anche per i fa­ sci di particelle che incidono su un reticolo opportuno, nel quale la distanza fra i centri che diffondono le particelle sia dell'ordine di Àvn ; la diffrazione fu effettivamente osservata nel 1927 da G. P. Thompson e, indipendentemente, da C. J. Davisson e L. Germer; fa­ cendo incidere un fascio di elettroni veloci sulla superficie di un cri­ stallo di nickel, essi osservarono che gli elettroni vengono riflessi sol­ tanto secondo certe direzioni, le stesse secondo le quali si diffrango­ no i raggi X di lunghezza d'onda uguale a quella degli elettroni del fascio. Ritroviamo dunque, per le particelle materiali, il dualismo onda­ corpuscolo già incontrato per la radiazione elettromagnetica. Questo dualismo, che ha avuto innumerevoli conferme sperimentali, è com­ pletamente contenuto nella equazione di Schrodinger; di esso sono

4· LA STRUTTURA M ICROSCOPICA DELLA MATERIA

state date tante interpretazioni qualitative, ma alla fine è meglio am­ mettere onestamente che è controintuitivo, forse perché i nostri mo­ delli della realtà fisica si sono formati sull'osservazione di onde che sono solo onde e di oggetti materiali che hanno posizione, velocità e traiettoria ben determinate; la microfisica ci dice invece che non è giustificato estendere questo quadro anche a oggetti la cui massa è Io2 7 volte minore di quella di un proiettile. Quando lo spettro dell'energia di un sistema è discreto, quando cioè solo alcuni autovalori E; sono permessi, e tutti gli altri valori di E sono proibiti, il sistema può passare da uno stato di energia E; ad un altro di energia E1 solo se gli si fornisce (o gli si sottrae) in un colpo solo la differenza di energia E1 - E;. Nel caso in cui questa transizione, detta salto quantico, avviene per interazione con i fotoni della radiazione elettromagnetica, il principio di conservazione dell'e­ nergia impone che sia v =

E,-

h

per l'assorbimento di radiazione, oppure v =

per l'emissione di radiazione. Dunque un sistema con uno spettro di­ screto di energia, ad esempio un atomo, può assorbire o emettere solo radiazioni di frequenza in accordo con le [4.7] e [4.8] ; questo era ben noto agli spettroscopisti fin dal secolo scorso, e la spiegazio­ ne del fatto che gli spettri atomici di emissione e di assorbimento non sono continui, ma discreti (spettri a righe), costituisce uno dei successi della meccanica quantistica. Per completezza bisogna aggiun­ gere che se la radiazione è molto intensa, come la si può ottenere con sorgenti laser potenti, la transizione può avvenire con l'assorbimento simultaneo di più di un fotone, purché la conservazione dell'energia sia rispettata; anche l'assorbimento di più fotoni osservato per la pri­ ma volta nel 1961 è interpretato dalla meccanica quantistica. La teoria sviluppata da Schrodinger, di cui qui si è dato un cenno incompleto, e tuttavia di non facile lettura, si è chiamata meccanica ondulatoria; essa ha avuto altre formulazioni equivalenti o più com­ plete, che vanno sotto il nome di teorie quantistiche. Di uno degli ampliamenti della teoria è indispensabile parlare, per l'importanza

STATI E TRASFORMAZIONI DELLA MATERIA

che esso ha nell'interpretazione della struttura della materia. Si è det­ to che l'elettrone ha anche uno spin e un momento magnetico asso­ ciato, dunque è necessario che l'equazione che descrive lo stato di un sistema di elettroni consideri anche le possibili orientazioni dello spin, oltre alle variabili di posizione r;. Nel r927 Wolfgang Pauli ge­ neralizzò l'equazione di Schrodinger introducendo una variabile che descrive le possibili orientazioni dello spin nello spazio; si sa che le orientazioni possibili, per un elettrone, sono solo due, " in su" oppure " in giù" ; la funzione che descrive completamente lo stato di un elet­ trone è allora il prodotto della parte che dipende dalle coordinate r per una parte che dipende dalla coordinata �:

la X ( �) ha solo due valori, uno per lo spin in su, l'altro per lo spin in giù. Questa generalizzazione consente di formulare correttamente il principio di esclusione, o di Pauli (r924) : nel caso di un sistema a più elettroni, tale che a ognuno di essi possa essere assegnato uno stato quantico, non è possibile trovare più di un elettrone nello stesso stato; se consideriamo solo la parte spaziale, il principio di Pauli dice che non più di due elettroni possono trovarsi nello stesso stato, uno di essi con spin in su, l'altro con spin in giù. Questo principio vale solo per le particelle identiche che, secondo la meccanica quantistica, sono fisicamente indistinguibili e che hanno spin rh, come gli elet­ troni (o multipli dispari di rh, ossia spin semi-intero) . ll principio di Pauli gioca un ruolo essenziale nell'interpretazione delle proprietà della materia; ad esso si deve fra l'altro il fatto che fra gli atomi si esercitano a corto raggio forze repulsive molto intense. L'esistenza dello spin fu giustificata in modo soddisfacente qual­ che anno più tardi, quando P. A. M. Dirac (r902-r984) formulò le leggi della meccanica quantistica in modo che fossero soddisfatte le condizioni relativistiche. Meccanica statistica Un sistema macroscopico è formato da un numero elevato di parti­ celle, dell'ordine di ro 19 molecole per centimetro cubo (gas in condi­ zioni normali), o di ro2 3 - ro 25 elettroni e nuclei per centimetro cubo (liquido o solido) . Si è detto che le leggi della fisica consentono, in

4· LA STRUTTURA MICROSCOPICA DELLA MATERIA

linea di principio, di conoscere rigorosamente il comportamento di un sistema, una volta noto lo stato iniziale (ricordiamo che nel caso quantistico le pr�visioni sono comunque probabilistiche) . In pratica questo è vero solo per i sistemi semplici, anzi semplicissimi, come il moto di un proiettile o di un satellite nel vuoto, l'oscillazione senza attrito di un'onda, l'atomo di idrogeno, una particella confinata in una scatola, e poco di più. Appena la situazione si complica un poco è necessario cercare soluzioni approssimate, ma quando si ha a che fare con un sistema di molte (N) particelle anche questa strada è im­ possibile e, oltre a tutto, improduttiva. Impossibile perché, anche se si fosse in grado di conoscere lo stato iniziale del sistema (microsta­ to) , i calcoli, necessariamente numerici, sarebbero troppo lunghi an­ che per il più potente dei calcolatori elettronici; a calcoli numerici si ricorre solo nel caso di sistemi modello, dove N è al massimo dell'or­ dine di 103. Inutile, perché, qualora si fosse in grado di giungere al risultato, i dati sarebbero illeggibili e il dettaglio eccessivo; non inte­ ressa infatti, in un gas, conoscere esattamente il microstato, cioè la posizione e la velocità di ogni singola molecola, e il cambiamento della sua velocità quando urta un'altra molecola o le pareti, ma inter­ pretare le regolarità che caratterizzano il gas nel suo complesso, de­ scritto da un piccolo numero di variabili termodinamiche. In un certo senso la situazione è analoga a quella che si presenta nel gioco della roulette. Le leggi della fueccanica, le proprietà elasti­ che, l'attrito della pallina e della roulette e le condizioni iniziali per­ mettono in linea di principio di calcolare dove andrà a fermarsi la pallina, ma questo modo di procedere sarebbe troppo complicato. Il calcolo delle probabilità ci dice che, a lungo andare, ogni numero uscirà con la stessa frequenza, che la probabilità che esca il nero è uguale a quella che esca il rosso ed è uguale a 0,486486 . . . ecc. ; le previsioni del calcolo delle probabilità sono praticamente sicure se si ha a che fare con un numero grandissimo di eventi, perché il margi­ ne di errore diminuisce come la radice quadrata del numero stesso. Per questo i casinò sono aziende in attivo. L'obiettivo della meccanica statistica (o termodinamica statistica) è dedurre le leggi che governano il comportamento macroscopico ( termodinamico) partendo dalle leggi microscopiche e da concetti ge­ nerali di teoria delle probabilità. Il successo della meccanica statistica per i sistemi in equilibrio termodinamico è di fornire il ponte fra la meccanica (classica o quantistica) e la termodinamica. La formulazione più soddisfacente è stata data all'inizio del secolo

143

STATI E TRASFORMAZIONI DELLA MATERIA

da Josiah Willard Gibbs (I839-I903) , ma essenziale è stato an­ che il contributo di Maxwell e di Ludwig Eduard Boltzmann. Indichiamo sinteticamente il microstato con (rz, p1) , dove si inten­ de che l'indice i va da I a N. Il concetto centrale della meccanica statistica classica è la funzione di distribuzione (J, che dipende da tut­ te le coordinate r1 e da tutti i momenti p1 (i = I, 2 . . . N) ; (J (rz, p1) è propozionale alla probabilità di trovare le particelle del sistema in prossimità dei punti r1 e dei momenti p1. Per un sistema in equilibrio termico alla temperatura T si ha che (J dipende solo dall'energia tota­ le del sistema E (rz, p,) e da T; la funzione di distribuzione di Gibbs ha la seguente espressione: - E( r, p )lk T (J (r;, p;) = C (N! ) -r e

dove k è la costante di Boltzmann; la costante C è il fattore di nor­ malizzazione, che tiene conto del fatto che la somma di tutte le pro­ babilità deve essere uguale a uno; il termine (N! ) - ' tiene conto del fatto che un microstato non cambia se si scambiano le coordinate di due particelle identiche; N! (N fattoriale) è il numero delle permuta­ zioni di N oggetti e sta per N(N-I) (N-2) . . . 3 . 2 . 1 . Nota la funzione di distribuzione, è possibile calcolare i valori medi delle variabili di­ namiche che dipendono dalle r1 e dalle p1; qui non si introducono concetti nuovi, si ricorre solo al significato di valor medio, che è la somma dei valori possibili moltiplicati per la probabilità che ciascuno di essi ha di realizzarsi. Per esempio il valore medio dell'energia si ottiene som­ mando (o integrando) su tutti gli stati (r;, p;) ogni valore possibile E(r1, p1) , moltiplicato per la probabilità corrispondente: < E( n > = C(N! ) -' J E(r1, p,) e -E(r,, p,JikT dr1 dp1

Il valor medio dell'energia espresso dalla [4. n ] corrisponde alla va­ riabile termodinamica U, l'energia interna del sistema (PAR. 2 -4) ; ab­ biamo così una prima importante relazione fra la meccanica e la ter­ modinamica. La meccanica statistica consente anche di calcolare come l'energia fluttua intorno al suo valore medio = U in un sistema che, essendo in equilibrio con un termostato, non ha un'energia rigorosa­ mente costante (come avviene invece se il sistema è isolato) . Risulta che le fluttuazioni sono estremamente piccole. Ad esempio, se isoliamo, all'interno di un gas, una regione che

4 · LA STRUTTURA MICROSCOPICA DELLA MATERIA

contiene un centesimo di mole, lo scarto quadratico medio, rispetto al valore medio [ < (E- ) 2 > ] 1/2/ , è dell'ordine di 1o- u . Al­ trettanto piccole, lontano dalle transizioni di fase, sono le fluttuazioni delle altre variabili termodinamiche. La meccanica statistica dunque, rinunciando alla conoscenza com­ pleta dello stato microscopico di un sistema, ha un significato proba­ bilistico, nel senso che permette di calcolare i valori medi delle varia­ bili termodinamiche e le loro fluttuazioni, non i valori esatti, istante per istante; d'altra parte questo è proprio ciò che conta nella descri­ zione di un sistema macroscopico. Il fatto che normalmente, per i sistemi macroscopici in equilibrio, le fluttuazioni siano molto piccole dà ai risultati della meccanica statistica un valore praticamente deter­ ministico. Di importanza fondamentale è anche l'espressione statistica del­ l'entropia. Si è già detto (PAR. 2.5) che l'entropia 5 misura il grado di disordine su scala atomica di uno stato macroscopico. Uno stato ter­ modinamico, o macrostato, definito da determinati valori delle varia­ bili termodinamiche corrisponde a un numero molto elevato di mi­ crostati, ciascuno definito dai valori delle posizioni e dalle velocità di tutte le particelle; chiamiamo W questo numero che è detto anche probabilità termodinamica o peso statistico ed è tanto più grande quanto più il sistema è disordinato. Boltzmann ha espresso in forma quantitativa il legame fra l'entropia 5 definita dalla termodinamica e il grado di disordine su scala microscopica: 5 = k ln W

dove il simbolo ln indica il logaritmo naturale (in base e) . Si può dimostrare che con questa definizione statistica dell'entropia si ha proprio una funzione che ha le proprietà dell'entropia termodinami­ ca, espresse dal secondo e dal terzo principio. La [4. 10] e la [4. 12] costituiscono la base della meccanica statisti­ ca; attraverso di esse si trovano le espressioni delle altre funzioni ter­ modinamiche, così come si è visto per l'energia interna U. Per calco­ lare però esplicitamente le proprietà di un sistema è necessario cono­ scere la sua energia E(r;, p;) che appare nella [4. 10] , o il suo peso statistico W; la difficoltà sta nel fatto che per un sistema di molte particelle interagenti queste funzioni sono così complicate da essere intrattabili. Si ricorre allora a semplificazioni e a modelli che in alcu­ ni casi significativi consentono di fare i calcoli e di ottenere risultati 145

STATI E TRASFORMAZIONI DELLA MATERIA

che giustificano le leggi fenomenologiche e che quindi sono in accor­ do con i dati sperimentali. Nel caso del gas ideale, ad esempio, il problema si semplifica per­ ché l'energia totale si riduce alla somma delle energie E; di tutte le particelle e la funzione di distribuzione relativa all'intero sistema di N particelle [4. 10] si riduce al prodotto di N funzioni di distribuzione, ciascuna relativa alla probabilità di trovare una particella in un intor­ no di r e di p; la funzione di distribuzione per una particella dipen­ de dall'energia E (r, p) della particella stessa e risulta essere ancora della stessa forma:

·

(! (r, p) = ce - E(r, p)/kT = ce - E( p)lkT = (! ( p)

le ultime due uguaglianze tengono conto che in un gas ideale l' ener­ gia potenziale è nulla, dunque l'energia della particella dipende solo da p, cioè è puramente energia cinetica. La statistica di un gas ideale classico si chiama statistica di Maxwell-Boltzmann o, più brevemente, di Boltzmann. La meccanica statistica si è sviluppa� a nel secolo scorso, quindi ha preso in considerazione sistemi classici, visto che la meccanica quan­ tistica si è sviluppata molto più tardi. Nonostante molti innegabili . successi già all'inizio di questo secolo è risultato chiaro che in alcuni casi i risultati a cui conduceva erano in netto disaccordo con i risulta­ ti sperimentali, ad esempio nel calcolo dell'intensità dello spettro del­ le radiazioni emesse da un corpo caldo (problema del corpo nero) e nel calcolo del calore specifico dei solidi alle basse temperature. È risultato dunque evidente che era necessario passare alla descrizione quantistica. La relazione fondamentale [4. 10] mantiene la sua validità, ove si tenga conto che a uno stato quantico corrispondono autovalori dell'e­ nergia E; del sistema non più esprimibili in funzione delle r; e delle p;. Si scrive allora, per le probabilità che un sistema abbia un'energia E;:

dove C è ancora il fattore di normalizzazione; g; è i1 numero di stati che corrispondono allo stesso autovalore E;, ossia il grado di degene­ razione. Gli integrali che esprimono i valori medi, come nella [4. I I ] , vanno sostituiti d a somme quando lo spettro degli autovalori E; è di­ screto. 146

4· LA STRUTTURA MICROSCOPICA DELLA MATERIA

FIGURA 4 . 1 Probabilità d i occupazione d i uno stato quantico, i n funzione della sua energia

é Le curve corrispondono alla distribuzione statistica di Fermi-Dirac, per due diverse temperature. Si è qui trascurata la debole dipendenza dalla temperatura del livello di Fermi 1-'F·

Anche nel caso quantistico la difficoltà sta nel trovare i possibili au­ tovalori dell'energia per un sistema complesso, e anche in questo ca­ so si deve ricorrere a semplificazioni e a modelli. La statistica di un gas ideale quantistico di particelle identiche e indistinguibili è molto diversa da quella di Maxwell-Boltzmann. Per particelle a spin semi-intero, come gli elettroni, bisogna tener conto infatti del principio di esclusione di Pauli; poiché non è possibile che un dato stato quantistico ospiti più di una particella, la funzione di distribuzione [4. 1 3 ] non vale e deve essere sostituita, per un sistema di N particelle, dalla

/; è la probabilità che si trovi una particella nello stato (o in uno degli stati, nel caso ci sia degenerazione) di energia E;; f.lp, detto livel­ lo di Fermi, è un parametro che dipende dalla temperatura e che si ottiene dalla condizione di normalizzazione, ossia imponendo che la somma su tutti gli stati della probabilità /; sia uguale a N. Questa è la statistica di Fermi-Dirac (1926) e le particelle che le obbediscono si dicono fermioni; la [4. 15] dice che, se la temperatura non è estrema­ mente alta, la probabilità di occupazione di uno stato dipende da e come è mostrato nella FIG. 4.1, ed è dunque ben diversa da quella 147

STATI E TRASFORMAZIONI DELLA MATERIA

descritta dalla statlsttca di Boltzmann; per T � o °K tutti gli stati con E < !-lF sono occupati, tutti quelli con E > !-lF sono vuoti; l'ener­ gia media non si annulla, ma ha un valore dell'ordine di {lp; la distri­ buzione quantistica si approssima a quella classica per E > > 1-lF· Na­ turalmente /(E;) ha significato fisico solo per gli autovalori permessi dell'energia; per i valori proibiti, che non corrispondono ad autovalori dell'equazione di Schrodinger, non ci sono né stati né particelle. Le particelle a spin intero (come i fotoni) o nullo obbediscono invece alla statistica di Bose-Einstein, la cui funzione di distribuzione si ottiene dalla [4. I 5] cambiando nella parentesi il + I in -I ; esse sono dette bosoni. Poiché non esiste il vincolo imposto dal principio di esclusione, la probabilità di occupazione di uno stato può essere superiore a uno, come nella statistica di Boltzmann. È necessario ricordare che le statistiche di Bose-Einstein e di Fer­ mi-Dirac derivano dalla più generale statistica di Gibbs, nel caso di gas ideali quantistici. Il fatto che gli elettroni seguano la statistica di Fermi-Dirac e non la statistica di Boltzmann ha una profonda influenza sulle proprietà fisiche della materia. Teoria cinetica A differenza della meccanica statistica, che studia gli stati di equili­ brio dei macrosistemi, le teorie cinetiche hanno per oggetto gli stati e i processi di non-equilibrio, e in particolare i processi di passaggio verso lo stato di equilibrio di sistemi in cui sono presenti gradienti di temperatura, di densità, di concentrazione, di potenziale ecc. Obiettivo della cinetica è la giustificazione delle equazioni feno­ menologiche macroscopiche e il calcolo dei coefficienti cinetici che in esse compaiono: coefficiente di viscosità, di diffusione, di conducibilità elettrica e termica ecc. I principali concetti e metodi della meccanica statistica conserva­ no la loro validità, ma mentre all'equilibrio le proprietà non dipendo­ no direttamente dal meccanismo delle interazioni microscopiche, per­ ché è sufficiente conoscere lo spettro energetico del sistema, nei pro­ cessi cinetici il meccanismo d'interazione gioca un ruolo essenziale. Per questa ragione la cinetica è più complicata della meccanica stati­ stica, così che non esiste un'unica teoria, ma diversi metodi di ap­ prossimazione; con l'aumento della potenza dei mezzi di calcolo, si è

·

4· LA STRUTTURA M ICROSCOPICA DELLA MATERIA

diffuso il ricorso al calcolo numerico nello studio della evoluzione temporale di un sistema fuori dall'equilibrio termodinamico. 4· 2 L'architettura

Come si è detto, se è vero che in linea di principio la conoscenza dei costituenti elementari della materia, delle loro proprietà e delle leggi fondamentali che ne governano l'interazione e il moto consente di interpretare le proprietà della materia, è altrettanto vero che per giungere a questo risultato occorrono modelli e approssimazioni. Il lavoro concreto del fisico consiste nell'inventare, sulla base dei prin­ cipi generali e delle informazioni sperimentali disponibili, modelli sensati e nel trovare gli strumenti teorici che consentono di inquadra­ re la ricca fenomenologia esistente e di prevedere fenomeni nuovi: in altre parole di individuare gli elementi portanti dell'architettura del complesso sistema rappresentato dalla struttura della materia. Come è noto, i fisici non si sono trovati a disporre di punto in bianco degli strumenti fondamentali (costituenti elementari e leggi fondamentali) per disegnare l'architettura della materia; in mancanza degli elementi costruttivi ottimali, inizialmente ci si è dovuti arrangia­ re con strutture provvisorie e rimediare alla parziale ignoranza con il bricolage. Il processo è stato lento e laborioso, per alcuni decenni, dalla fine dell'Ottocento fino a circa il 1930, ci si dovette accontenta­ re di modelli classici e di approssimazioni ad hoc nelle quali si inco­ minciavano a introdurre i nuovi concetti quantistici. D'altra parte è fuorviante immaginare che il fisico si trovi di fronte a un ricco qua­ dro fenomenologico già consolidato e si ponga il pròblema dell'inter­ pretazione dal punto di vista microscopico. Lo stesso quadro speri­ mentale è in continua evoluzione, le tecniche di indagine si raffinano, nuovi fenomeni fanno la loro apparizione. Il lavoro di costruzione dell'architettura teorica non è quindi disgiunto dallo sviluppo speri­ mentale, anzi, fatti salvi i principi generali, si arricchisce attraverso la fertile interazione con nuovi dati e nuovi fenomeni. Un utile punto di partenza è la constatazione che i tre stati di aggregazione fondamentali hanno proprietà fisiche differenti, quindi è conveniente, anzi praticamente indispensabile, partire da modelli dif­ ferenti. I dati sperimentali sulla struttura spaziale dei tre stati di ag­ gregazione, ottenuti da esperienze di diffrazione di raggi X, di neu­ troni o di altre particelle, suggeriscono i modelli opportuni.

149

STATI E TRASFORMAZIONI DELLA MATERIA

Struttura molecolare dei gas Gas, liquidi e solidi non sono trattati come un aggregato di N nuclei e di Z · N elettroni, racchiusi in un volume V e in equilibrio a una temperatura T; per questa strada non si arriverebbe lontano. L'evi­ denza sperimentale dice che in un gas, in condizioni non estreme di densità, atomi e molecole mantengono la loro individualità, dunque il punto di partenza sono gli atomi e le molecole costituenti che si muovono quasi liberamente nello spazio, e le forze attrattive e repul­ sive che fra essi si esercitano. L'esistenza di queste forze, che dipen­ dono dalla sostanza in esame, fa sì che in un gas, sistema tipicamente disordinato, il disordine non sia completo, ma esista un certo ordine a corto raggio, ossia una correlazione fra la posizione di una moleco­ la e la posizione media delle altre molecole che la circondano; questa correlazione può essere calcolata e misurata con esperienze di diffra­ zione. Semplificando ancora, si può assumere che le forze siano tra­ scurabili (ossia che l'energia potenziale del sistema sia nulla) e consi­ derare il gas come un insieme di particelle dotate solo di energia ci­ netica; questo modello, in cui anche l'ordine a corto raggio scompare (gas ideale), è stato alla base, nel secolo scorso, dei primi sviluppi della meccanica statistica. Storicamente questa strada fu seguita, ben prima che fosse nota l'esistenza degli elettroni e dei nuclei atomici. Il plasma Se invece la temperatura è sufficientemente alta, alcuni degli atomi perdono un elettrone per ionizzazione termica, e allora il modello de­ ve essere radicalmente modificato (PAR. 3 . ro) ; si ha infatti un sistema (plasma) composto in parte di particelle cariche, ioni ed elettroni; a causa del lungo raggio d'azione delle forze coulombiane bisogna te­ nere conto dell'esistenza di moti collettivi, nei quali cioè il moto di una particella è fortemente correlato a quello delle altre particelle del sistema. I solidi cristallini Nel caso dei solidi i movimenti di traslazione dei nuclei e degli elet­ troni ad essi più legati (noccioli ionici) spariscono quasi del tutto; rimangono dei moti oscillatori intorno a posizioni distribuite con re-

I 50

4 · LA STRUTTURA M ICROSCOPICA DELLA MATERIA

golarità periodica nello spazio (reticolo e struttura cristallina) . Dalle esperienze di diffrazione X (W. H. Bragg e W. L. Bragg, 1913) si risale alla struttura cristallina dei vari composti, e questo è il punto di partenza dello studio delle proprietà di solidi ideali. 4.2 . 1 . Alcuni modelli Vediamo ora qualche esempio di architettura provvisoria, nella quale, in carenza di un quadro di riferimento assestato, si ricorre ad adatta­ menti delle strutture preesistenti o all'inserzione provvisoria di nuovi elementi. Del 1900 è il primo modello puramente classico della conduzione elettrica e delle proprietà ottiche dei metalli (Paul Drude, 1 8631906) ; in esso - era appena stato scoperto l'elettrone - si assume che in un metallo esista un gas classico denso di elettroni liberi, che si muovono a zig-zag, che sentono l'influenza dei campi elettrici e ma­ gnetici esterni e che oscillano in risposta alla sollecitazione di una radiazione elettromagnetica. Il modello, perfezionato da H. A. Lo­ renz, spiegava alcuni fenomeni, ma era largamente insoddisfacente ri­ spetto ad altri, come il fatto che il calore specifico dei metalli fosse poco diverso da quello degli isolanti; in ogni casQ, inoltre, nessuna spiegazione era data della differenza fra metalli e isolanti. Intorno al 1910, per merito principalmente di E. Madelung e di Max Born, furono gettate le basi della teoria classica dei cristalli ioni­ ci, con un modello molto semplice: una distribuzione ordinata nello spazio di ioni metallici positivi e di ioni negativi (alogeni ecc. ) ; gli ioni, a simmetria sferica, interagiscono attraverso forze elettrostatiche a lungo raggio e attraverso forze repulsive a breve raggio. Esulava da questo modello, fra l'altro, la comprensione delle proprietà ottiche. Nel 1907 Peter Weiss ( 1 865-1940) formulò una teoria del ferro­ magnetismo introducendo il concetto di dominio ferromagnetico (PAR. 3-7-5) e quello di campo molecolare, un concetto che per molti anni dimostrerà la sua fertilità nell'interpretazione delle transizioni ordine-disordine (PAR. 5 . 3 ) ; il campo molecolare, interno. al solido, ha sui momenti magnetici elementari un'azione ordinatrice che contrasta l'azione opposta all'agitazione termica e che deriva dal contributo di tutti gli altri momenti magnetici elementari. La natura reale di questo campo fu chiarita solo vent'anni dopo da Heisenberg, che ne indivi­ duò la natura quantistica. 15 1

STATI E TRASFORMAZIONI DELLA MATERIA

I concetti quantistici fecero la loro comparsa nel 1906 nella spie­ gazione del comportamento alle basse temperature del calore specifi­ co dei solidi, ancora per merito di Einstein. La meccanica statistica classica, assimilando un solido a un insieme di N oscillatori armonici tridimensionali (tanti quanti sono gli atomi costituenti) , giustificava la legge di Dulong e Petit; un calcolo semplice mostra infatti che l' ener� gia media [4. r r ] è direttamente proporzionale al numero di oscilla­ tori e alla temperatura, dunque il calore specifico è indipendente da T (e uguale a 3R per mole) . Ma andando verso le basse temperatu­ re il calore specifico diminuisce marcatamente, tendendo a zero per T � o (PAR. 3,7.3 e FIG. 3 . 19) . Einstein risolse parzialmente questa contraddizione; assunse un modello un po' brutale, assimilando un solido a un sistema di N ato­ mi che oscillano tutti con la stessa frequenza v, e, come già aveva fatto Planck per la radiazione elettromagnetica, introdusse l'idea che l'energia di ogni oscillatore può variare solo di multipli interi di hv. Sotto queste ipotesi risulta che l'energia media e il calore specifico del solido tendono a zero per T � o °K, in discreto accordo con i dati sperimentali tranne che in prossimità di o 0 K. lntuitivamente si può così interpretare il risultato di Einstein: se si parte da una tem­ peratura prossima a o °K e si innalza di un poco la temperatura, l'energia termica media disponibile, dell'ordine di k T, è molto minore del valore hv necessario per portare gli oscillatori dallo stato fonda­ mentale al primo stato eccitato; a r °K ad esempio l'energia termica media è circa ro-4 eV, mentre hv è tipicamente o,2-o,o4 eV. Di con­ seguenza solo una piccola frazione degli N oscillatori assorbe energia mentre il cristallo si riscalda, e, poiché globalmente la quantità di energia assorbita da tutto il solido è molto piccola, anche il calore specifico (alle basse temperature) è molto piccolo. Alle alte tempera­ ture (kT > hv) il modello prevede che il calore specifico molare ten­ da al valore classico 3R, in accordo con i dati sperimentali. li limite principale del modello di Einstein è l'ipotesi che tutti gli atomi oscillino con una stessa frequenza, e questo portava ancora a una discrepanza con gli esperimenti in prossimità di o 0 K. Anche questa difficoltà fu superata qualche anno più tardi da Peter Debye ( r884-1966), il quale tenne conto, ancora con un modello molto semplice ma più realistico, dell'esistenza in un solido di oscillazioni elastiche che coprono uno spettro di frequenze molto più ampio, che va da zero a una frequenza massima; il modello di Debye è

·

4· LA STRUTTURA MICROSCOPICA DELLA MATERIA

in buon accordo con i dati sperimentali (cfr. FIG. 3 . 1 9 ) . In seguito furono sviluppati modelli più realistici, che tenevano conto dettaglia­ tamente della struttura dei vari tipi di solido a scala atomica; essi rientrano nel campo più ampio della dinamica reticolare. Altri modelli ad hoc furono proposti, nel primo ventennio del se­ colo, per introdurre concetti quantistici nell'edificio classico preesi­ stente. Ad esempio Kamerlingh Onnes nel 19II cercò di interpretare la diminuzione della conducibilità elettrica dei metalli alle basse tem­ perature attraverso l'interazione fra il moto classico degli elettroni di conduzione e gli oscillatori di Einstein, ma con scarso successo. Il tentativo più noto fu il modello proposto nel 1913 da Niels Bohr ( 1885-1962) per interpretare le proprietà dell'atomo di idrogeno. Ma era ormai necessaria, come disse Nernst al primo Congresso Solvay, «un'ampia ristrutturazione dei punti di vista fondamentali che abbia­ mo mantenuto saldi fino ad oggi»; non si poteva continuare, come disse Sommerfeld in seguito, a risolvere i problemi «non con la testa ma con la parte opposta del corpo». Ed era necessaria una base spe­ rimentale sulla struttura interna dei solidi, base che fu fornita nel 1912 da Max Von Laue ( 1 879-1960), allora libero docente (senza sti­ pendio) nell'Istituto di Monaco diretto da Arnold Sommerfeld ( 1 868195 1 ) , e dai suoi allievi Friedrich e Knipping; partendo da un pre­ supposto sbagliato o irrilevante (che gli atomi in un solido colpito da raggi X emettessero radiazione per fluorescenza) , Laue scoprì che un fascio di raggi X, attraversando un cristallo, non dava, su una lastra fotografica posta a valle, solo una macchia diffusa, ma anche una fi­ gura regolare di punti luminosi (in realtà punti anneriti) collocati al di fuori della direzione del fascio incidente. L'esperienza, per la quale due anni dopo Laue ebbe il premio Nobel, dimostrava la natura on­ dulatoria dei raggi X, rispetto ai quali il reticolo ordinato degli atomi del cristallo si comporta come un reticolo di diffrazione; era così di­ sponibile una " sonda" per studiare la struttura interna dei solidi. Sommerfeld disse in seguito: «Le conseguenze di questa scoperta per la comprensione della radia�ione X, della struttura atomica e del­ la struttura cristallina sono incalcolabili». Da allora la struttura reti­ colare di ogni tipo di solido cristallino, ottenuta sperimentalmente da esperienze di diffrazione, è stata presa come punto di partenza per lo sviluppo della teoria, perché la derivazione da principi primi sarebbe troppo laboriosa. La distanza interatomica nei solidi è dell'ordine dell'angstrom. 153

STATI E TRASFORMAZIONI DELLA MATERIA

4.2.2. Si costruisce su basi solide Intorno al I930 si consolidò la convinzione che, grazie all'avvento della meccanica quantistica, tutti i problemi fondamentali della strut­ tura della materia avrebbero potuto essere risolti. I liquidi sono siste­ mi complicati e qui non li discuteremo. I solidi cristallini, grazie alla simmetria nella distribuzione spaziale degli atomi (il concetto di ato­ mo viene usato per comodità di descrizione, anche se, come si è sot­ tolineato, in un solido gli atomi perdono in misura maggiore o mino­ re le loro caratteristiche principali) , possono essere trattati più age­ volmente. Anche assumendo come punto di partenza la struttura cri­ stallina, il problema è formidabile, perché si ha a che fare con un enorme insieme di nuclei e di elettroni. Dal punto di vista matematico la difficoltà è la seguente. Lo stato del sistema (PAR. 4.I) è descritto da una funzione lJI, soluzione dell'e­ quazione di Schrodinger per gli stati stazionari. lJI è funzione delle coordinate R1 degli N nuclei e delle coordinate r1 degli Z · N elettro­ ni che formano il solido (trascuriamo la coordinata di spin, o assu­ miamo che r1 includa anche quella). L'equazione di Schrodinger può essere scritta facilmente, una volta nota la funzione hamiltoniana H, che richiede solo la conoscenza dell'espressione dell'energia cinetica e potenziale coulombiana degli elettroni e dei nuclei:

dove j = I, 2 . . N e i = I, 2 . . ZN; a è un insieme di numeri (i famosi numeri quantici) che indica uno degli stati fisicamente possi­ bili, quelli appunto che corrispondono a soluzioni dell'equazione di Schrodinger. Un'equazione di questo genere, per un sistema che comprenda più di una particella, non è risolubile, dunque non si può conoscere la lJI esatta. .

.

L'approssimazione adiabatica Il primo passo fondamentale per avvicinarsi alla possibilità di ottene­ re una soluzione consiste nel separare l'equazione di Schrodinger completa in due equazioni più semplici, una per lo stato dei nuclei, l'altra per quello degli elettroni. Il metodo approssimato per ottenere questa separazione fu proposto nel I927 da Max Born e da Robert Oppenheimer ( I904-I967) , il fisico che in seguito diresse il Progetto I 54

4· LA STRUTTURA M ICROSCOPICA DELLA MATERIA

Manhattan per costruire la bomba atomica. Intuitivamente si può pensare che, in condizioni ordinarie, gli elettroni si muovono molto più rapidamente dei nuclei, che sono più pesanti, così che gli stati del sistema elettronico e lo spettro dei livelli energetici permessi pos­ sono essere calcolati assumendo che i nuclei occupino posizioni fisse dalle quali esercitano la loro forza elettrostatica; i nuclei a loro volta compiono le loro più lente oscillazioni intorno alle posizioni di equi­ librio del reticolo cristallino sotto l'azione delle forze repulsive inter­ nucleari e delle forze attrattive dovute agli elettroni. In realtà questa approssimazione, detta adiabatica, fu formulata nello studio delle mo­ lecole, ma è anche il pilastro sul quale si basa la teoria dei solidi; grazie ad essa l'equazione di Schrodinger completa si separa in due equazioni, una per gli stati elettronici, l'altra per gli stati nucleari. Il problema viene ulteriormente semplificato se si tiene conto che gli elettroni più legati al nucleo (elettroni interni) si comportano co­ me gli elettroni atomici e hanno scarsa influenza sulle proprietà dei solidi; essi possono essere trattati come parte del nucleo, del quale schermano in parte il potenziale coulombiano, come in uno ione libe­ ro; è sufficiente allora tener conto dell'interazione di questi noccioli ionici con gli elettroni residui (elettroni di valenza) , riducendo così considerevolmente il numero delle variabili in gioco. L'interazione fra stati elettronici e stati di oscillazione nucleari, trascurata in questa prima fase, entra in gioco come correzione in una seconda fase; l'agitazione termica dei noccioli ionici è considera­ ta come una perturbazione che non influisce sullo spettro energetico degli elettroni, ma solo sulla distribuzione degli elettroni fra gli stati permessi. Ad essa si deve, ad esempio, l'esistenza di una resistività elettrica non nulla nei metalli, e la sua dipendenza dalla temperatura. Le quasi-particelle Ottenuta, tramite l'approssimazione adiabatica, la separazione fra sta­ ti elettronici e stati nucleari (o dei noccioli ionici) , si deve ancora affrontare il problema di risolvere equazioni che coinvolgono l'intera­ zione fra molte particelle, e ancora una volta è necessario introdurre approssimazioni, in modo da ridursi ad equazioni più semplici. I vari modelli sviluppati a questo proposito tendono a ricondurre il proble­ ma relativo al sistema di molte particelle interagenti a un sistema di oggetti che non sono più in mutua interazione. Questi nuovi oggetti spesso si chiamano quasi-particelle, perché

155

STATI E TRASFORMAZIONI DELLA MATERIA

delle particelle reali non conservano tutte le proprietà ma · nelle inte­ razioni reagiscono con una energia e una quantità di moto loro pro­ pria; in certi modelli essi hanno un significato intuitivo, perché sono simili alle particelle reali delle quali vogliono descrivere le proprietà fisiche; in altri casi il significato intuitivo si perde almeno in parte. Gli atomi in un gas forniscono un esempio intuitivo (ma impreci: so) di quasi-particella; invece di trattare l'interazione complicata fra tutti i nuclei e tutti gli elettroni, si passa a un sistema ove ogni nu­ cleo lega Z elettroni a formare un atomo neutro (che dunque non è in realtà una particella) e si tiene poi conto dell'interazione fra gli atomi. Nel caso di un sistema di n elettroni di valenza che interagiscono fra di loro e con un reticolo cristallino di N noccioli ionici (n = N per un solido formato da atomi monovalenti), il problema si semplifi­ ca sostituendo l'interazione reale con l'interazione di ogni elettrone con un campo medio (o campo efficace) ; l'equazione complessiva si può così spezzare in tante equazioni, in ciascuna delle quali l'auto­ funzione dipende direttamente solo dalle coordinate di un elettrone; ogni elettrone ha quindi una sua autofunzione, alla quale corrisponde un livello energetico; il campo elettrico statico al quale è soggetto ha la simmetria del reticolo. Questo metodo si dice approssimazione a elettroni indipendenti e, nel caso degli atomi, è stato introdotto da D. Hartree nel 1928. Naturalmente rimane il problema di determina­ re il campo efficace, e questo si fa con modelli semplici o con metodi numerici approssimati (campo auto-consistente) ; per gli elettroni in un solido il campo efficace in ogni caso ha la struttura periodica del reticolo cristallino. Gli elettroni liberi Il modello più semplice di approssimazione a elettroni indipendenti fu sviluppato da Sommerfeld tra il 1927 e il 1930 per spiegare alcune proprietà dei metalli. Egli assunse, senza darne alcuna giustificazione, che un metallo costituito da N atomi monovalenti (per esempio un metallo alcalino, come il sodio) consistesse di N noccioli ionici e di N elettroni di valenza (detti anche di conduzione, perché responsabili delle proprietà elettriche) , che il campo medio su ogni elettrone al­ l'interno del metallo fosse nullo e che ogni elettrone fosse confinato nello spazio fisico occupato dal metallo. Dunque il potenziale attratti­ vo esercitato dagli ioni del reticolo su ogni elettrone per Sommerfeld

4· LA STRUTTURA M ICROSCOPICA DELLA MATERIA

è esattamente bilanciato dalla repulsione media di tutti gli altri elet­ troni, così che ogni elettrone si può considerare come una particella libera entro il volume del metallo che obbedisce alle leggi della mec­ canica quantistica. Questa approssimazione è nota come teoria degli elettroni liberi; gli elettroni si comportano come un gas ideale quanti­ stico, che segue la statistica di Fermi-Dirac; ogni stato quantico dun­ que non può ospitare più di un elettrone. Ideale significa che l'intera­ zione mutua è nulla. Naturalmente non è vero che il gas di elettroni è un gas ideale; da un lato è necessario tener conto del fatto che esiste l'interazione con il reticolo di ioni, dall'altro che la repulsione elettrostatica a lun­ go raggio fra gli elettroni può dar luogo a effetti cooperativi, ad esempio oscillazioni collettive che coinvolgono il gas nel suo comples­ so. Del primo fatto si tiene conto nella teoria delle bande, che spiega finalmente in modo soddisfacente le proprietà dei solidi ideali, for­ mati cioè da un reticolo perfetto, senza irregolarità, quindi dotato di simmetria traslazionale; del secondo nella teoria delle oscillazioni di plasma nei metalli, sviluppata da D. Bohm e D. Pines e nella teoria di Landau del liquido di Fermi (anni Cinquanta) e in genere nelle teorie degli effetti collettivi, o dei molticorpi, che richiedono un' ela­ borazione matematica complessa. Le eccitazioni delle oscillazioni del plasma elettronico nei metalli, trattate con la meccanica quantistica, sono un esempio di quasi-particelle e sono note come plasmoni. La dinamica reticolare L'equazione per gli stati nucleari (o dei noccioli ionici o, per sempli­ cità, degli atomi del solido), ottenuta grazie all'approssimazione adia­ batica, è anch'essa complessa, perché coinvolge particelle in forte in­ terazione. Essa descrive lo stato dinamico degli atomi che oscillano intorno ai nodi del reticolo cristallino, e queste oscillazioni sono for­ temente accoppiate, diversamente da quanto ha assunto Einstein nel suo primo modello. La trattazione si semplifica enormemente se si assume che le forze interatomiche siano puramente elastiche, cioè di­ rettamente proporzionali alla variazione della distanza che separa nel solido le varie coppie di atomi. Questa approssimazione, pienamente giustificabile nel caso in cui le oscillazioni non siano troppo ampie, quindi nella maggior parte dei casi fisici reali, si chiama armonica. La meccanica classica ci insegna che un sistema di N particelle accoppia157

STATI E TRASFORMAZIONI DELLA MATERIA

te elasticamente è energicamente equivalente a un sistema di 3 N oscillatori lineari armonici, e dà il modo per calcolare le varie fre­ quenze di oscillazione (spettro delle frequenze) ; la simmetria del cri­ stallo consente di semplificare il calcolo dello spettro delle frequenze. In altre parole, lo stato di oscillazione di N particelle accoppiate ar­ monicamente è descritto dalla sovrapposizione di 3 N onde sinusoi­ dali nel cristallo, ciascuna onda caratterizzata da una sua frequenza v e lunghezza d'onda A; queste onde hanno una distribuzione di fre­ quenze che va da zero (limite delle onde lunghe elastiche) a un valo­ re massimo tale che la A corrispondente è dell'ordine della distanza interatomica. La funzione hamiltoniana globale del solido cristallino si spezza in una somma di 3 N hamiltoniane, ognuna delle quali con­ tiene solo le coordinate di uno degli oscillatori, di conseguenza l'e­ quazione di Schrodinger si separa in 3 N equazioni, di cui si conosce la soluzione esatta. Abbiamo visto che un oscillatore quantistico di frequenza v può acquistare o perdere energia solo per quantità finite uguali a multipli interi dell'eccitazione elementare h v; lo stato dina­ mico di un cristallo è allora descritto da un gas ideale di queste ecci­ tazioni elementari, che sono le quasi-particelle del sistema. Esse han­ no spin intero, e la statistica di Base-Einstein ci dice come queste quasi-particelle, dette fononi, a una temperatura T sono distribuite fra i vari oscillatori. Alle basse temperature sono eccitati quasi esclu­ sivamente gli oscillatori di bassa frequenza, che corrispondono alle onde elastiche di lunghezza d'onda molto maggiore della distanza in­ teratomica (passo reticolare) ; questo fatto giustifica la bontà del mo­ dello di Debye nello spiegare la dipendenza dalla temperatura del ca­ lore specifico per T � o 0K. I risultati della dinamica reticolare hanno trovato ottime conferme sperimentali grazie alla tecnica di diffusione inelastica dei neutroni. Un neutrone che incide su un solido, interagendo con le oscillazioni del reticolo, può perdere o guadagnare una quantità di energia hv, creando un fonone, o assorbendolo; la variazione di energia può es­ sere misurata agevolmente se l'energia del neutrone è dell'ordine di grandezza dell'energia del fonone ( ro - 2 - I O - r eV) , che corrisponde a quella di un fascio di neutroni lenti (termici) ; misurando le variazioni di energia di un fascio di neutroni incidente su un solido e da esso diffuso, si ottengono le informazioni sulla densità di oscillatori armo­ nici nel solido, in funzione della frequenza. Si è dato finora un cenno della dinamica reticolare in approssima­ zione armonica; se questa fosse rigorosamente esatta, non si spieghe-

4· LA STRUTTURA M ICROSCOPICA DELLA MATERIA

rebbero alcuni fenomeni importanti, come la dilatazione termica dei solidi e la resistività termica degli isolanti. Il passo successivo è l'in­ troduzione delle correzioni portate dai termini anarmonici, ossia dai contributi (piccoli) alla forza di interazione che dipendono da poten­ ze della distanza interatomica superiori alla prima. L'esistenza dell'a­ narmonicità fa sì che il gas di fononi non sia rigorosamente un gas ideale, ma che si abbia un'interazione fonone-fonone. L'interazione fra le quasi-particelle Si è accennato in qualche occasione al fatto che nei solidi l'interazio­ ne fra le quasi-particelle gioca un ruolo essenziale nei processi cineti­ ci: l'interazione elettrone-fonone è responsabile della resistività eletc trica e termica nei metalli, l'interazione fonone-fonone è responsabile della resistività termica degli isolanti. È opportuno aggiungere che l'interazione fra le quasi-particelle rende possibile stati eccitati di tipo interamente nuovo. Si è già detto dell'interazione elettrostatica nel gas di elettroni liberi, che dà luogo alle oscillazioni di plasma e a stati eccitati collettivi quantizzati, le cui eccitazioni elementari prendono il nome di plasmoni. Molto importante è un tipo di interazione elettro­ ne-elettrone mediata dai fononi; essa conduce, in certi metalli e in certe leghe, alla formazione alle basse temperature di stati legati di coppie di elettroni, a spin antiparalleli, le coppie di Cooper. Intuitiva­ mente la formazione di una coppia di Cooper può essere immaginata nel modo seguente: un elettrone che si muove in prossimità degli ioni positivi esercita un'attrazione elettrostatica che ne disturba le oscilla­ zioni e provoca una deformazione locale del reticolo; un secondo elettrone che si muove a una certa distanza dal primo è sensibile a questa deformazione, così che ne risulta un'interazione attrattiva che vince la repulsione coulombiana fra gli elettroni; quindi in pratica i due elettroni interagiscono per mezzo della deformazione reticolare (o campo fononico) . All'esistenza di queste coppie si deve l'appari­ zione della fase superconduttrice; che l'interazione sia mediata dalle vibrazioni reticolati è suggerito dall'effetto isotopico (PAR. 3-7-6) . Le imperfezioni reticolari Abbiamo fin qui tratteggiato a grandi linee le basi essenziali dell'ar­ chitettura che permette di inquadrare le proprietà fisiche (intrinseche) dei solidi ideali, dei solidi cioè formati da una distribuzione nello 159

STATI E TRASFORMAZIONI DELLA MATERIA

spazio di atomi che formano un reticolo dotato di simmetria trasla­ zionale perfetta. Nella realtà i reticoli cristallini contengono, in misu­ ra maggiore o minore, impurezze (atomi estranei) e irregolarità di va­ rio genere, responsabili di proprietà fisiche importanti (proprietà estrinseche), come il colore e la luminescenza di alcuni cristalli, la conducibilità elettrica di alcuni semiconduttori, le proprietà meccani­ che dei metalli. L'esistenza di queste imperfezioni in alcuni casi può essere deri­ vata dalle leggi generali sopra richiamate; ad esempio la meccanica statistica ci dice che in ogni solido in equilibrio termodinamico alcuni dei nodi del reticolo non sono occupati da atomi ma sono vuoti (po­ sti vacantz) . In altri casi è un dato di fatto che dipende da come è stato ottenuto e da come è stato trattato uno specifico campione di solido; ad esempio la presenza, in un solido di un tipo, di atomi di un altro elemento chimico dipende dalla purezza del materiale di partenza, dai metodi di crescita o da un'aggiunta intenzionale (dro­ gaggio) . A questo punto si tratta di scendere dal generale al particolare, ossia di mostrare come le molte proprietà macroscopiche della mate­ ria illustrate nel CAP. 3 rientrano nell'architettura microscopica ora delineata. L� spazio ancora disponibile non ci consente tuttavia una discussione esauriente, dunque dobbiamo accontentarci di qualche esempio significativo. 4·3 I solidi ideali

Sulla base dell'approssimazione adiabatica, dell'approssimazione a elettroni indipendenti, dell'approssimazione armonica e della cono­ scenza della struttura reticolare dei vari tipi di solido siamo in grado di interpretare le proprietà fisiche Jntrinseche dei solidi; queste sono le proprietà dei solidi ideali, ossia di quel modello di solido nel quali sono assenti le imperfezioni reticolati.

4·3 · 1 . Proprietà elettroniche. Teoria delle bande La soluzione dell'equazione di Schrodinger per un elettrone nel po­ tenziale periodico del reticolo fu data per la prima volta da Felix Bloch nel 1927, usando un modello unidimensionale; in seguito furo­ no sviluppati vari metodi per affrontare il problema in tre dimensioni

r6o

4· LA STRUTTURA MICROSCOPICA DELLA MATERIA

nei vari tipi di solido. Le funzioni d'onda monoelettroniche dei vari stati quantici in un solido risultano essere un compromesso fra quelle dell'elettrone libero (onda piana, caratterizzata da una lunghezza d'onda À di de Broglie e da un momento p = (hhn)k, dove /k/ = 2n/À) e quelle degli elettroni atomici, localizzate in prossimità dei nu­ clei del reticolo (FIG. 4.2) ; 1/Jk(r) è dunque il prodotto di un'onda piana, caratterizzata dal suo k, per una funzione che ha la periodicità del reticolo, ed è detta funzione di Bloch. La probabilità di trovare l'elettrone in un punto è distribuita su tutto il reticolo, con addensa­ menti in prossimità degli ioni. Gli autovalori (livelli) dell'energia cor­ rispondenti e(k) sono anch'essi un compromesso fra quelli di un ato­ mo isolato (solo certi livelli Ei sono permessi, tutti gli altri valori sono proibiti) e quelli di un elettrone libero, che ricoprono tutto lo spettro in modo continuo, senza limitazioni. In un solido cristallino i livelli sono distribuiti in modo quasi continuo entro certi intervalli, detti bande di energia permesse, mentre in altri intervalli non si hanno li­ velli permessi (gap proibito) ; si può pensare a una corrispondenza fra i livelli atomici e le bande di energia che hanno origine quando N atomi vengono awicinati fino a formare un solido. FIGURA 4.2 Funzione d'onda di un elettrone in un potenziale periodico

Le sfere ombreggiate indicano i noccioli ionici che octupano i nodi del reticolo; la linea sinusoidale tratteggiata rappresenta l'onda piana che entra nella funzione di Bloch.

In ogni banda permessa gli stati quantici sono distribuiti con una densità g(e) che varia con e; la somma (o l'integrale) di g(e) su una banda dà il numero totale di stati che appartengono a quella banda; tale numero è uguale a N moltiplicato per un numero uguale a quello degli stati atomici che corrispondono al livello di energia dell'atomo da cui la banda ha origine, ossia al grado di degenerazione del livello atomico (PAR. 4.1.2) ; ad esempio, per gli elettroni di valenza dei me-

FIGURA 4·3 Bande di energia e densità degli stati nei solidi cristallini

6AP

PftO I &ITO

&. li l>,t., DI CONDU Z I O N E

� ..

E,

�-'- ·

c } { (t) &ANDA DI COI"Il>U Z I O H E: COMPL(TAI'I ENTE VUOTA

�Nt>A DI VALEIIZA COMPLETA MENTE OCCU P..TA

€. or

}J. ,

162

E. ,

4· LA STRUTTURA MICROSCOPICA DELLA MATERIA

FIGURA 4-3 (segue)

o)

8 (t:)

é.< E)

é.

}'. ,

né l - � T : O" K l l

i< F

T,

E

A) Due bande permesse separate da un gap proibito; in ordinata la densità degli stati in funzione di

E;

B) Cristallo isolante: tutti gli stati della banda di valenza sono occupati; C) Distribuzione di Fermi­ Dirac in un isolante; D) Cristallo metallico: la banda di conduzione è occupata solo parzialmente; E) Distribuzione di Fermi-Dirac in un metallo.

talli alcalini la banda contiene 2 N stati, per gli elettroni di valenza di un sale alogenuro alcalino la banda contiene 6 N stati. Per il princi­ pio di Pauli la banda di valenza di un metallo alcalino può ospitare al massimo 2 N elettroni, quella di un alogenuro alcalino può ospitar­ ne al massimo 6 N. La FIG. 4· 3 illustra in modo schematico due ban­ de permesse, il gap proibito e la densità degli stati. L'ampiezza delle bande è tipicamente dell'ordine di alcuni eV; il gap di energia Eg va­ ria da circa IO eV per alcuni isolanti a quasi zero per alcuni semicon-

STATI E TRASFORMAZIONI DELLA MATERIA

duttori; in alcuni casi le bande permesse si sovrappongono il gap scompare (Ca, Sr, Ba ecc.) e si ha un comportamento metallico. 4-3.2. Gli isolanti La distinzione fra metalli e isolanti si basa sul grado di occupazione degli stati della banda di valenza da parte degli elettroni disponibili. Un solido è isolante se la banda di valenza è piena, ossia se il nume­ ro di elettroni è uguale al numero di stati disponibili, e se la banda successiva, detta di conduzione, è vuota (FIG. 4.3b) . In questo caso un campo elettrico esterno non può creare una ridistribuzione degli elettroni fra gli stati, aumentando il numero di quelli che si muovono in un verso a spese di quelli che si muovono in verso opposto, dun­ que non si ha una corrente elettrica macroscopica; ciò non significa che gli elettroni nel solido siano fermi, ma solo che il numero di quelli che si muovono in versi opposti si bilancia esattamente, così che la corrente netta è nulla. Questa è una diretta conseguenza del principio di Pauli. Un discorso analogo vale nel caso che esista nell'isolante un gra­ diente di temperatura: anche in questo caso la distribuzione degli elettroni non può cambiare, dunque negli isolanti elettrici gli elettro­ ni non contribuiscono alla conducibilità termica, che è affidata solo alle vibrazioni reticolati. La situazione cambia se si eccitano con qualche mezzo fisico gli elettroni dalla banda di valenza alla banda di conduzione, fornendo loro un'energia 2: Eg ; in questo caso infatti la banda è quasi comple­ tamente vuota e l'elettrone eccitato può cambiare energia e velocità sotto l'azione di un campo esterno. Per un isolante con un gap tipico di alcuni eV l'eccitazione si potrebbe ottenere applicando campi elet­ trici dell'ordine del milione di volt per centimetro, ma il sistema non sopporta campi tanto elevati e si ha, prima di raggiungerli, una scari­ ca (rottura del dielettrico) . Se invece un fotone di energia hv 2: Eg incide sull'isolante, si ha l'assorbimento del fotone e l'eccitazione di un elettrone dalla banda di valenza alla banda di conduzione; in pre­ senza di un campo esterno si ha allora un debole passaggio di cor­ rente (fotoconduttività) , alla quale questa volta contribuiscono anche gli elettroni della banda di valenza, che non è più completamente occupata; nella FIG. 4.3b è mostrato il fotoelettrone in banda di con­ duzione e lo stato lasciato vuoto in banda di valenza, che prende il nome di lacuna o buca.

4· LA STRUTTURA MICROSCOPICA DELLA MATERIA

Un fotone con energia hv < Eg non è assorbito da un isolante, perché il fotoelettrone dovrebbe essere eccitato a un valore di e che cade nel gap proibito, al quale dunque non corrisponde uno stato quantico; questa condizione spiega perché lo spettro di assorbimento ottico degli isolanti presenta trasparenza nel visibile (FIG. 3 . 17a) ; il limite della trasparenza, verso le altre frequenze, è tanto più esteso quanto maggiore è Eg · Per una trattazione più accurata è necessario tener conto della possibilità che si formino stati legati elettrone-buca, che possono abbassare la soglia della trasparenza; tali stati prendono il nome di eccitoni e sono un altro esempio di quasi-particella. Dalla teoria delle bande si ottiene anche un altro risultato, appa­ rentemente controintuitivo: sotto l'azione di una forza esterna, dovuta per esempio a un campo elettrico E , l'elettrone in una banda di ener­ gia non si comporta come una particella libera di massa me, ma come se avesse una massa efficace m * che in generale è diversa da me: Festerna

= - eE = m�a

m * può essere maggiore o minore di me, o anche di segno negativo.

Dalla [4. 17] si vede che in quest'ultimo caso, sotto l'azione di uri.a forza esterna, l'elettrone decelera anziché accelerare, ossia reagisce come se avesse carica elettrica opposta a quella dell'elettrone libero; tale comportamento è tipico degli elettroni che hanno energia prossi­ ma al limite superiore di una banda, e che per questo vengono de­ scritti come buche positive, di massa positiva mh * = - me* e di carica + e; lo stato lasciato vuoto nella banda di valenza in seguito a fo­ toeccitazione (FIG. 4-3b) si comporta come una buca positiva; a que­ sto tipo di comportamento si deve l'effetto Hall anomalo, osservato · in alcuni metalli e nei semiconduttori (PAR. 3 -7-4) e interpretato da Rudolf Peierls nel · 1929. Il concetto di massa efficace origina dall'interazione dell'elettrone col potenziale periodico del reticolo; la [4. 17] non è la normale legge della dinamica, perché la forza che compare al primo membro è solo la forza applicata al cristallo dall'esterno e ignora le forze esercitate sull'elettrone dal reticolo; l'azione di queste ultime è tale da modifi­ care la risposta dell'elettrone alla Fest > dunque in realtà la me* non descrive la particella elettrone, ma la quasi-particella elettrone in inte­ razione con il potenziale periodico, che si comporta per il resto come libera; la resistività elettrica infatti non ha origine dall'interazione con il potenziale periodico, ma con le deviazioni da esso, dovute alle

STATI E TRASFORMAZIONI DELLA MATERIA

oscillazioni del reticolo. Il cambiamento dal comportamento tipo elet­ tronico (m� > o) a quello di tipo buca positiva (m� < o) è appunto dovuto al fatto che, quando la lunghezza d'onda associata alla IJik si avvicina al passo reticolare, entrano in gioco effetti di interferenza, provocando una decelerazione della particella che invece dovrebbe essere accelerata dal campo esterno. Il valore della massa efficace nei vari tipi di solido si calcola nel quadro della teoria delle bande. (Questa esposizione è formalmente semplificata perché in realtà m'� non è uno scalare ma un tensore del second'ordine - cfr. Sch ede -, ma la sostanza fisica del ragionamento mantiene la sua validità.) 4·3 · 3 · I semiconduttori Nel considerare piena, per un isolante, la banda di valenza, e vuota la banda di conduzione, si è implicitamente applicata la statistica di Fermi-Dirac al gas ideale di quasi-particelle. Dalle condizioni di nor­ malizzazione infatti risulta che f-lF cade nel mezzo del gap, così che per T = o oK la probabilità di occupazione degli stati nella banda di valenza è uno e la banda è piena (il numero di particelle è uguale al numero degli stati disponibili), mentre la probabilità di occupazione degli stati della banda di conduzione è nulla e la banda è vuota. An­ che a T -=/:- o la situazione non cambia, perché, quando Eg è dell'ordi­ ne di alcuni eV, /(e) è ancora praticamente uno per E :::::; Ev e pratica­ mente zero per e � Ec (FIG. 4.3c) ; occorrerebbero temperature estre­ mamente elevate, che il solido non sopporta, per modificare in misu­ ra significativa questa distribuzione. Ciò significa che in un buon iso­ lante l'agitazione termica non è sufficiente per fornire a un elettrone di vahmza l'energia sufficiente (> Eg ) per portarlo alla banda di con­ duzione. Diversa è la situazione nei solidi semiconduttori, nei quali Eg è relativamente piccolo, dell'ordine di I eV o inferiore. Per T = o °K la distribuzione degli elettroni nelle due bande è come in un isolante, ma se la temperatura è sufficientemente elevata (in buona parte dei casi già alla temperatura ambiente) le code della distribuzione di Fer­ mi-Dirac penetrano nelle due bande permesse. In questo caso si han­ no alcuni stati non occupati nella banda di valenza, che si comporta­ no come buche positive, e un ugual numero di stati occupati nella banda di conduzione, che si comportano come elettroni, con massa efficace appropriata: ambedue le bande contribuiscono alla conduci­ bilità. Quando kT f.lF sono vuoti (FIGG. 4.3d, 4.3e) ; metà degli elettroni ha spin in un verso, l'altra metà nel verso opposto. In questa situazione di ban­ da solo parzialmente occupata il gap d'energia è assente (gli eventuali gap alle energie inferiori sono inefficaci), allora un campo elettrico esterno ridistribuisce gli elettroni fra gli stati in prossimità di f.lF e si ha conduzione di elettricità; anche un gradiente termico produce lo stesso effetto, e per questo gli elettroni di conduzione in un metallo contribuiscono alla conducibilità termica, che è più elevata di quella di un isolante. La prossimità dei livelli energetici degli stati occupati e di quelli vuoti spiega anche le altre proprietà fisiche dei metalli. Un fotone che incide su un metallo viene assorbito, anche quando la sua fre­ quenza (e la sua energia) è piccola, e per questo i metalli presentano assorbimento ottico (sono opachi alla radiazione) su tutto lo spettro. Innalzando la temperatura, l'energia termica media disponibile, dell'ordine di k T, fa sì che gli elettroni con energia in prossimità di f.lF vengano eccitati ai livelli immediatamente al di sopra di f.lF, perché trovano stati permessi e vuoti; gli elettroni più legati, al contrario,

STATI E TRASFORMAZIONI DELLA MATERIA

non risentono della variazione di temperatura, perché non trovano stati disponibili, ossia per il principio di esclusione di Pauli. Poiché per tutte le temperature a cui il metallo può essere portato è k T < < IJp, solo una frazione piccola degli elettroni di conduzione del metallo partecipa a questo processo; le FIGG. 4.3d, 4.3e mostrano la variazio­ ne della probabilità di occupazione degli stati in prossimità di IJF alla temperatura di T, > o 0 K. La statistica classica, basandosi sul model­ lo di un gas classico di elettroni liberi, ciascuno dei quali varia la sua energia cinetica media al variare della temperatura, prevede che il sistema degli elettroni di conduzione dia un grosso contributo (3/ 2 Rn all'energia interna e al calore specifico (3h R) di un metallo, e ciò contrasta con i dati sperimentali. Calcoli semplici mostrano inve­ ce che l'energia media del gas degenere di elettroni sia proporzionale a P e alla densità degli stati al livello di Fermi (g(IJp)) e che il calore specifico elettronico dei metalli sia piccolo e proporzionale a g(IJp) T, in accordo con i dati sperimentali. Anche il debole paramagnetismo dei metalli (paramagnetismo di Pauli) è ben interpretato in questo schema: solo una frazione degli elettroni di conduzione, quelli con energia prossima al livello di Fer­ mi, varia l'orientazione del proprio spin e del proprio momento ma­ gnetico in presenza di un campo magnetico esterno; la maggioranza di essi è bloccata negli stati lontani da IJF, così che il numero di quel­ li con spin in un verso è bilanciato quasi completamente dal numero di quelli con spin orientato nel verso opposto. 4·3·5· Proprietà ferromagnetiche Si è visto che alcuni solidi presentano una magnetizzazione spontanea (in assenza di un campo magnetico esterno H) alle temperature infe­ riori a una temperatura critica Te (PAR. 3 ·7·5 ) . Devono dunque esiste­ re, nel reticolo cristallino, atomi o ioni dotati di un momento magne­ tico non nullo e una forte interazione in grado di allineare tali mo­ menti magnetici, contrastando l'azione disordinatrice dell'agitazione termica (campo locale, o campo medio) . La teoria classica non è stata in grado di spiegare l'origine dell'interazione; un'interazione pura­ mente magnetica fra i momenti magnetici atomici dovrebbe dare campi dell'ordine dei milioni di gauss e questo è impossibile, perché uno ione dotato di momento magnetico genera un campo di soli r .ooo gauss su un posto reticolare vicino, e il campo decresce come r68

4· LA STRUTTURA M ICROSCOPICA DELLA MATERIA

l'inverso del cubo della distanza. Si deve a Werner Heisenberg ( 1927) la prima spiegazione quantomeccanica dell'interazione respon­ sabile dell'ordine magnetico spontaneo; il meccanismo di allineamen­ to degli spin non ha natura magnetica ma dipende, in un modo un po' difficile da spiegare, dal fatto che l'energia di repulsione coulom­ biana di elettroni con spin paralleli è diversa da quella di elettroni con spin antiparalleli. Lo sviluppo della teoria sulla strada aperta da Heisenberg spiega l'esistenza dei vari tipi di ordine magnetico a cui l'interazione quantomeccanica dà origine (FIG. 4-4) . Esperienze di diffusione di neutroni polarizzati, di risonanza magnetica nucleare e di effetto Mossbauer ne hanno confermato l'esistenza. FIGURA 4 · 4

Ordine magnetico

FERROMA10Nii.T1 5MO

F O: R R I M A 6 l'I E.T I S M O

A � T I FE. R R O 1'\ }\ 6 N ET 1

5M0

Le frecce indicano l 'orientazione dei momenti magnetici atomici in u n reticolo schematizzato come uni· dimensionale, per T < < Tn nei tre casi più significativi.

4.3.6. Dinamica reticolare. Modello unidimensionale Si è visto che la meccanica classica consente di calcolare lo spettro di frequenze di un sistema di N particelle accoppiate elasticamente (ap­ prossimazione armonica), quindi di passare da un'unica equazione quantistica che descrive la dinamica dell'intero sistema a 3N equazio­ ni disaccoppiate, una per ognuno dei modi vibrazionali dei 3N oscil­ latori lineari a cui il sistema equivale energicamente. Anche tenendo conto delle grandi semplificazioni dovute al fatto che si ha a che fare con un reticolo periodico, la soluzione del problema è complicata; è istruttivo allora ricorrere a un modello di cristallo unidimensionale che, nonostante la sua artificiosità, contiene alcuni aspetti significativi della dinamica di un cristallo reale (tridimensionale) . Supponiamo di avere una catena lineare infinita biatomica com­ posta cioè di due tipi di atomi, di massa M1 e M2 , posti a una distan-

STATI E TRASFORMAZIONI DELLA MATERIA

za a, e che ognuno di essi sia accoppiato elasticamente ai due atomi prossimi con una forza proporzionale alla distanza (FIG. 4.5 ) . Quan­ do gli atomi sono a riposo nei nodi del reticolo la forza risultante dalle interazioni con i due. atomi vicini è nulla. Quando la catena oscilla (consideriamo per comodità le oscillazioni trasversali), la forza è proporzionale alla variazione della distanza rispetto agli atomi vici­ ni; gli atomi possono oscillare in fase o contro-fase (FIGG. 4.5b, 4.5c) . È facile scrivere le equazioni classiche del moto per ciascun atomo della catena, uguagliando la somma delle forze esercitate dai due ato­ mi vicini al prodotto della massa per l'accelerazione; le soluzioni del­ le equazioni del moto sono onde piane di frequenza v e di lunghezza d'onda À . Si trova infine che per ogni valore di À esistono due oscil­ lazioni di tipo diverso, con due diversi valori della frequenza e si tro­ vano le due relazioni fra v e À (FIG. 4.5d) , dette relazioni di disper­ sione. La figura mostra che nella catena lineare biatomica si hanno vi­ brazioni solo per certi intervalli di frequenze, da zero a una prima frequenza massima, quindi un intervallo proibito, quindi ancora un intervallo di frequenza permesso; il ramo inferiore della curva v ( À ) si chiama branca acustica e, per À grande, descrive le oscillazioni nelle quali i due tipi di atomi si muovono in fase (FIG. 4.5b ) ; il ramo supe­ riore, detto branca ottica, descrive le oscillazioni controfase (FIG. 4.5c) . Il reticolo discreto introduce quindi nello spettro di frequenze delle oscillazioni un gap proibito, analogamente a quanto si è visto per lo spettro di energia degli elettroni. Nella branca acustica, per À > > a, v varia linearmente rispetto a À - r , ossia la velocità di propaga­ zione dell'onda (v À.v) è costante, come in una corda elastica conti­ nua; al diminuire della lunghezza d'onda la velocità di propagazione decresce, fino a che si annulla quando À è uguale al doppio del passo reticolare ( À �) ; questa è anche la più piccola lunghezza d'onda che si può avere nella catena: il reticolo periodico riflette l'onda ela­ stica come, nelle analoghe condizioni di Bragg, riflette i raggi X; si ha allora un'onda stazionaria, che non si propaga. Tenendo conto del fatto che la catena lineare non è infinita, ma è costituita da un numero N finito di atomi, dalla relazione di disper­ sione si ottiene la funzione di distribuzione g( v) per le frequenze de­ gli oscillatori. Poiché la distribuzione statistica di Base-Einstein ci dà il numero medio di fononi (quanti di eccitazione di energia h v;) che stanno su un oscillatore di frequenza V;, in funzione della temperatu­ ra, la conoscenza di g( v) consente di calcolare le funzioni termodina=

=

170

4· LA STRUTTURA M ICROSCOPICA DELLA MATERIA

FIGURA 4-5 Dinamica di una catena lineare biatomica

B)

c)

6RA N C A OTT I C A

D)

A) Catena a riposo; gli atomi sono accoppiati elasticamente; il passo reticolare è uguale al doppio della

distanza a fra primi vicini; B) Oscillazione trasversale in fase (modo vibrazionale acustico); C) Oscilla­ zione controfase (modo ottico); D) Curve di dispersione per la branca acustica e per la branca ottica.

STATI E TRASFORMAZIONI DELLA MATERIA

miche. Naturalmente il caso realistico implica l'estensione dei calcoli da una a tre dimensioni; la trattazione corretta della dinamica di un reticolo cristallino fornisce allora anche la giustificazione del modello approssimato di Debye. Il modello unidimensionale ora esaminato rappresenta, entro certi limiti, la dinamica di un cristallo ionico (tipo NaCl) formato da due tipi di ione di massa e di carica differenti. In un cristallo ionico quando gli ioni oscillano controfase (branca ottica) creano nel solido dipoli elettrici oscillanti, che interagiscono con una radiazione elettro­ magnetica della stessa frequenza assorbendola e riflettendola; nel pro­ cesso di assorbimento il fotone incidente crea un fonone colla stessa frequenza e la stessa quantità di moto. L'assorbimento dovuto alla dinamica reticolare cade nell'infrarosso, nell'intervallo spettrale fra À uguale ad alcuni micron, per i sali di ioni leggeri (Li F) e À uguale ad alcune decine di micron, per i sali di ioni pesanti (Cs l) (FIG. 3 . 17a) . 4·4 I solidi reali. Le imperfezioni reticolati

4-4-r . I posti vacanti La presenza in un solido di certi tipi di imperfezioni reticolati è ben interpretata dalla meccanica statistica. Un cristallo è nello stato di equilibrio termodinamico alla temperatura T quando è minima l'ener­ gia libera. Consideriamo un tipico difetto puntiforme, il posto vacan­ te, dovuto semplicemente al fatto che un nodo del reticolo, normal­ mente occupato da un atomo, è invece vuoto (FIG. 4.6) e calcoliamo la variazione di energia libera L1F quando si passa da un reticolo per­ fetto, costituito da N atomi nelle posizioni regolari, a un reticolo im­ perfetto, nel quale esistono anche n posti vacanti (e supponiamo che sia n < < N) ; dalla relazione [2.2] si ha: L1F(n) = L1 U(n) - TL1S(n) Per creare un posto vacante, spostando un atomo dalla sua posizione regolare nel reticolo alla superficie del cristallo, si spende un'energia 4Jv, dell'ordine dell'energia di legame dell'atomo nel cristallo; in molti casi significativi 4>v è dell'ordine dell'eV; per creare n posti vacanti si spende un'energia n4Jv, dunque il termine L1 U(n) innalza l'energia li­ bera e allontana dalle condizioni di equilibrio. Un ruolo opposto, sta­ bilizzante, gioca il contributo entropico - TL1S(n), e dalla differenza

4· LA STRUTTURA MICROSCOPICA DELLA MATERIA

FIGURA 4.6

Imperfezioni puntiformi, illustrate schematicamente sul piano di un reticolo cu­ bico semplice l ��

P05 TI

,.....,

VACANT l

f-

� l �

]� ATOMI

I M PU R E Z Z E

505T I TUZ I ONAU

'-

l•



I N T E: R 5T I Z I A L I

L

>t Te) ed è assunta come parametro d'ordine della transizione. Nell'esempio considerato si ha che la dipendenza di M dalla temperatura, per T � Te, è de­ scritta dalla stessa relazione [5.9] che vale per la densità, con lo stes­ so esponente {J. La similarità nella dipendenza dei due parametri d'ordine dalla temperatura risulta anche, qualitativamente, dal con­ fronto fra la FIG. 3·7 e la FIG. 3.26, ove si tenga conto che M può assumere due opposte orientazioni. Per la singolarità del calore speci­ fico vale la relazione [5 . 7] , ancora con lo stesso esponente critico a. La funzione termodinamica che, per le transizioni magnetiche, corrisponde alla compressibilità è la suscettività magnetica isoterma ( =

193

STATI E TRASFORMAZIONI DELLA MATERIA

al suo valor medio. Forze di varia natura, nei vari sistemi fisici in cui si hanno fenomeni critici, tendono a stabilizzare la fase ordinata, mentre l'agitazione termica le contrasta efficacemente. Ma anche quando, per T > Te, TJ è nullo, all'approssimarsi della temperatura critica le forze ordinatrici provocano la formazione temporanea, in regioni spazialmente limitate del sistema, di un ordine esteso, ossia le fluttuazioni diventano significative. Ad esempio, nel caso di sistemi magnetici, regioni ordinate ma­ gneticamente, ma disposte a caso, in modo che la magnetizzazione di tutto il sistema risulti nulla; nel caso della transizione gas-liquido, esi­ steranno zone più dense e zone meno dense, pur rimanendo costante la densità media del fluido. L'opalescenza critica, come si è detto, è una manifestazione di queste fluttuazioni di densità; si ha aumento della diffusione quando la lunghezza di coerenza delle fluttuazioni della densità del mezzo diventa dell'ordine della lunghezza d'onda della luce incidente. Tali regioni non sono stabili nel tempo, ma si disfano e si forma­ no continuamente; la loro estensione spaziale e la loro durata tempo­ rale sono tanto più rilevanti quanto più ci si approssima al punto critico, al di sotto del quale lo stato più ordinato diventa termodina­ micamente stabile (TJ > o) . Defmiamo un parametro d'ordine TJ(r) , che misura il grado d'ordine del sistema nell'intorno del punto r; T/ è il valor medio di TJ(r) su tutto il sistema, ma localmente TJ(r) fluttua, ossia si discosta dal valor medio. L'estensione delle regioni in cui TJ(r) non cambia il suo valore si chiama lunghezza di coerenza, e può essere misurata con tecniche sperimentali di vario tipo; la lungh ezza di coerenza è il parametro essenziale nell'interpretazione dei fenomeni critici; essa tende all'infinito per T � Te, quando tutto il sistema diventa ordi­ nato. Lo studio delle fluttuazioni spontanee in prossimità del punto cri­ tico ha portato in tempi recenti a porre le basi per l'interpretazione soddisfacente dei fenomeni critici; un contributo essenziale è venuto da K. G. Wilson, il quale introdusse un metodo di calcolo noto come gruppo di rinormalizzazione; a Wilson nel 1983 è stato conferito il premio Nobel. fra il valore istantaneo e il valor medio. Nei sistemi macroscopici, lontano dal punto critico, le fluttuazioni sono piccole; per valutarne l'entità si calcola il valor medio del quadrato della fluttuazione < ( A U)2>. =

194

Schede

Derivata e gradiente

Consideriamo una funzione /(x) della variabile x. Se incrementiamo la varia­ bile di una quantità .d x la funzione assume il valore /(x+ .dx), ossia subisce un incremento .d/ = /(x+ .dx:) - /(x) . Il rapporto incrementale .d/(x)/.dx di­ pende da x e da .dx; quando .dx � o anche L1/(x) tende a zero. Si chiama derivata prima di /(x) nel punto x il limite, se esiste, del rapporto incremen­ tale per .dx � o , e si scrive: d/(x) d(x)

lim

Llx->o

M( x ) .d x

Il concetto può essere facilmente esteso al caso in cui / sia funzione di più variabili; si parla allora di derivate parziali e si usa il simbolo anziché d. La derivata è dunque ancora una funzione della variabile {)x e indica la rapidità con cui varia, in ogni punto, la funzione /(x) . Nelle scienze naturali, e in particolare nella fisica, l'operazione di derivazione stabilisce il legame fra coppie di variabili che descrivono le proprietà di un sistema. La tempera­ tura assoluta, ad esempio, è la derivata dell'energia interna U rispetto all'en­ tropia 5, se il volume del sistema non cambia ( PAR. 2.5) . Consideriamo una funzione /(x, y, z) dove le variabili indicano le coordi­ nate cartesiane di ogni punto P(x, y, z) del sistema fisico considerato; f può essere la temperatura, o il potenziale elettrico, o la densità, o un altro para­ metro fisico il cui valore numerico (scalare) dipende da P. Il gradiente di f è il vettore: "V/ =

{)j i + {)j . + {)j k f>z f>x by J

dove i, j, k sono i versori (vettori unitari) orientati come gli assi cartesiani e i fattori che li moltiplicano sono le derivate prime di / lungo le direzioni x, y,

195

STATI E TRASFORMAZIONI DELLA MATERIA

Il gradiente è un vettore, definito in ogni punto, che descrive la variazione di f nello spazio; una funzione che ha lo stesso valore in tutti i punti del sistema ha ovunque gradiente nullo; un gradiente grande indica che la fun­ zione, nell'intorno di quel punto, varia rapidamente. Ad esempio, la forza F è uguale al gradiente dell'energia potenziale, cam­ biata di segno.

z.

Prodotto scalare

Prodotto scalare di due vettori v(vx, Vy, Vz) e w(wx, Wy, Wz) :

o anche, se {) è l'angolo fra i due vettori: v ·

w

=

v w cosfJ

Esso è dunque un numero. Il lavoro ::i che si compie spostando una forza dal prodotto scalare: ::i

=

F ·

br

=

F

per un tratto Dr è dato

F D r cosfJ

esso è nullo se F è perpendicolare allo spostamento br, perché allora cosfJ è nullo ({} = :n:h ) . Prodotto vettoriale

Dati i due vettori

v

e u, definiti attraverso le loro componenti cartesiane V =

u

=

Vxi + Vyj + Vzk, u) + uyj + Uzk,

il loro prodotto vettoriale w è un vettore così definito:

w è un vettore di direzione perpendicolare al piano individuato da u e da v , di modulo pari al prodotto u · v sin {) e verso tale che la freccia di w vede ruotare u su v in senso antiorario; {) è l'angolo fra u e v . Se u è parallelo a v il prodotto vettoriale è nullo. ·

SCHEDE

Scalari, vettori, tensori Grandezza scalare

caratterizzata da un numero. Es. : densità, temperatura,

tempo, massa. caratterizzata da un numero, una direzione, un verso (come una freccia); un vettore v è caratterizzato dalle tre componenti carte­ siane vx, vy, v., ossia dalle tre proiezioni secondo gli assi x, y e z, e si scrive v (vx, vy, Vz) . Un vettore è detto anche tensore del prim'ordine. Es. : velocità, accelerazione, forza, spostamento, corrente elettrica. Il gradiente di uno sca­ lare è un vettore. Grandezza vettoriale

Grandezza tensoriale caratterizzata da nove componenti (tensore del secon­ d'ordine), da r8 componenti (tensore del terz'ordine) . . . da 3n componenti per un tensore di ordine n. In molti casi alcune delle componenti sono nul­ le, altre sono uguali fra loro.

La relazione lineare fra due vettori è espressa tramite un tensore del secon­ d'ordine. Ad esempio le legge di Ohm si scrive per mezzo del prodotto sca­ lare del tensore conducibilità e del campo elettrico i = a·

E

OSSia t� = axx Ex + axy Ey + axz Ez, più le relazioni analoghe per iy e iz.

Es. : conducibilità elettrica e termica in un mezzo anisotropo (tensore del second'ordine) ; costanti elastiche (tensore del quart'ordine) .

197

Bibliografia

BORN M . , Fisica atomica,

BRAGG

w.,

Boringhieri, Torino 1976.

Concerning the Nature o/ Things, Dover, New York 1948. CARERI G . , Ordine e disordine nella materia, Laterza, Bari 1982. FLOWERS B. H., MENDOZA E., Properties o/ Matter, Wiley, New York 1989. GUINIER A., JULLIEN R., The Solid State, Oxford University Press, Oxford

1989.

HOLDEN A. , The Nature o/ Solids,

Columbia University Press, New York

1965 .

KASTLER A., Questa strana materia, EST

Mondadori, Milano 1977. Boringhieri, Torino

KITTEL c . , Introduzione alla fisica dello stato solido,

1971 .

LANDAU L., KITAIGORODSKIJ A., La fisica per tutti,

Editori Riuniti, Roma

1980.

PEIERLS R. E., Le leggi della natura,

Boringhieri, Torino 1960.

199

Indice analitico

Accettore, 175 acciaio, 5 1 , 65-6 acqua, 14, r6, 43, 47 diagramma di fase adiabatica, approssimazione, 155 adiabatiche, trasformazioni, 34 Alnico, 109 alogenuri alcalini, 98 d'argento, 98 ammoniaca, 17 amorfo, 6o, I I 9 conducibilità termica dell', 87 Anassimene, I I Andrews T . , 17, r89 Angstrom A. ]., r 5 anidride carbonica, r 5 anisotropia, 6o antiferromagnetismo, 102, r69 aria, 1 3 Aristotele, I I - 2 assorbimento ottico, 75, 8r coefficiente di, 76 spettro di, n-8 atomo, 12, 131 Avogadro A., 32 numero di, 32, 131 bande, teoria delle, r6r Bardeen J., I I I Becquerel E., 75

Bednorz G., I I I Biot J.-B., 69 Bitter F. B., ro5 Bloch F., r6r funzione di, r6r parete di, 104 Bohm D., 157 Bohr N., 138, 153 Boltzmann L., 25, 144 costante di, 32 Born M., 151, 155 Bo se-Einstein, statistica di, 148, r 58, !70 bosoni, 148 Boyle R. , 15, 31 Bragg W. H. e L. W., 151 Braun F., 93 Broglie L. de, 140 lunghezza d'onda di, 140 Cailletet P., r8 calore latente, r8r, r84, r 86 specifico, 19, 21, 34, 8o, 82, 146, !52 caloria, 21 campo auto-consistente, 156 carbonio, 13 Carnot S., 24 Cartesio, 68 Cavendish H., 48, 69

20!

STRUTTURA DELLA MATERIA

cella unitaria, 59 celle solari, 122 centri di colore, 79, 174 Charles J. A. C., 32 Clausius R. , 25 compressibilità, 84 conducibilità elettrica, 87 ionica, 98 termica, 85-7, 159 Cooper L., I I I coppie di, 159 costante dei gas, 19, 31 dielettrica, 49 Coulomb, forza di, 131, 136 cristalli ionici, 151 liquidi, 12 3 critici, fenomeni, r8r, r88 Curie P., 64, I I 8 temperatura di, 64, r o r , 107, 190 Dalton ]., 32 legge di, 32 Davisson C. ]., 140 Davy H., 17 Debye P., 152, 157 temperatura di, 82 deformazione plastica, 72, 90, 176 degenerazione, 140 Democrito, 12, 131 densità ottica, 77 Dewar J., r8 diamagnetismo, 100 diamante, r6 diffrazione elettronica, 140 Dirac P. A. M., 142 donare, 175 Drude P., 151 Dulong L., 69 Dulong e Petit, legge di, 8r, 152 duralluminio, 65 Duvez P., 122

eccitoni, 165 Einstein A., 24, 136-7, 152, 189 elasticità, 70 elemento, r2 elettrete, 64 elettriche, proprietà, 69 elettromagnetismo, 136 elettrone volt, 137 elettrostrizione, n7 elio, r8 liquido, r6, 54 embolia, 5 1 Empedocle, I I energia fluttuazioni, 145 interna, 23, 33, 40, 144 libera (di Helmholtz) , 26, 173 libera (di Gibbs), 52, r8o valor medio, 144 entropia, 20, 25, 53, 145, r88 equazione di stato, 27, 181 dei gas reali, 36 del gas ideale, 3 1 Eraclito, I I espansione termica, 82-3, 159 Faraday M., 17, 64, 69, 92, 98 fase, 13, 179 diagramma di, r8r transizione di, 13 Fermi, livello di, 147 Fermi-Dirac, statistica di, 147, 157 fermioni, 147 ferrimagnetismo, ror, 169 ferroelettricità, 117, 191 ferromagnetismo, ror, 151, 169, 190 cicli di isteresi, ro6 domini, 104 fibre ottiche, 68, 121 fluorescenza, 75 fluttuazioni, 145, 189, 194 fononi, 158, 170 fontana, effetto, 56

202

INDICE ANALITICO

Invar, 84, no isolanti, 77, 90, 162-3 termici, 85 isoterme, trasformazioni, 32 isotopi, n4, 132

fosforescenza, 75 fotoconduttività, 93, 164 fotoelettrico, effetto, 81 fotone, I37 Fourier J., 69 fullereni, 16, I n funzione di distribuzione, 144 fusione nucleare, 126

Josephson B. D., I I5 effetto, n 5 Joule ]. P., 23, 40 esperienza di, 3 3 Joule-Thomson, effetto, 40

Galilei G., 68 galvanomagnetici, effetti, 95 gas, 16 reali, 36 struttura molecolare, 150 Gassendi P., 131 Gay-Lussac ]. -L., 32 germanio, 93, 176 Germer L., 140 Gibbs J. W., 144 ghisa, 5 1 , 65 Gilbert W., 64 grafite, 13, 16, 6o Griineisen, relazione di, 83 gruppo di rinormalizzazione, 194 Guericke O. von, 31 Guillaume C.-E., 83

Kamerling Onnes H., 18, 42, no, II2, 153 Kant I., 130 Kapitza P. L., 56 Klitzing K. von, 97

Hall E. H., 96 effetto, 96, 165 effetto quantizzato, 98 hamiltoniana, 135 Hartree D., 156 Heisenberg W., 138, 152, 168 principio di indeterminazione, 138 Helmont ]. B. von, 14 Higgs, bosone di, 12 Hooke R., 70 legge di, 71 idrogeno, atomo di, 139 imperfezioni cristalline, 66, 160, 174 impurezze, 92, 174, 177

lacuna (buca) elettronica, 163 Lambert, legge di, 76 Landon, teoria di, 157 laser, So Lane M. von, 59, 153 Lavoisier A. L., 48 leggi di conservazione, 135 leghe, 67, 73, 192 Lehman 0., 123 Leibniz G. W., 22 Leucippo, 12, 131 levitazione magnetica, I I 3 Linde K. von, 42 liquido, 16, 42 Lorentz H. A., 151 luminescenza, 75 , 79, 81 Mach E., 131 Madelung E., 151 magnetismo, 64 magnetiche, proprietà, 100 magnetocardiografia, n6 magnetoencefalografia, 1 16

203

STRUTTURA DELLA MATERIA

magnetoresistenza, 95 magnetostrizione, 110 Mariotte E . , 3 1 martensite, 66 massa efficace, 165 Maxwell J. C., 136, 144 meccanica classica, 134 quantistica, 138 relativistica, 136 statistica, 20, 143 meccaniche, proprietà, 70, 177 Meissner W., 112 effetto, 113 Mendeleev D., 184 tavola di, 132 metalli, 77, 151, 167 modello degli elettroni liberi, 157 microscopia elettronica, 65 mobilità, 97 monocristallo, 58 metodi di crescita, 61 Mott N., 176 Miiller A., 1 1 1

Peierls R., 165 Permalloy, 109 permeabilità magnetica, 107 peso statistico, 145, 173 Petit A., 69 Petrus Peregrinus, 64 Pictet R. P., 18 piezoelettricità, 118 Pines D., 157 piroelettricità, 119 Planck M . , 137 costante di, 97, 132, 137 plasma, 125, 150 plasmoni, 157 policristallo, 58 polimorfismo, 62, 187 potenziale chimico, 180 pressione critica, 46 Pristley ]., 48 Prout W., 12 punto critico, 18, 39, 46, 183 À, 56 triplo, 182

Néel, temperatura di, 102 Nerst W., 26 Newton L, 68, 129

quasicristalli, 122 quasi-particelle, 156

Ohm G. S., 69 legge di, 88 onde sonore, 34 opalescenza critica, 189 Oppenheimer R. , 155 oscillatore armonico, 140 ossido di silicio, 121 ottiche, proprietà, 67, 74

radar, 95 Réaumur R. A., 59 Reinitzer F., 123 resistività elettrica, 88, 91 reticolo cristallino, 151 risonanza magnetica nucleare, 8o paramagnetica elettronica, 79 Rutheford E., 132

paramagnetismo, 101 di Pauli, 101, 168 parametro d'ordine, 189 Pauli W., 24, 142

Schriffer R., 111 Schrodinger E . , 139 equazione di, 139, 154 semiconduttori, 69, 77, 92, 166 204

INDICE ANALITICO

bande di energia, I64 conducibilità, 93-4 Seneca L. A., I5 silicio, 93, 175 simmetria, rottura, I90 smagnetizzazione adiabatica, IOI Smoluchowski R. , I89 Smith W., 93 solido, I6, 58 solubilità, 52 soluzioni, 50 Sommerfeld A., I38, I53 -4, I56 soprassaturazione, 52 spin, I32, I42 SQUID, 115 stati corrispondenti, 40 sublimazione, I84 superconduttività, no campo, 112 effetto isotopico, 114 effetto tunnel, I I 5 teoria BCS, I I I superconduttori ad alta temperatura critica, I I I del primo tipo, I I5 del secondo tipo, n6 transizioni di fase, . I92 superfluidità, 54, I92 dell'He3, 58 superionici, conduttori, 99 superleghe, 74 suscettività elettrica, II7 magnetica, IOO, I9I Talete, I I , 64 temperatura, 2I critica, 46, I8o termiche, proprietà, 68, 8o termodinamica, 10 primo principio, 2 3

secondo principio, 24 terzo principio, 26 zeresimo principio, 2I Thomson B., conte Rumford, 23 Thomson G. P., I40 Thomson ]. J., I32 Thomson W., lord Kelvin, 40 Torricelli E., 68 transizioni di fase, 56 del primo ordine, I8I transizioni ordine-disordine, I88, I9I, I93

umidità, 45

Van der Waals ]. D., 37, 47, I89 equazione di, 37 vapore, tensione di, 45 vaporizzazione, 44 vetri, I6, 67, 119 di spin, I02 metallici, I09, I22 viscosità, I6, 54, I20 vita media, 75 Volta A., 69

Weiss P., I5I Wiedemann-Franz, legge di, 89 Wilson C. T. R. , 46 camera a nebbia, 46 Wilson K. G., I94 X,

diffrazione, 59, 65, 8I, I53

Young, modulo di, 7I

205

La Nuova Italia Scientifica

Collana " B i b l i oteca Scientifica " :

DAL CALORE ALL'ENTROPIA Una introduzione alla termodinamica d i Matilde Vicent i n i M issoni

IL SISTEMA I M M U N ITARIO

Selezione, specificità e memoria d i Paola Ricciard i-Castagnoli

l RITMI

q EL

MARE

Sedimenti e dinamica delle acque di Franco Ricci Lucchi

LA FISICA DEl MEDICI d i Cesare Bacc i , Claudio Furetta

L'INGEGN ERIA DELLE MOLECOLE Le reazioni nella chimica organica

di Fulvio Di Furia, Umberto Tonellato

l MATERIALI I NORGANICI d i G i u l iano Morett i , Piero Porta

L'ENERGIA DEl VIVENTI Fotosintesi e Bioenergetica di Bruno Andrea Melandri

I L PIANETA MAGN ETICO Introduzione al geomagnetismo d i Antonio Meloni

STRUTTURA E FUNZIONE DELLE PROTEINE d i Giuseppe Rotil i o

In preparazione:

LE MEMBRANE d i G i u l io Alberti , Enrico Drioli

SPAZIO E TEMPO N ELLA SCIENZA CONTEMPORANEA di Enrico Bellone

PRINCIPI E M ECCANISM I DELLO SVI LUPPO EMBRIONALE d i Edoardo Boncinelli

MACROMOLECOLE BIOLOGICHE di Pasquale D e Santis, M aria Savino

DINAMICA DEL SISTEMA SOLARE d i Paolo Farinella