Metodi Matematici Della Fisica   [1 ed.]
 8847008336, 9788847008335, 9788847008342 [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Collana di Fisica e Astronomia

A cura di: Michele Cini Stefano Forte Massimo Inguscio Guido Montagna Oreste Nicrosini Franco Pacini Luca Peliti Alberto Rotondi

Giampaolo Cicogna

Metodi Matematici della Fisica

123

GIAMPAOLO CICOGNA

Dipartimento di Fisica "E. Fermi" Università degli Studi di Pisa

Springer-Verlag fa parte di Springer Science+Business Media springer.com © Springer-Verlag Italia, Milano 2008 ISBN 978-88-470-0833-5 e-ISBN 978-88-470-0834-2 Quest’opera è protetta dalla legge sul diritto d’autore. Tutti i diritti, in particolare quelli relativi alla traduzione, alla ristampa, all’uso di figure e tabelle, alla citazione orale, alla trasmissione radiofonica o televisiva, alla riproduzione su microfilm o in database, alla diversa riproduzione in qualsiasi altra forma (stampa o elettronica) rimangono riservati anche nel caso di utilizzo parziale. Una riproduzione di quest’opera, oppure di parte di questa, è anche nel caso specifica solo ammessa nei limiti stabiliti dalla legge sul diritto d’autore, ed è soggetta all’autorizzazione dell’Editore. La violazione delle norme comporta sanzioni previste dalla legge. L’utilizzo di denominazioni generiche, nomi commerciali, marchi registrati ecc., in quest’opera, anche in assenza di particolare indicazione, non consente di considerare tali denominazioni o marchi liberamente utilizzabili da chiunque ai sensi della legge sul marchio. Riprodotto da copia camera-ready fornita dall’Autore Progetto grafico della copertina: Simona Colombo, Milano Stampa: Grafiche Porpora, Segrate, Milano Stampato in Italia Springer-Verlag Italia s.r.l., Via Decembrio, 28 - 20137 Milano

Prefazione

Questo libro trae la sua origine dagli appunti preparati per le lezioni di Metodi Matematici della Fisica tenute al Dipartimento di Fisica dell’Universit` a di Pisa, e via via sistemati, raffinati e aggiornati nel corso dei (molti) anni di insegnamento. Tuttavia, questi appunti sarebbero rimasti nella loro primitiva stesura senza l’aiuto di Emilio d’Emilio (a cui desidero rivolgere un caloroso e amichevole ringraziamento) che ha voluto ricopiare il manoscritto originale, per conferirgli una veste tipografica presentabile. Ringrazio anche Mariella Loffredo e mia moglie, che hanno riletto con grande cura l’intero testo. Un ringraziamento infine a tutti gli studenti che mi hanno segnalato sviste e imprecisioni nelle precedenti versioni. Per alcuni anni il testo `e stato stampato e distribuito agli studenti di Pisa dal Servizio Editoriale dell’Universit` a; finalmente, grazie anche all’incoraggiamento di Giuseppe Gaeta, questo libro, nuovamente riorganizzato e ulteriormente arricchito, `e infine approdato alla Casa Editrice Springer Italia. Ringrazio la sig.a Marina Forlizzi per la sua assistenza nella preparazione del testo in conformit` a agli standard di Springer. La stesura originale di queste lezioni risale al tempo in cui era in vigore il Vecchio Ordinamento degli studi, in cui il corso di Metodi Matematici della Fisica era un unico corso “istituzionale” che doveva coprire tutta la materia. Con l’avvento del Nuovo Ordinamento e la presenza di diversi Moduli di Metodi Matematici, si `e presentato il problema di come frazionare e adegua` stato subito deciso di mantenere sostanzialmente la vecchia re la materia. E impostazione, preferendo cio`e privilegiare una esposizione completa e senza interruzioni di ciascun argomento; la divisione del libro in Prima e Seconda Parte `e semplicemente dovuta a comodit`a di esposizione e non significa n`e intende suggerire che gli argomenti da svolgere in un Primo Modulo debbano necessariamente coincidere con la Prima Parte e quelli del Secondo con la Seconda Parte. Anzi, una buona alternativa pu` o essere quella di anticipare la presentazione di alcuni argomenti “di base” in modo da renderli immediatamente utilizza-

VI

Prefazione

bili, come la serie di Fourier e le prime propriet` a degli operatori negli spazi di Hilbert, insieme con le nozioni preliminari della trasformata di Fourier (i primi paragrafi del Capitolo 2 e del Capitolo 4, rispettivamente). Questi argomenti possono poi venire opportunamente sviluppati e approfonditi, insieme con varie altre nozioni e con tecniche matematiche pi` u raffinate, in Moduli successivi. Un’altra scelta, per esempio, pu` o essere quella di anticipare il Capitolo 3, che `e dedicato alle funzioni di una variabile complessa e che `e sostanzialmente indipendente dai primi due Capitoli. Per quanto riguarda il contenuto degli altri Capitoli, resta solo da specificare che il Capitolo 1 `e semplicemente un ripasso “guidato” e finalizzato agli sviluppi successivi, di nozioni che dovrebbero essere in buona parte gi` a ben note, mentre il Capitolo 5 `e dedicato alla teoria e alle applicazioni delle distribuzioni (soprattutto le distribuzioni temperate). L’Appendice A infine `e una presentazione delle prime nozioni di teoria dei gruppi, delle algebre di Lie e delle simmetrie in vista delle loro applicazioni alla fisica. L’intento generale di questo libro `e di fornire una presentazione per quanto possibile semplice e diretta dei metodi matematici basilari e rilevanti per la Fisica. Anche allo scopo di mantenere questo testo entro i limiti di un manuale di dimensioni contenute e di agevole consultazione, sono stati spesso sacrificati i dettagli tecnici delle dimostrazioni matematiche (o anzi le dimostrazioni per intero) e anche i formalismi eccessivi, che tendono a nascondere la vera natura dei problemi e la via pi` u adatta per affrontarli. Al contrario, si `e cercato di evidenziare – per quanto possibile – le “idee sottostanti” ai diversi procedimenti. Anche le applicazioni proposte sono quelle che meglio e pi` u direttamente illustrano i procedimenti stessi, tralasciando altre applicazioni (Meccanica Quantistica, Elettromagnetismo, Equazioni alle Derivate Parziali, Funzioni Speciali, tanto per fare qualche esempio) che sconfinano in differenti discipline. In conclusione, l’obiettivo principale `e quello di mettere in condizione chi ha letto questi “appunti” di acquisire gli strumenti adatti e le conoscenze di base che gli permettano di affrontare senza difficolt`a anche testi ben pi` u avanzati e impegnativi.

Pisa, Aprile 2008

Giampaolo Cicogna

Indice

Parte I Strutture vettoriali nella fisica 1

Spazi a dimensione finita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Primi esempi di strutture vettoriali . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Spazi vettoriali (a dimensione finita) . . . . . . . . . . . . . . . . . . . . . . . 1.3 Matrici come trasformazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Cambiamenti di base e matrici unitarie . . . . . . . . . . . . . . . . . . . . . 1.5 Autovalori e autovettori di una matrice . . . . . . . . . . . . . . . . . . . . . 1.6 Diagonalizzazione di una matrice hermitiana . . . . . . . . . . . . . . . . 1.7 Problemi agli autovalori: applicazioni . . . . . . . . . . . . . . . . . . . . . . 1.8 Proiettori e decomposizione spettrale di una matrice . . . . . . . . . 1.9 Considerazioni geometriche sulle trasformazioni del piano reale 1.10 Gruppi di simmetrie e gruppi di matrici . . . . . . . . . . . . . . . . . . . . 1.11 Strutture vettoriali e principio di sovrapposizione . . . . . . . . . . . .

5 5 7 9 11 13 14 17 22 24 26 28

2

Spazi di Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Equazione di d’Alembert. Onde stazionarie . . . . . . . . . . . . . . . . . 2.2 Primi problemi concernenti gli spazi a dimensione infinita . . . . 2.3 La serie di Fourier nell’analisi elementare e le sue difficolt` a. . . . 2.4 Evoluzione temporale di un’onda elastica . . . . . . . . . . . . . . . . . . . 2.5 L’equazione del calore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Prodotto scalare e norma: definizione generale . . . . . . . . . . . . . . . 2.7 Il concetto di norma come “distanza” . . . . . . . . . . . . . . . . . . . . . . 2.8 Alcune osservazioni sulla integrazione delle funzioni . . . . . . . . . . 2.9 Lo spazio L2 (I) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.10 Lo spazio di Hilbert: definizione generale . . . . . . . . . . . . . . . . . . . 2.11 Sistemi indipendenti e ortonormali . . . . . . . . . . . . . . . . . . . . . . . . . 2.12 Serie di Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.13 Sistemi completi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.14 Spazi separabili e lo spazio 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.15 Trasformazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29 29 32 33 37 39 40 42 44 46 48 49 50 52 55 59

VIII

Indice

2.16 2.17 2.18 2.19 2.20 2.21 2.22 2.23 2.24 2.25 2.26 2.27 2.28 2.29

Continuit` a e limitatezza di una trasformazione lineare . . . . . . . . Una applicazione concernente il problema della corda elastica. . Operatore aggiunto. Operatori unitari. Proiettori . . . . . . . . . . . . Autovalori ed autovettori. Spettro di un operatore . . . . . . . . . . . Problema di Sturm-Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . L’equazione di d’Alembert in due dimensioni . . . . . . . . . . . . . . . . Equazione di Sturm-Liouville con punti singolari. Alcune funzioni speciali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Equazione di Laplace e funzioni armoniche . . . . . . . . . . . . . . . . . . Equazioni alle derivate parziali. Il metodo di d’Alembert . . . . . Funzionali. Teorema di Riesz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Operatore aggiunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Operatori chiusi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Varie nozioni di convergenza per successioni di vettori e operatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Operatori compatti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

60 63 64 68 71 74 75 79 82 84 85 86 89 91

Parte II Funzioni di variabile complessa. Trasformate integrali. Distribuzioni 3

Funzioni di una variabile complessa . . . . . . . . . . . . . . . . . . . . . . . . 97 3.1 Prime definizioni. Condizioni di olomorfia . . . . . . . . . . . . . . . . . . . 97 3.2 Serie di potenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 3.3 Integrazione delle funzioni di variabile complessa . . . . . . . . . . . . 101 3.4 Teoremi di Cauchy. Esistenza di tutte le derivate . . . . . . . . . . . . 102 3.5 Sviluppi in serie di Taylor-Laurent . . . . . . . . . . . . . . . . . . . . . . . . . 104 3.6 Zeri di una funzione olomorfa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 3.7 Singolarit` a removibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 3.8 Punti singolari isolati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 3.9 Calcolo dei residui . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 3.10 Punto all’infinito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 3.11 Residuo all’infinito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 3.12 Punti di diramazione. Tagli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 3.13 Il lemma di Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 3.14 Funzioni armoniche e trasformazioni conformi . . . . . . . . . . . . . . . 127

4

Trasformate di Fourier e Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . 133 4.1 Ancora sulle serie di Fourier come “analisi in frequenza”. Il fenomeno della risonanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 4.2 Dalla serie di Fourier all’integrale di Fourier . . . . . . . . . . . . . . . . 134 4.3 L’analisi in frequenza e il “principio di indeterminazione” . . . . . 136 4.4 La trasformata di Fourier in L1 (R) . . . . . . . . . . . . . . . . . . . . . . . . 140 4.5 Continuit` a della trasformata di Fourier . . . . . . . . . . . . . . . . . . . . . 141 4.6 Derivazione e trasformata di Fourier . . . . . . . . . . . . . . . . . . . . . . . 143

Indice

4.7 4.8 4.9 4.10 4.11 4.12 4.13 4.14 4.15 4.16 4.17 4.18 4.19 4.20 4.21 4.22 4.23

IX

Trasformata di Fourier in L2 (R) . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 Inversione della trasformata di Fourier . . . . . . . . . . . . . . . . . . . . . 147 Alcune osservazioni sulla trasformata di Fourier . . . . . . . . . . . . . 149 L’“impedenza” dei circuiti elettrici e la trasformata di Fourier . 151 Propriet` a della funzione di Green . . . . . . . . . . . . . . . . . . . . . . . . . . 153 Alcune propriet` a della delta di Dirac . . . . . . . . . . . . . . . . . . . . . . . 155 Relazioni di dispersione: introduzione . . . . . . . . . . . . . . . . . . . . . . 157 Teorema di Titchmarsh. Trasformate di Hilbert . . . . . . . . . . . . . 159 Relazioni di dispersione di Kramers e Kronig . . . . . . . . . . . . . . . . 161 Presenza di singolarit` a nella χ(ω) . Mezzi conduttori . . . . . . . . . 164 Modello dell’elettrone legato elasticamente . . . . . . . . . . . . . . . . . . 165 Trasformata di Laplace: prime propriet` a . . . . . . . . . . . . . . . . . . . . 166 Olomorfia della trasformata di Laplace . . . . . . . . . . . . . . . . . . . . . 169 Inversione della trasformata di Laplace . . . . . . . . . . . . . . . . . . . . . 171 Alcune osservazioni sulla trasformata di Laplace . . . . . . . . . . . . . 172 La funzione Γ di Eulero ed altre trasformate di Laplace. . . . . . . 175 Applicazioni alle equazioni alle derivate parziali . . . . . . . . . . . . . 176

5

Elementi di teoria delle distribuzioni . . . . . . . . . . . . . . . . . . . . . . . 179 5.1 Distribuzioni temperate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 5.2 Convergenza “debole” fra distribuzioni . . . . . . . . . . . . . . . . . . . . . 181 5.3 Derivazione delle distribuzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 5.4 Trasformata di Fourier per distribuzioni temperate . . . . . . . . . . 183 5.5 Distribuzioni di Schwartz e distribuzioni a supporto compatto . 188 5.6 Propriet` a e applicazioni delle distribuzioni . . . . . . . . . . . . . . . . . . 190 5.7 Prodotto e convoluzione fra distribuzioni . . . . . . . . . . . . . . . . . . . 193 5.8 Funzioni di Green. Il potenziale coulombiano . . . . . . . . . . . . . . . . 196 5.9 Funzioni di Green con condizioni al contorno . . . . . . . . . . . . . . . . 198 5.10 Funzione di Green per il potenziale nel semipiano . . . . . . . . . . . . 200

A

APPENDICE. Introduzione alla teoria dei gruppi e alle propriet` a di simmetria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 A.1 Alcune definizioni generali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 A.2 Omomorfismi tra gruppi. Gruppi quoziente . . . . . . . . . . . . . . . . . 204 A.3 Rappresentazioni di un gruppo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 A.4 Rappresentazioni dei gruppi finiti. Caratteri . . . . . . . . . . . . . . . . 209 A.5 Lemma di Schur. Le simmetrie nella fisica . . . . . . . . . . . . . . . . . . 212 A.6 Livelli vibrazionali di sistemi con simmetria . . . . . . . . . . . . . . . . . 214 A.7 Gruppi di Lie. Definizioni ed esempi generali . . . . . . . . . . . . . . . . 216 A.8 Algebre di Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218 A.9 Gruppi e algebre di Lie e loro rappresentazioni . . . . . . . . . . . . . . 221 A.10 Rappresentazioni differenziali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223 A.11 Gruppo delle rotazioni ed SU2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 A.12 Alcune propriet` a generali delle algebre . . . . . . . . . . . . . . . . . . . . . 228

X

Indice

A.13 Rappresentazioni tensoriali e loro decomposizione . . . . . . . . . . . . 229 A.14 Qualche conseguenza fisica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 A.15 Il gruppo di Lorentz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 Riferimenti bibliografici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237 Indice Analitico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239

Parte I

Strutture vettoriali nella fisica

3

Questa prima parte `e dedicata allo studio dei formalismi e delle strutture vettoriali in dimensione finita e infinita. Il formalismo vettoriale non rappresenta semplicemente una “sovrastruttura” matematica (magari soltanto elegante) per molte situazioni fisiche, bens`ı costituisce la vera e propria struttura matematica adeguata a tradurre e descrivere il “principio di sovrapposizione” o di “linearit` a”. Il principio di sovrapposizione `e alla base di moltissimi processi fisici e – tra l’altro – `e uno dei “principi costitutivi” della Meccanica Quantistica. Ovviamente non tutti i fenomeni fisici obbediscono a leggi lineari (anzi, gli effetti non lineari stanno ricevendo attualmente sempre maggiore attenzione – ma sono purtroppo assai difficili da studiare), tuttavia `e ben chiaro che la schematizzazione lineare costituisce una prima (e spesso buona o quanto meno istruttiva) approssimazione dei fenomeni. Dopo alcuni brevi richiami sugli spazi vettoriali a dimensione finita, soprattutto allo scopo di fissare le nozioni (e le notazioni) di base in vista delle successive estensioni, saranno affrontati (Cap. 2) i concetti e gli esempi fondamentali concernenti gli spazi a dimensione infinita, e pi` u precisamente gli spazi di Hilbert. In questi spazi sar` a possibile ambientare correttamente il procedimento di sviluppo in serie (trigonometrica) di Fourier, e soprattutto introdurne una generalizzazione “astratta” che porter` a alla importante nozione di “set completo” di vettori. Verranno poi studiati gli operatori lineari fra spazi di Hilbert, illustrandone le propriet` a fondamentali, e introducendo classi di operatori dotati di speciali caratteristiche. Particolare attenzione sar` a rivolta ai problemi agli autovalori e alle propriet` a spettrali, che rivestono enorme importanza, anche in Meccanica Quantistica. Il caso specialmente interessante dell’equazione agli autovalori di Sturm–Liouville porter` a ad un cenno (necessariamente sommario) ad alcune funzioni speciali spesso incontrate in fisica. Come applicazioni immediate, potremo studiare l’evoluzione temporale di oscillazioni elastiche (le vibrazioni di una corda o di una membrana circolare) e della propagazione del calore, descritte rispettivamente dalle equazioni (a derivate parziali) di d’Alembert e di Fourier. Un’altra applicazione riguarder` a le funzioni armoniche (equazione di Laplace), ovvero i problemi di potenziale. Alcuni fra questi problemi verranno poi ripresi, con tecniche diverse, nei Capitoli successivi.

1 Spazi a dimensione finita

1.1 Primi esempi di strutture vettoriali a) La fisica fornisce esempi naturali di grandezze vettoriali (velocit` a, campo elettrico etc.). Indicando con e1 , e2 , e3 i versori degli assi cartesiani dello spazio reale tridimensionale R3 , ogni vettore x di R3 si pu` o scrivere − come `e ben noto − nella forma x = a1 e1 + a2 e2 + a3 e3 ≡ (a1 , a2 , a3 ) . D’ora innanzi scriveremo per brevit` a, con la usuale convenzione di sottintendere la somma sugli indici ripetuti, x = ai e(i) oppure x = ai ei . b) Un esempio meno ovvio: le soluzioni di un’equazione differenziale lineare omogenea formano uno spazio vettoriale. Sia L[ y ] = 0 l’equazione e n il suo  grado. Se e1 (x), e2 (x), · · · , en (x) sono n soluzioni indipendenti, anche o scriveai ei (x) `e soluzione dell’equazione (e viceversa: ogni soluzione si pu` re in questa forma). Quindi ciascuna soluzione `e individuata da un elemento dello spazio Cn , cio`e lo spazio costituito dalle n-uple di numeri complessi (a1 , a2 , · · · , an ). c) Ancora un esempio dalla fisica: gli stati di polarizzazione della luce. Come `e noto, per un’onda elettromagnetica piana di frequenza ν che si propaga nel vuoto, il vettore di propagazione k, il campo elettrico E e il campo magnetico B formano una terna ortogonale. Indicando con z l’asse su cui giace k, il vettore E avr` a componenti sul piano x-y. Fissate arbitrariamente le direzioni degli assi x e y, l’andamento del campo E si potr` a descrivere nel modo seguente     Ex E1 cos(k z − ω t + φ1 ) E ≡ = = E2 cos(k z − ω t + φ2 ) Ey     E1 ei φ1 E1 i(k z−ω t) = Re e ei(k z−ω t+φ1 ) = Re E2 ei φ2 E2 ei φ

6

Spazi a dimensione finita

dove k = |k| = 2π ν/c = 2π/λ; ω = c k; φ = φ2 − φ1 . Come si vedr`a, la notazione complessa usata qui sopra `e particolarmente comoda. Se, per esempio, E2 = 0, allora l’onda `e polarizzata linearmente lungo l’asse x; similmente, se E1 = 0, la polarizzazione `e lungo y. Pi` u in generale, con entrambi E1 = 0 e E2 = 0, se `e φ = 0 cio`e se le due componenti non sono sfasate, il campo E oscilla mantenendo costante la sua direzione, la quale giace lungo una linea che forma con l’asse x un angolo θ dato da tan θ = E2 /E1 . Si tratta quindi ancora di polarizzazione rettilinea, e in tal caso lo stato si   di polarizzazione E1 , cio`e appunto pu` o descrivere mediante il vettore a componenti reali E2 come una opportuna sovrapposizione dei due stati di polarizzazione lineare lungo x e lungo y. Se poi φ = 0 , si hanno stati di polarizzazione circolare o ellittica; per esempio, se φ = ±π/2 e E1 = E2 , si ha       E1 cos(k z − ω t + φ1 ) Ex E1 cos τ = E ≡ = = ∓E1 sin(k z − ω t + φ2 ) ∓E1 sin τ Ey     1 E1 i(k z−ω t+φ1 ) e = Re E1 ei(k z−ω t+φ1 ) = Re ±i E1 e±i π/2 y E

τ x

Figura 1.1. Polarizzazioni circolari delle onde e.m.

e si vede (fig. 1.1) che, al variare del tempo t, il vettore E descrive nel piano x-y una circonferenza in senso orario o antiorario (polarizzazioni circolari). In conclusione, il generico stato di polarizzazione si pu` o descrivere mediante un vettore complesso a due componenti (spazio vettoriale C2 ) 1 ; d’altra par1

Si noti che, finch´e interessi lo stato di polarizzazione di una singola onda, se p `e un a anche α p (con vettore di C2 che descrive tale stato di polarizzazione, in realt` α numero complesso qualsiasi diverso da zero) descrive lo stesso stato. In questo senso, quindi non c’`e corrispondenza biunivoca fra C2 e gli stati di polarizzazione di un’onda. Naturalmente, quando si devono sovrapporre due onde, allora interessano anche i coefficienti relativi dei due stati, che ne forniscono l’ampiezza e la fase relativa. Fissato p ∈ C2 , l’insieme dei vettori α p si chiama raggio.

1.2 Spazi vettoriali (a dimensione finita)

7

te, sovrapponendo due onde elettromagnetiche piane polarizzate con uguale direzione di propagazione, uguale frequenza e con stati di polarizzazione p1 e p2 , si ottiene un’onda il cui stato di polarizzazione `e ottenuto proprio dalla 2 somma (vettoriale, in C2 ) deivettori p1 e p 2  . Una o   base per lo spazio C pu` 1 0 (1) (2) = ,E = ; un’altra base possibile `e essere, per esempio E 1    0 1 1 , E (−) = . Fisicamente questo corrisponde ad affermare E (+) = i −i che ogni stato di polarizzazione si pu` o ottenere sovrapponendo opportunamente le due polarizzazioni rettilinee lungo x e lungo y, oppure anche sovrapponendo opportunamente le due polarizzazioni circolari oraria e antioraria E (+) , E (−) .

1.2 Spazi vettoriali (a dimensione finita) Come gi`a si vede dai precedenti esempi, ogni vettore x di uno spazio vettoriale V reale o complesso a dimensione finita n si pu` o scrivere - avendo prescelto una base e(1) , e(2) , · · · , e(n) per lo spazio - nel modo seguente x = xi e(i)

(1.1)

e quindi individuare (biunivocamente) mediante una n-upla di numeri reali o complessi x ←→ (x1 , x2 , · · · , xn ) (1.2) che sono le componenti di x rispetto alla base scelta. Quanto detto qui sopra `e la sostanza del noto teorema che assicura appunto che ogni spazio vettoriale V a dimensione finita n `e isomorfo a Cn o a Rn (a seconda che sia definito sul corpo complesso C o sul corpo reale R), e quindi ci consente di limitarci a considerare - in dimensione finita - i soli spazi Cn o Rn . Gli stessi esempi visti indicano pure chiaramente come la struttura matematica degli spazi vettoriali sia quella adatta a descrivere e tradurre tutti i problemi lineari, cio`e tutte le situazioni (fisiche o matematiche) in cui `e valido il principio di sovrapposizione. Tutto ci`o risulter` a meglio chiarito nel seguito. La stessa fisica e la geometria suggeriscono di arricchire la struttura di spazio vettoriale con un nuovo concetto, collegato a quello di angolo fra due vettori. Nello spazio ordinario R3 infatti si introduce l’operazione di prodotto scalare fra due vettori x e y, che `e definito, in termini delle rispettive componenti xi e yi , da x · y = xi yi . Questa definizione si pu` o generalizzare in Cn (o Rn ) nel modo seguente: si definisce prodotto scalare di due vettori x, y di Cn e si indica con (x, y) il

8

Spazi a dimensione finita

numero dato da 2

(x, y) = x∗i yi

(1.3)

x∗i

dove indica il complesso coniugato di xi . Si noti che i matematici usano una definizione diversa dalla precedente che `e quella di regola usata in fisica: (x, y)mat = xi yi∗ = (x, y)∗fis . ` utile Naturalmente le due definizioni coincidono nel caso di vettori reali. E anche ricordare la definizione di norma di un vettore x, che `e il numero reale positivo indicato con x e dato da 2 x =

n 1/2   (x, x) = |xi |2 .

(1.4)

i=1

La norma generalizza quindi il concetto di modulo dei vettori di R3 e insieme quello di modulo dei numeri complessi. Alcune ovvie propriet` a sono (λ `e un numero complesso qualsiasi): (x, y)∗ = (y, x) ;

(x, y + z) = (x, y) + (x, z) ;

(x, λ y) = λ (x, y) ;

λ x = |λ| x .

(1.5)

Un vettore x si dice normalizzato (sottinteso: all’unit` a) se x = 1 ; due vettori x, y si dicono ortogonali se (x, y) = 0 . Un insieme di vettori x(1) , x(2) , · · · , x(n) , · · · si dice infine ortonormale se (i) (j)

0 se i = j (1.6) = δij = x ,x 1 se i = j (il simbolo δij ora usato si chiama simbolo di Kronecker). Infine, se la base prescelta per lo spazio vettoriale `e ortonormale, allora dalla (1.1), facendone il prodotto scalare per ciascun e(k) , si ha

(k) (k) (1.7) e , x = e , xi e(i) = xk che esprime la componente xk tramite appunto il prodotto scalare, generalizzando cos`ı un risultato ben noto per i vettori di R2 o R3 (da notare che la (1.7) vale solo se la base `e ortonormale !). Quindi, invece della (1.1), si pu` o scrivere n 

x= e(i) e(i) , x . i=1

Una base ortonormale (detta anche base canonica) per Cn (o Rn ) `e data dai vettori e(1) = (1, 0, 0, · · · , 0), e(2) = (0, 1, 0, · · · , 0), . . . , e(n) = (0, 0, 0, · · · , 1) . (1.8) 2

Per una definizione pi` u generale v. § 2.6; si possono infatti introdurre definizioni assai pi` u generali di prodotto scalare e di norma. Le (1.3) e (1.4) sono le definizioni pi` u semplici o “canoniche”.

1.3 Matrici come trasformazioni lineari

9

1.3 Matrici come trasformazioni lineari Ricordiamo qui alcuni risultati fondamentali concernenti le trasformazioni lineari fra spazi a dimensione finita. Siano dunque V e V  due spazi vettoriali a dimensione finita, rispettivamente n e m, siano e(i) ed e(j) due basi ortonormali scelte in V e V  rispettivamente (i = 1, · · · , n; j = 1, · · · , m) e sia T una trasformazione lineare di V in V  T : V → V (in generale ci servir` a il caso V = V  ed e(i) = e(i) , tuttavia questa maggiore generalit` a pu` o essere utile). Scelte le basi, `e chiaro che per definire la trasformazione T baster`a conoscere il suo “effetto” sui vettori di base e(i) : per tali vettori si potr` a scrivere evidentemente T e(i) = αj e(j) (i)

(1.9)

cio`e ogni e(i) verr` a trasformato in una combinazione dei vettori di base e(j) , (i) con determinati coefficienti αj ; la trasformazione `e univocamente determinata da tali coefficienti. Infatti, per calcolare il trasformato x di un generico vettore x di V , grazie alla linearit` a di T , basta osservare che

(i) T x = T xi e(i) = xi αj e(j) = x . Quindi, in particolare, la componente j-esima del vettore trasformato x = T x `e data da (i) xj = αj xi = Tji xi (1.10) dove si `e introdotta in modo naturale una notazione matriciale: Tji risulta infatti l’elemento di posto j i (cio`e riga j-esima, colonna i-esima) di una matrice che viene a rappresentare la trasformazione T rispetto alle basi scelte. Tale (1) matrice si ottiene dunque ponendo nella prima colonna le componenti αj (1) del trasformato di e etc.: ⎛ (1) ⎞ (2) (3) α1 α1 α1 ··· ⎜ α (1) α (2) · · · ⎟ 2 ⎜ 2 ⎟ T → ⎜ (1) ⎟. ··· ⎝ α3 ⎠ .. .. . . Si noti la relazione per gli elementi di matrice:

(j) e , T e(i) = Tji .

(1.11)

Si ricordi ora che, grazie all’isomorfismo gi` a visto fra lo spazio V e Cn , ogni vettore pu` o essere univocamente individuato dalle sue componenti rispetto alla data base; introducendo inoltre l’usuale convenzione di scrivere tali componenti come una matrice colonna di n righe e una colonna

10

Spazi a dimensione finita



⎞ x1 ⎜ x2 ⎟ ⎟ x = ⎜ ⎝ ... ⎠ xn l’equazione (1.10) pu` o esser vista nel modo seguente, come ben noto ⎞ ⎛ x ⎞ ⎛ T T12 · · · T1n ⎛ x1 ⎞ 11 1 ⎟ ⎜ x2 ⎟ T21 · · · ⎜ x2 ⎟ ⎜ ⎟⎜ ⎟ ⎜ . ⎟=⎜ . ⎟ ⎝ .. ⎠ ⎜ ⎝ . ⎠ ⎝ .. ⎠ . . .. xm x . Tm1 · · · n intendendo di eseguire le moltiplicazioni secondo la regola “righe × colonne”. Senza dover introdurre due notazioni diverse per la trasformazione lineare T e la matrice che la rappresenta, e cos`ı pure per il vettore x e la colonna delle sue componenti, potremo quindi indicare con x = T x sia l’operazione vista “in astratto” fra trasformazione e vettori, che l’operazione intesa “fra matrici” nel senso sopra detto. Nel seguito considereremo di regola trasformazioni lineari (che chiameremo spesso operatori lineari) di uno spazio V in se stesso; le corrispondenti matrici saranno quindi matrici quadrate. Se si ha una catena di trasformazioni lineari secondo lo schema V

T

1 −→

V

T

2 −→

V 

(e analogamente per pi` u di due trasformazioni), la “composizione” di T1 e T2 induce una trasformazione di V in V  , definita da T x = T2 (T1 x) = x . ` facile verificare che la matrice che rappresenta T `e il prodotto righe × E colonne T = T2 T1 delle matrici che rappresentano T2 e T1 (e, naturalmente, T2 T1 sar` a in genere diverso da T1 T2 ). Osserviamo infine la seguente propriet` a che ci sar`a utile in seguito. Sia T un operatore lineare di uno spazio V in s`e; si consideri la matrice che rappresenta T rispetto alla base prescelta, si prenda la trasposta di tale matrice e se ne calcoli il complesso coniugato di ciascun elemento. La matrice che si ottiene si chiama hermitiana coniugata o anche aggiunta della matrice data T e si indica con T + oppure con T † , cio`e ∗ (T + )ij = Tji .

(1.12)

a un’altra trasformazione di V in s`e (che `e l’oLa matrice T + rappresenter` peratore aggiunto di T ) e che gode della seguente propriet` a caratteristica 3 , valida per ogni coppia di vettori x, y: 3

In genere, anzi, si definisce T + proprio mediante la (1.12 ) e la (1.12) viene allora di conseguenza.

1.4 Cambiamenti di base e matrici unitarie

(y, T + x) = (T y, x) .

11

(1.12 )

Infatti ∗ (y, T + x) = yi∗ (T + x)i = yi∗ (T + )ij xj = yi∗ Tji xj = (T y)∗j xj = (T y, x) .

Se, in particolare, avviene che T = T + la matrice si chiama hermitiana o autoaggiunta. Se poi la matrice `e reale, la condizione di hermiticit` a diventa T = T t e quindi una matrice reale hermitiana `e simmetrica.

1.4 Cambiamenti di base e matrici unitarie Tra le trasformazioni di uno spazio vettoriale V in s`e, prendiamo ora in esame quelle trasformazioni M che hanno la propriet` a di “conservare” i prodotti scalari, cio`e tali che per ogni coppia di vettori x, y si abbia (M x, M y) = (x, y) .

(1.13)

Ci`o avviene se ∗ ∗ (M x, M y) = (M x)∗i (M y)i = Mij xj Mik yk = (M + )ji Mik x∗j yk

e quest’ultima quantit` a `e uguale a δjk x∗j yk = x∗k yk = (x, y) se e solo se M+ M = I

(1.14)

dove con I si `e indicata la trasformazione “identica” x → x , cui corrisponde, in qualsiasi base, la matrice “identit` a” ⎞ ⎛ 1 0 0 ··· ⎟ ⎜0 1 ... ⎟. I=⎜ .. ⎠ ⎝ ... . 0

0 ...

1

Pi` u brevemente si ottiene lo stesso risultato cos`ı: (M x, M y) = (x, M + M y) che `e uguale a (x, y) se e solo se vale appunto la (1.14). Una trasformazione lineare (e la corrispondente matrice) si dice unitaria se soddisfa alla condizione (1.14). In particolare, quindi, le trasformazioni unitarie conservano la norma dei vettori e l’ortogonalit` a; pertanto trasformano basi ortonormali in basi ortonormali. Nel caso particolare che lo spazio sia reale, la condizione diventa chiaramente

12

Spazi a dimensione finita

M tM = I

(1.15)

e la trasformazione si dice in tal caso ortogonale (ad esempio le rotazioni e le riflessioni nello spazio reale R3 ). Si noti che le matrici unitarie (od ortogonali) non sono degeneri, infatti det(M + M ) = |det M |2 = 1 e quindi esiste la trasformazione inversa M −1 e si ha anche dalla (1.14), M + M M −1 = M −1



M + = M −1



M M+ = I .

` anche facile vedere che queste ⇒ possono essere invertite e si risale cos`ı alla E (1.14). Immaginiamo ora di eseguire in uno spazio vettoriale V un cambiamento di base mediante una trasformazione unitaria, in modo quindi che la vecchia e la nuova base siano entrambe ortonormali. Ci domandiamo: data una qualsiasi trasformazione lineare di V in s`e, rappresentata da una matrice T rispetto alla vecchia base, qual `e la matrice T  che descrive la stessa trasformazione rispetto alla nuova base? Per rispondere a questa domanda, consideriamo una matrice unitaria U e, per ogni vettore x di V , chiamiamo x = U x il vettore che si ottiene applicando U ad x; sia invece y = T x il vettore che si ottiene applicando ad x la trasformazione T . Si ha la situazione descritta nel seguente schema: U

x −→ x T ↓ ↓ T =? U y −→ y La matrice richiesta T  si ottiene dunque cos`ı: y = T  x, ma y = U y = U T x = U T U −1 x , quindi T  = U T U −1 = U T U + .

(1.16)

Per esempio, se T `e la rotazione di un angolo θ intorno all’asse e3 nello spazio R3 , la matrice T  `e la rotazione del medesimo angolo θ intorno ad un altro asse (che `e precisamente U e3 ): infatti le due matrici differiscono solo per un cambiamento di base. Pi` u in generale, si possono prendere in considerazione anche basi non ortonormali; naturalmente il passaggio da una base ortonormale ad una non ortonormale sar` a descritto da una matrice non unitaria. La condizione affinch`e una base qualsiasi venga trasformata in un’altra base `e che la trasformazione sia invertibile (ovvero che la corrispondente matrice sia non degenere: questo assicura che vettori indipendenti vengano trasformati in vettori indipendenti). Ripetendo il ragionamento fatto sopra, detta S la matrice che opera il cambiamento di base, una generica matrice T si trasformer` a, per effetto del cambiamento di base, come segue T



T  = S T S −1 .

(1.17)

Tale tipo di trasformazione si chiama trasformazione per similitudine.

1.5 Autovalori e autovettori di una matrice

13

1.5 Autovalori e autovettori di una matrice ` questo un argomento di particolare importanza perch´e un’ampia classe di E problemi (fisici, geometrici etc.) si traduce appunto in un “problema agli autovalori” vedi § 1.7 per qualche esempio; moltissimi altri problemi agli auto

valori si incontrano negli spazi a dimensione infinita (Cap. 2) . Sia dunque T una trasformazione di uno spazio vettoriale V (a dimensione finita n) in se stesso. Vogliamo vedere se esiste qualche particolare vettore (non nullo) x di V per il quale T x sia semplicemente proporzionale ad x stesso: si tratta cio`e di risolvere l’equazione T x = λx, x = 0 (1.18) dove λ `e un numero complesso. Se la (1.18) `e soddisfatta da un vettore x con un certo λ, si dice che λ `e un autovalore di T e che x `e un autovettore di T relativo (o corrispondente o ancora appartenente) all’autovalore λ. La (1.18) si chiama equazione agli autovalori. Si vede immediatamente che, se x `e autovettore di T , anche ogni suo multiplo α x lo `e, con lo stesso autovalore; inoltre, se x e x sono due autovettori relativi allo stesso autovalore, anche ogni combinazione lineare α x + β x `e ancora autovettore con lo stesso autovalore. Ne viene che per ogni autovalore esiste un sottospazio di autovettori: la dimensione di tale sottospazio si chiama degenerazione dell’autovalore. Se in particolare la dimensione `e uno, l’autovalore si dice non degenere. Per esempio, prendendo come spazio V lo spazio R3 , la riflessione rispetto al piano x-y ha come autovettori tutti i vettori del piano di riflessione con autovettore 1 (degenere due volte), ed il sottospazio ortogonale unidimensionale (cio`e l’asse z) con autovalore non degenere −1. Avendo scritto la T in forma di matrice, la (1.18) `e un sistema algebrico lineare e omogeneo nelle n componenti incognite x1 , · · · , xn ; la (1.18) si pu` o anche scrivere evidentemente (T − λ I) x = 0 e, come `e ben noto, affinch´e ci siano soluzioni non nulle, x = 0, di tale sistema, occorre e basta che det (T − λ I) = 0 (1.19) cio`e



T11 − λ ⎜ T21 det ⎜ ⎝ T31 .. .

T12 T22 − λ T32

T13 T23 T33 − λ

⎞ ··· ···⎟ ⎟ ···⎠ = 0. .. .

L’equazione (1.19) `e detta equazione secolare. Essa `e un’equazione algebrica di grado n in λ: possiede quindi n soluzioni complesse λ1 , λ2 , · · · , λn , ma non necessariamente distinte. Le soluzioni della (1.19) sono gli autovalori di T : infatti andando a sostituire nel sistema (1.18) a λ uno dei valori trovati λi , il sistema stesso diventa risolubile e determina almeno un vettore v (i)

14

Spazi a dimensione finita

che `e (con tutti i suoi multipli) autovettore relativo a λi . Per` o, se λi `e una soluzione dell’equazione secolare con molteplicit`a maggiore di uno, non `e detto che si possano trovare in corrispondenza a λi tanti autovettori indipendenti quanta `e appunto la molteplicit` a di λi . Cio`e non `e detto che la degenerazione di ciascun autovalore sia uguale alla sua molteplicit` a algebrica nell’equazione secolare, e quindi non sempre una trasformazione lineare possiede esattamente n autovettori indipendenti. Ad esempio la matrice   1 1 0 1 ha il solo autovalore λ = 1 con molteplicit` a due nell’equazione secolare,  ma  1 non degenere: infatti l’unico autovettore `e (a meno di multipli) il vettore . 0 Si deve notare infine che le soluzioni dell’equazione secolare sono in generale complesse; pertanto, se lo spazio in considerazione `e reale, pu` o avvenire che alcuni autovalori vengano “perduti”. Ad esempio, `e chiaro che una rotazione di un angolo θ in R3 (con l’asse di rotazione passante per l’origine, altrimenti non sarebbe una trasformazione lineare!) ha un solo autovettore, cio`e l’asse di rotazione, con autovalore 1 (a meno che θ = π , nel qual caso . . . ). Tuttavia, risolvendo l’equazione secolare corrispondente, si trovano altri due autovalori e±i θ complessi con autovettori pure a componenti complesse 4 .

1.6 Diagonalizzazione di una matrice hermitiana Come caso particolarmente importante di quanto visto nel paragrafo precedente, consideriamo ora l’equazione agli autovalori per una matrice hermitiana. Sia T una trasformazione lineare di uno spazio V in s`e e, rispetto ad una base ortonormale e(i) di V , la matrice che rappresenta T sia hermitiana. Osserviamo innanzi tutto che T conserva la sua hermiticit` a anche cambiando comunque la base (purch´e sempre ortonormale): infatti l’hermiticit` a di una trasformazione lineare si traduce nella propriet` a, valida per ogni x, y : (x, T y) = (T x, y)

(1.20)

che chiaramente non dipende dalla base (ortonormale) scelta; in altre parole si tratta di una propriet` a intrinseca della trasformazione “in astratto” e non legata alla particolare rappresentazione (cio`e alla base) scelta. La verifica di  + questo fatto `e del resto immediata: se T + = T , allora anche T = UTU `e hermitiana: T  + = T  per qualsiasi matrice unitaria U per la verifica si ricordi che (A B)t = B t At e quindi (A B)+ = B + A+ . 4

Da notare che tali autovettori sono proprio i vettori che descrivono le polarizzazioni circolari (§ 1.1) nel piano ortogonale all’asse di rotazione. In geometria analitica essi individuano le cosiddette rette isotrope del piano stesso.

1.6 Diagonalizzazione di una matrice hermitiana

15

Analogamente, se T ammette un autovettore v con autovalore λ, questo, com’`e naturale, `e vero indipendentemente dalla base scelta. Infatti se T v = λ v, `e anche vero che, per qualunque trasformazione unitaria U (si ricordi il § 1.4), (U T U + )(U v) = U T v = U λ v = λ (U v) (Ovviamente, questa propriet` a `e vera anche se si passa a basi non ortonormali con una trasformazione per similitudine). Sia allora λ1 una soluzione dell’equazione secolare per la matrice hermitiana T , e sia v1 un autovettore corrispondente. Si immagini ora di eseguire un cambiamento di base in modo che il vettore normalizzato w1 = v1 /v1  sia il primo vettore della nuova base; sia U1 una qualsiasi matrice unitaria che realizza questo cambiamento. Nella nuova base il vettore w1 `e dato evidentemente da ⎛ ⎞ 1 ⎜0⎟ ⎜.⎟ ⎝ .. ⎠ 0 a essere per quanto detto qui sopra e, posto T1 = U1 T U1+ , dovr` ⎛ ⎞ ⎛ ⎞ 1 1 ⎟ ⎜ ⎜ 0 0⎟ ⎟ = λ1 ⎜ . ⎟ ( T1 ) ⎜ . ⎝ .. ⎠ ⎝ .. ⎠ 0

0

il che implica, come si vede direttamente, ⎛ λ1 X ⎜ 0 T1 = ⎜ ⎝ ... A

1

⎞ ⎟ ⎟. ⎠

0 Ma anche T1 dev’essere hermitiana, quindi X = 0 , inoltre A1 `e una matrice (n − 1) × (n − 1) anch’essa hermitiana e infine λ1 `e un numero reale. Si immagini di ripetere il procedimento sulla matrice A1 che opera sul sottospazio dei vettori ortogonali a w1 : si trover` a un altro autovettore v2 in questo sottospazio, con autovalore λ2 (eventualmente potr` a anche essere λ2 = λ1 ); si eseguir`a quindi, sempre in questo sottospazio in modo da non alterare w1 , un altro cambiamento di base per far coincidere il secondo vettore col vettore w2 = v2 /v2  , e cos`ı via. Si pu` o cos`ı concludere che per una trasformazione hermitiana (i) gli autovalori sono tutti reali; (ii) gli autovettori costituiscono una base per lo spazio; (iii) gli autovettori sono ortogonali; pi` u esattamente: gli autovettori appartenenti ad autovalori diversi sono ortogonali; se un autovalore `e degenere, nel sottospazio corrispondente si possono scegliere autovettori ortogonali fra loro;

16

Spazi a dimensione finita

(iv) esiste una trasformazione unitaria U (che trasforma la base e(i) nella base ortonormale formata dagli autovettori di T ) tale che la matrice trasformata T  = U T U + risulta una matrice diagonale, che nella diagonale presenta gli autovalori: ⎞ ⎛ λ1 λ2 ⎠. T = ⎝ (1.21) .. . Una matrice hermitiana `e dunque completamente diagonalizzabile con una trasformazione unitaria. Si potrebbe infine dimostrare che, pi` u in generale, tutte le matrici N che verificano la condizione N N+ = N+ N cio`e le cosiddette matrici normali (o operatori normali) sono tutte e sole quelle che godono delle propriet` a (ii), (iii), (iv), e sono quindi diagonalizzabili con trasformazioni unitarie. Ovviamente le matrici hermitiane e quelle unitarie sono casi particolari di matrici normali, si pu` o invece verificare che la matrice considerata come esempio in fondo al § 1.5 non `e una matrice normale. Si ha inoltre il seguente: Teorema: Se due trasformazioni normali T ed S commutano, cio`e T S = S T (e quindi commutano le matrici che le rappresentano), allora esiste una base di vettori che sono contemporaneamente autovettori sia di T che di S (si dice brevemente che T ed S hanno una base di autovettori comuni). Dimostrazione. Sia v un qualsiasi autovettore di T e sia λ l’autovalore corrispondente: T v = λ v . Allora, grazie alla commutativit` a di T ed S: T (S v) = S (T v) = λ (S v) quindi il vettore S v `e ancora autovettore di T corrispondente allo stesso autovalore λ. Pertanto, se λ `e non degenere, S v deve essere proporzionale a v, cio`e S v = μ v e quindi v `e autovettore anche di S. Se invece λ `e degenere, S v appartiene sempre al sottospazio degli autovettori di T con autovalore λ. Possiamo quindi considerare la restrizione di S a tale sottospazio; `e facile vedere che S `e normale anche in questo sottospazio e quindi ammette in esso una base di autovettori, che risulta cos`ı formata da vettori che sono anche autovettori di T . Il ragionamento si ripete per ogni autovalore di T .

Come corollario, le due matrici sono diagonalizzabili simultaneamente, cio`e con la stessa matrice unitaria U : basta infatti prendere come U una trasformazione che cambia la base e(i) nella base degli autovettori comuni; in questa base T = U T U+ , S = U S U + sono entrambe diagonali della forma (1.21). ` facile vedere che vale anche il viceversa: E Teorema: Se T ed S hanno una base di autovettori comuni, esse commutano.

1.7 Problemi agli autovalori: applicazioni

17

Dimostrazione. Innazitutto T ed S sono diagonalizzabili simultaneamente per mezzo della matrice unitaria U , come fatto sopra. Quindi, sulla base degli autovettori comuni, esse sono della forma (1.21): ma due matrici diagonali evidentemente commutano. Il teorema resta provato osservando che la commutativit` a di due matrici `e, come l’hermiticit`a, una propriet` a intrinseca, indipendente dalla base (come `e immediato verificare).

Infine, pu` o anche avvenire che una matrice T non normale possieda un numero di autovettori indipendenti (non ortonormali) uguale alla dimensione dello spazio, come avviene ad esempio per la matrice   1 0 ; 1 0 in tal caso gli autovettori possono essere scelti come base non ortonormale dello spazio e la matrice T si pu` o diagonalizzare mediante una trasformazione di similitudine T → T  = S T S −1 , dove S `e la matrice (non unitaria) che trasforma la base iniziale nella base degli autovettori di T .

1.7 Problemi agli autovalori: applicazioni Passiamo ad analizzare qualche applicazione elementare tipica del problema della ricerca degli autovettori di una matrice. a) Si consideri un sistema lineare di n equazioni differenziali per le n funzioni xi = xi (t) , del tipo seguente dxi = Aij xj (t) , dt

i, j = 1, 2, · · · , n

(1.22)

dove tutti gli elementi Aij della matrice A sono assegnati e costanti. Cerchiamo soluzioni del tipo xi (t) = ci eα t ,

i = 1, 2, · · · , n

(1.23)

dove le ci sono costanti ed α `e lo stesso per ogni i = 1, 2, · · · , n ; cerchiamo cio`e soluzioni (che chiameremo soluzioni fondamentali o normali) nelle quale ogni “componente” xi varia con t secondo la stessa legge eα t . Sostituendo la (1.23) nel sistema e indicando con c il vettore di componenti c1 , c2 , · · · , cn si ottiene αc = Ac (1.23 ) che `e appunto un’equazione agli autovalori. Se α `e un autovalore di A e c l’autovettore corrispondente, si ottiene la soluzione xi = ci eα t , che `e appunto del tipo cercato. Se la matrice A possiede n autovettori indipendenti (non `e necessario che siano ortogonali) si avranno n soluzioni fondamentali: per ciascun autovalore αk di A si ottiene una soluzione le cui componenti variano tutte con la stessa legge eαk t e sono proporzionali alle componenti del

18

Spazi a dimensione finita

corrispondente autovettore c(k) . Naturalmente, trattandosi di un problema lineare, qualunque combinazione lineare di tali soluzioni sar` a pure soluzione. Se il sistema (1.22) descrive un problema in cui t `e la variabile tempo (sistema dinamico lineare) 5 , gli autovalori αk si diranno costanti di tempo caratteristiche del sistema. In generale, il problema tipico (problema di Cauchy) che si deve risolvere `e quello di trovare l’evoluzione temporale del sistema, essendo note le “condizioni iniziali”, cio`e il valore delle xi al tempo t = 0. A tale scopo, posto ai = xi (0) , baster` a esprimere il vettore delle condizioni iniziali a ≡ (a1 , a2 , · · · , an ) come combinazione lineare degli autovettori c(k) (e questo  `e sempre possibile se la matrice A possiede n autovettori indipendenti): a = k bk c(k) ; l’andamento temporale sar` a dunque dato da  x(t) = bk c(k) eαk t (1.24) k

in cui ogni termine c(k) varia secondo la propria costante di tempo αk . Osservando d’altra parte che, per qualsiasi matrice M , la serie eM ≡

∞  Mn n! n=0

(1.25)

`e convergente, `e facile verificare che la soluzione del sistema (1.22) si pu`o anche scrivere nella forma x(t) = eA t x(0) .

(1.24 )

Se A possiede n autovettori indipendenti, si ritrova dalla (1.24 ) il risultato appena descritto dalla (1.24); in caso contrario, la soluzione conterr` a termini del tipo “polinomio in t × eα t ”, come `e facile verificare. Si consideri per esempio un circuito come in fig. 1.2 (trasformatore), le cui equazioni sono ⎧ di1 di2 ⎪ ⎪ − L12 = R1 i1 + V1 ⎨ −L11 dt dt ⎪ ⎪ ⎩ −L21 di1 − L22 di2 = R2 i2 dt dt Sia V1 = 0: con immediati passaggi le equazioni possono essere riscritte ⎧ di1 ⎪ ⎪ = A11 i1 + A12 i2 ⎨ dt ⎪ di2 ⎪ ⎩ = A21 i1 + A22 i2 dt 5

Lo studio dei sistemi dinamici non lineari `e assai complesso e porta a risultati anche sorprendenti, che includono la presenza di soluzioni fortemente irregolari (“caotiche”). Si pu` o vedere p.es. il libro di Ott [30].

1.7 Problemi agli autovalori: applicazioni

R1

19

R2

L

V1

Figura 1.2. Un trasformatore

dove A11 = −R1 L22 /(L11 L22 − L212 ) etc. (si ricordi che L12 = L21 ). Per semplicit` a supponiamo ora che la matrice A sia del tipo   −k k  A= , k, k > 0 . k  −k Si verifica facilmente che il sistema possiede le due soluzioni fondamentali: c1 = c2 con costante di tempo α1 = −(k − k  ) , e c1 = −c2 con costante di tempo α2 = −(k + k  ) . L’andamento temporale delle correnti i1 (t) e i2 (t) nei due rami del circuito sar` a quindi, per la prima soluzione, proporzionale a      i1 (t) 1 (1) i (t) = = e−(k−k ) t i2 (t) 1 e, per la seconda soluzione  i

(2)

(t) =

i1 (t) i2 (t)



 =

1 −1





e−(k+k ) t .

Supponiamo che al tempo t = 0 il sistema si trovi nella condizione i1 (0) = I0 , i2 (0) = 0 . Per trovare il successivo andamento delle correnti nei due rami basta scrivere la condizione iniziale come combinazione lineare delle due i(1) (0) e i(2) (0), cio`e       I0 1 1 I0 + . = 1 −1 0 2 E quindi l’andamento delle correnti sar` a dato da          I0 1 i1 (t) 1 e−(k−k ) t + e−(k+k ) t = 1 i2 (t) −1 2 cio`e

⎧ 

I0 −k t k t ⎪ ⎪ e + e−k t e ⎨ i1 (t) = 2  ⎪ 

I ⎪ ⎩ i2 (t) = 0 e−k t ek t − e−k t . 2

20

Spazi a dimensione finita

Equazioni come in (1.22) si ottengono per esempio studiando l’andamento nel tempo delle miscele radioattive: in tal caso xi (t) indica la concentrazione di atomi di tipo “i” e Aij la probabilit` a di transizione i → j . b) Si consideri un sistema costituito da tre palline che possono muoversi liberamente lungo una retta. La pallina centrale di massa M `e legata tramite due molle di uguale costante elastica k alle due palline laterali, ciascuna di massa m. Detti x1 , x2 , x3 gli spostamenti di ciascuna pallina dalla propria posizione di equilibrio, le equazioni di moto del sistema sono: ⎧ ¨1 = −k (x1 − x2 ) ⎨mx Mx ¨2 = −k (2x2 − x1 − x3 ) (1.26) ⎩ mx ¨3 = −k (x3 − x2 ) . Cerchiamo soluzioni di tale sistema del tipo xi (t) = ci sin(ω t + δ) ,

i = 1, 2, 3 .

(1.27)

Si noti che, come nell’esempio a), si cercano soluzioni in cui la frequenza ω `e la stessa per ciascuna pallina i = 1, 2, 3 ; tali soluzioni rappresentano quindi movimenti particolari del sistema, che si chiamano modi normali o armonici di oscillazione, mentre le corrispondenti frequenze si chiamano frequenze proprie o autofrequenze del sistema. Sostituendo le (1.27) nelle equazioni del moto si ottiene un’equazione che si pu` o scrivere, analogamente alla (1.23 ), ω2 c = K c

(1.27 )

dove c ≡ (c1 , c2 , c3 ) e K `e la matrice ⎞ ⎛ k/m −k/m 0 K = ⎝ −k/M 2k/M −k/M ⎠ . 0 −k/m k/m Anche qui dunque ci si riduce ad un problema agli autovalori. Le autofrequenze che si trovano sono:   k k k ω1 = 0 ; ω2 = ; ω3 = 2 + · m M m Il primo valore, sostituito nelle (1.26) d` a c1 = c2 = c3 , che corrisponde al caso in cui il sistema non oscilla, ma trasla rigidamente. La seconda soluzione corrisponde invece all’autovettore c1 = −c3 , c2 = 0 , cio`e al caso in cui le due palline laterali oscillano “in opposizione di fase” fra loro, mentre M sta ferma. La terza soluzione d`a infine c1 = c3 , c2 = −2 (m/M ) c1 e corrisponde ad oscillazioni in fase delle due palline m, mentre M oscilla in opposizione di fase alle due laterali con ampiezza diversa (in modo da conservare il baricentro!). ` immediato verificare che le tre soluzioni trovate sono indipendenti e quindi E ogni movimento del sistema si pu`o esprimere come sovrapposizione di questi

1.7 Problemi agli autovalori: applicazioni

21

tre modi di oscillazione. Infine, il problema di trovare l’andamento temporale del sistema a partire dalle condizioni iniziali `e sostanzialmente simile al caso a), solo un po’ pi` u complicato, poich´e ora, trattandosi di equazioni del secondo ordine, occorre assegnare insieme alle posizioni iniziali xi (0) anche le velocit` a iniziali x˙ i (0), affinch´e il problema sia determinato. Vale la pena di notare che il sistema ora studiato rappresenta una semplice schematizzazione di una molecola triatomica in cui gli atomi sono allineati, come avviene per esempio per la molecola di CO2 . In tal caso le frequenze sopra trovate si chiamano frequenze molecolari vibrazionali e possono essere sperimentalmente osservate (in emissione o in assorbimento) e misurate. c) Altre situazioni interessanti si ricavano considerando lo spazio C2 degli stati ` chiaro intanto che ogni strumento di polarizzazione della luce (vedi § 1.1c). E ottico che operi linearmente sugli stati di polarizzazione `e descritto da una matrice. Per esempio un nicol (polarizzatore) che filtri la luce polarizzata nello stato E (1) `e descritto dalla matrice   1 0 P = . 0 0 Gli autovettori di un nicol sono rispettivamente lo stato di polarizzazione che esso lascia passare (autovalore 1) e quello ortogonale (autovalore 0). Se, ad esempio, P1 e P2 sono le matrici corrispondenti a due nicol tali che le direzioni di polarizzazione che essi lasciano filtrare sono a 45o fra loro, si vede subito che P1 P2 = P2 P1 : fisicamente questo significa che cambiando l’ordine dei nicol, cambia anche lo stato della luce emergente. L’unico caso in cui P1 P2 = P2 P1 si verifica quando i nicol sono incrociati (allora P1 P2 = P2 P1 = 0 ), e in effetti in tal caso essi hanno i due autovettori in comune. Come altro tipo di esempio, una matrice del tipo  iα  e 0 L= 0 i ei α in cui α `e un numero reale qualsiasi, descrive una lamina “quarto d’onda” con gli assi paralleli alle direzioni E (1) ed E (2) : due onde con polarizzazioni date rispettivamente da E (1) ed E (2) che incidono normalmente sulla lamina incontrano indici di rifrazione diversi n1 e n2 , in modo tale che la differenza di cammino ottico δ (n2 − n1 ) fra le due onde all’uscita della lamina (δ `e il suo spessore) `e pari ad un quarto di lunghezza d’onda; quindi lo sfasamento ` facile verificare che un’onda incidente normalrelativo risulta pari a π/2. E mente sulla lamina e polarizzata in una direzione formante un angolo di 45o rispetto agli assi della lamina stessa ne esce polarizzata circolarmente. d) L’espressione pi` u generale di una conica “a centro” (ellisse, iperbole), avente il proprio centro coincidente con l’origine delle coordinate x, y `e, come `e noto, a x2 + b x y + c y 2 = 1 .

(1.28)

22

Spazi a dimensione finita

Indicando con x il vettore di componenti (x, y) e con A la matrice simmetrica di elementi A11 = a, A12 = A21 = b/2, A22 = c (che `e detta matrice caratteristica della conica), la (1.28) si pu` o scrivere nella forma (x, A x) = 1 . Pi` u in generale si considerano le forme quadratiche in n variabili reali x1 , x2 ,· · ·, xn , cio`e le espressioni della forma F = A11 x21 + 2A12 x1 x2 + · · · + A22 x22 + · · · = Aij xi xj = (x, A x) . (1.29) Il problema che normalmente si presenta `e quello di scrivere la forma quadratica nella sua cosiddetta forma canonica, cio`e trovare delle nuove coordinate x1 , x2 , · · · , xn , combinazioni lineari delle x1 , x2 , · · · , xn , in modo tale che esprimendo nella F le xi mediante le xi , scompaiano dalla forma quadratica stessa tutti i termini misti, cio`e che si ottenga un’espressione del tipo F = α1 (x1 )2 + α2 (x2 )2 + · · · + αn (xn )2 .

(1.30)

Nel caso della conica questo equivale a cercarne gli assi e quindi fare una rotazione del sistema di coordinate in modo da far coincidere gli assi della ` chiaro a questo punto che tale problema si conica con gli assi cartesiani. E enuncia molto semplicemente in termini di autovettori. L’espressione canonica cercata (1.30), infatti, si pu` o scrivere F = (x , A x ) dove A `e la matrice diagonale che presenta α1 , α2 , · · · , αn lungo la diagonale: si tratta quindi di diagonalizzare la matrice A; le coordinate xi saranno allora gli autovettori di A e α1 , α2 , · · · , αn i corrispondenti autovalori. Nel caso della conica gli autovettori di A individuano le direzioni dei suoi assi, mentre dagli autovalori si pu` o ottenere la lunghezza dei semiassi (si ricordi che, ad esempio, x2 /a2 + 2 2 y /b = 1 rappresenta un’ellisse scritta in forma canonica di semiassi a, b). Inoltre essendo det A il prodotto degli autovalori di A, si ottiene subito da tutto questo che la conica `e un’ellisse se det A > 0, un’iperbole se det A < 0.

1.8 Proiettori e decomposizione spettrale di una matrice Un caso particolarmente interessante di trasformazione lineare `e dato dagli operatori di proiezione (ortogonali) o, pi` u brevemente, proiettori. Dato uno spazio vettoriale V , di dimensione n, sia V1 un suo sottospazio, di dimensione n1 < n, e sia V2 il suo complemento ortogonale, di dimensione n2 = n − n1 , cio`e il sottospazio dei vettori ortogonali a tutti i vettori di V1 . Si scrive allora V = V1 ⊕ V2 (1.31) e ogni vettore x ∈ V si pu` o pu` o sempre decomporre in modo unico nella forma x = x1 + x2 ,

xi ∈ Vi

(i = 1, 2)

(1.32)

1.8 Proiettori e decomposizione spettrale di una matrice

23

per esempio scegliendo una base ortonormale e(1) , · · · , e(n) in V in modo tale che i suoi primi n1 elementi siano contenuti in V1 e i rimanenti n − n1 siano contenuti in V2 : allora le prime n1 componenti di x rispetto a tale base individuano il vettore x1 e le rimanenti il vettore x2 (v. la fig. 1.3). V2

x V1 P1 x = x 1

Figura 1.3. Proiezione del vettore x

In tal modo si definiscono le trasformazioni lineari Pi (operatori di proiezione) che associano ad ogni vettore x la proiezione ortogonale xi su Vi P1 x = x1 ,

P2 x = x2 .

(1.33)

Gli operatori Pi soddisfano P1 + P2 = I ;

P1 P2 = P2 P1 = 0 .

` facile verificare che per ogni proiettore P si ha E P = P+ ,

P2 = P .

Un nicol polarizzatore (v. § 1.7c) `e un particolare esempio di proiettore: allora la propriet` a P 2 = P acquista un preciso significato fisico . . . Sia ora T un qualsiasi operatore lineare hermitiano (o, pi` u in generale, ` chiaro che, quando esso `e applicato al sottospazio dei vettori vi normale). E relativi ad un suo autovalore λi , esso si comporta come un “multiplo dell’identit` a”, cio`e T vi = λi vi (qui non `e sottintesa la somma sull’indice i !). Se P1 , P2 , · · · , Pk sono i proiettori su ciascuno dei sottospazi, ortogonali fra loro, formati dagli autovettori relativi rispettivamente agli autovalori λ1 , λ2 , · · · , λk di T , si ha intanto P1 + P2 + · · · + Pk = I e, per ogni vettore x in V , si ha che il vettore xi = Pi x `e autovettore di T con autovalore λi . Allora, dato che per ogni x si pu` o scrivere x = x1 + x2 + · · · + xk = P1 x + P2 x + · · · + Pk x , si ha che

24

Spazi a dimensione finita

T x = T (x1 + x2 + · · · + xk ) = λ1 x1 + λ2 x2 + · · · + λk xk = = λ1 P1 x + λ2 P2 x + · · · + λk Pk x e quindi si ottiene la relazione, detta decomposizione spettrale dell’operatore T : k  λ i Pi , Pi Pj = 0 se i = j . (1.34) T = i=1

1.9 Considerazioni geometriche sulle trasformazioni del piano reale Questo paragrafo sar` a dedicato ad alcune considerazioni elementari - essenzialmente di carattere geometrico - concernenti le trasformazioni del piano reale R2 in se stesso. Si consideri dunque nel piano R2 una trasformazione che muta il punto generico (x1 , x2 ) nel punto (x1 , x2 ) con la legge seguente  x1 = a11 x1 + a12 x2 + b1 (1.35) x2 = a21 x1 + a22 x2 + b2 Con notazioni vettoriali la trasformazione si pu` o scrivere nella forma x = A x + b 

(1.36)



x1 , A `e la matrice di elementi aij etc. Si noti che la trasformax2 se b = 0, poich´e per ogni trasformazione zione x → x non `e lineare

lineare si deve avere T (0) = 0 infatti: T (0) = T (x − x) = T (x) − T (x) = 0 . Le trasformazioni (1.36), con l’ipotesi det A = 0 per garantire la biunivocit` a delle trasformazioni stesse, sono dette affinit` a del piano; ogni affinit` a si pu` o quindi individuare assegnando la matrice A e il vettore b. Se si eseguono successivamente due affinit`a (A, b) e (A1 , b1 )

dove x =

(A,b)

(A1 ,b1 )

x −→ x −→

x

la trasformazione x → x che ne risulta `e anch’essa un’affinit` a (C, d), cio`e x = C x + d . Infatti x = A1 x + b1 = A1 (A x + b) + b1 = A A1 x + (A1 b + b1 ) quindi C = A1 A, d = A1 b + b1 e si pu` o scrivere simbolicamente (A1 , b1 ) · (A, b) = (A A1 , A1 b + b1 ) .

(1.37)

1.9 Considerazioni geometriche sulle trasformazioni del piano reale

25

Inoltre la trasformazione (I, 0) `e la trasformazione “identica” x → x, e per ciascuna affinit`a (A, b) ne esiste una “inversa” data da (A−1 , −A−1 b) ; infatti usando la legge di composizione (1.37) si ha (A−1 , −A−1 b) · (A, b) = (A, b) · (A−1 , −A−1 b) = (I, 0) . L’insieme G delle affinit`a possiede quindi in modo naturale la struttura di un gruppo (per la definizione vedi Appendice A). ` facile vedere che il sottoinsieme del gruppo affine G costituito dalle E trasformazioni del tipo (I, b) forma un sottogruppo di G stesso: si tratta del sottogruppo abeliano (cio`e commutativo) delle traslazioni. Un altro importante sottogruppo di G `e costituito dalle trasformazioni del tipo (A, 0) , cio`e dalle trasformazioni lineari propriamente dette. Studiando queste trasformazioni da un punto di vista geometrico, `e chiaro che in generale le propriet` a geometriche elementari non sono “invarianti” rispetto a tali trasformazioni: ad esempio due rette perpendicolari possono venire trasformate in rette oblique. Questo tipo di trasformazioni si presta a molte applicazioni: ne citiamo una, assai semplice. Si consideri l’ellisse x2 /a2 + y 2 /b2 = 1 ; se si esegue la trasformazione (A, 0) con   1/a 0 A= , 0 1/b

a, b > 0

` immel’ellisse viene trasformata in un cerchio di raggio 1 e quindi di area π. E diato ora ottenere da questa l’area dell’ellisse: basta osservare che lo Jacobiano della trasformazione eseguita `e semplicemente uguale a J = det A−1 = a b = costante e che pertanto l’area dell’ellisse `e data da J π = π a b . Ricordiamo, infine, un altro sottogruppo di G, cio`e quello costituito dalle trasformazioni (A, b) nelle quali la matrice A `e ortogonale: esso viene chiamato gruppo euclideo o delle isometrie del piano e lo indicheremo con E. Esso `e importante perch´e la geometria euclidea `e invariante rispetto a tutte le trasformazioni contenute in esso (l’area di un quadrato `e la stessa comunque esso venga spostato o ruotato o riflesso !). In questo senso si pu`o dire che la geometria euclidea `e caratterizzata dal gruppo E delle isometrie, poich´e essa studia appunto le propriet` a che da tale gruppo sono lasciate invariate. Analogamente, il sottogruppo S di G costituito dalle trasformazioni del tipo (α I, b) cio`e delle “dilatazioni” (dette anche omotetie) combinate con traslazioni, caratterizza la geometria delle “similitudini”, che si occupa non pi` u delle propriet` a “metriche” delle figure, ma solo di quelle propriet` a (ad esempio, il fatto che in ogni triangolo equilatero le altezze sono anche mediane) che rimangono inalterate sotto le trasformazioni del gruppo S, cio`e appunto sotto le similitudini della geometria elementare. E ancora, esiste una geometria “affine”, che si occupa delle propriet` a lasciate invariate dalle trasformazioni del gruppo delle affinit` a (ad esempio il parallelismo fra rette).

26

Spazi a dimensione finita

1.10 Gruppi di simmetrie e gruppi di matrici Come introduzione preliminare allo studio di alcune propriet` a generali dei gruppi e delle operazioni di simmetria (v. Appendice A), vogliamo ora esaminare in qualche dettaglio il “gruppo di simmetria” di una figura piana. Per concretezza ci riferiamo al caso che tale figura sia un quadrato, che possiamo immaginare col centro nell’origine di R2 e con i lati paralleli agli assi car` chiaro che, se si esegue una rotazione di 90o intorno all’origine, il tesiani. E quadrato resta “inalterato”, nel senso che, avvenuta la rotazione, il quadrato ruotato va a sovrapporsi esattamente al quadrato iniziale. In generale, data una figura geometrica, possiamo considerare l’insieme di tutte le trasformazioni lineari del piano che lasciano inalterata la figura stessa ` facile vedere che tale insieme ha la struttura di nel senso appena visto. E gruppo: esso viene chiamato gruppo di simmetria della figura. Ad esempio, il gruppo di simmetria del quadrato, che qui indicheremo con Q, `e costituito dai seguenti otto elementi: Q = {I, Rπ/2 , Rπ , R3π/2 , Sd , Sd , Sl , Sl } dove I `e l’identit` a, Rα la rotazione di angolo α, Sd e Sd le riflessioni rispetto alle diagonali, Sl e Sl le riflessioni rispetto agli assi di simmetria paralleli a ` interessante rilevare che l’intero gruppo Q si pu` due lati. E o generare a partire dalle due sole riflessioni Sd e Sl si ricordi, per esempio, che se S e S  sono le  riflessioni rispetto a due assi

formanti un angolo α fra loro, allora S S = R2α ` pure istruttivo cercare tutti i sottogruppi del e S  S = (S S  )−1 = R−2α . E gruppo Q. Essi sono: il sottogruppo R4 delle quattro rotazioni, i sottogruppi Σdd e Σll contenenti rispettivamente (oltre all’identit` a) le operazioni Sd , Sd , Rπ e Sl , Sl , Rπ ; questi tre gruppi sono tutti abeliani, inoltre Σdd e Σll sono isomorfi fra loro ma non ad R4 . A sua volta R4 contiene il sottogruppo R2 = {I, Rπ } , mentre Σdd contiene due sottogruppi isomorfi Σd = {I, Sd } e Σd = {I, Sd } , e analogamente Σll contiene Σl e Σl  . Riassumendo, la situazione `e descritta nello schema seguente

 Σdd ↓ Σd

Q ↓



R4

Σll

 ↓ 



R2

Σl

 ↓  I dove sono indicati in posizione “gerarchica” tutti i gruppi qui nominati (con l’esclusione - per semplicit`a - dei sottogruppi Σd  e Σl  ) e dove la freccia A → B significa che B `e sottogruppo di A.

1.10 Gruppi di simmetrie e gruppi di matrici

27

Si noti che alcuni di questi gruppi sono gruppi di simmetria per alcune figure: ad esempio R4 `e il gruppo di simmetria della svastica, Σdd `e quello del rombo, Σll quello del rettangolo, Σd descrive la simmetria di una figura come quella data in fig. 1.4. L’esistenza di queste simmetrie corrisponde naSd

Figura 1.4. Una figura con simmetria Σd

turalmente a ben precise propriet` a geometriche: per esempio, l’esistenza della simmetria descritta dall’operazione Sd implica che la figura data in fig. 1.4 ha i lati a due a due uguali, le diagonali perpendicolari etc. Il gruppo Q `e naturalmente un sottogruppo di tutte le trasformazioni ortogonali del piano. Tale gruppo, che si indica con O2 (e che si pu`o intendere come il gruppo di simmetria della circonferenza), `e composto dalle rotazioni (a determinante +1) e dalle rotazioni combinate con le riflessioni (a determinante −1). Osservazioni simili valgono per il gruppo O3 delle trasformazioni ortogonali in R3 . In generale, in Rn , si indica con On il gruppo delle matrici ortogonali n × n, con SOn il sottogruppo delle matrici ortogonali a determinante +1. Se lo spazio `e complesso, Cn , si indica con Un il gruppo delle matrici unitarie, con SUn il sottogruppo delle matrici con determinante +1. Si indicano invece con GL(n, R) e GL(n, C) i gruppi di tutte le matrici n × n invertibili rispettivamente reali e complesse, e con SL(n, R) e SL(n, C) i relativi sottogruppi di matrici con determinante +1. Ancora pi` u in generale, se V `e uno spazio vettoriale “astratto”, si indica con GL(V ) il gruppo di tutte le trasformazioni lineari invertibili di V in s`e. In questo senso, se ad esempio V = Rn , il gruppo GL(n, R) `e una “rappresentazione” (v. Appendice A) tramite matrici del gruppo astratto GL(V ) , On `e una rappresentazione del gruppo delle trasformazioni ortogonali etc. Non si confonda il gruppo GL(V ) con L(V ) , che indica l’insieme di tutte le trasformazioni lineari di V in s`e, inteso come spazio vettoriale (le combinazioni lineari fra trasformazioni, cos`ı come fra matrici, sono intese in maniera naturale: se V ha dimensione n , la dimensione di L(V ) sar` a n2 ).

28

Spazi a dimensione finita

1.11 Strutture vettoriali e principio di sovrapposizione L’analisi delle situazioni considerate in questo capitolo (in particolare nei §§ 1.1c, 1.7a, b, c) mette chiaramente in evidenza il ruolo fondamentale che in ogni caso viene giocato dal principio di sovrapposizione. Risulta pure chiaro che la struttura matematica adeguata a descrivere tale principio `e appunto quella degli spazi vettoriali. Tutti gli esempi visti fin qui mostrano per` o casi di sovrapposizioni fra componenti in numero finito: in realt` a esistono - come vedremo - moltissime situazioni in cui occorre sovrappore infinite componenti. Naturalmente questo comporter` a nuovi e notevoli problemi, che affronteremo nel prossimo capitolo. A questo punto si pu` o anche osservare che in Meccanica Quantistica il principio di sovrapposizione `e uno dei “principi costitutivi” fondamentali. In modo necessariamente sommario, ricordiamo che in Meccanica Quantistica gli stati vengono rappresentati da vettori (o meglio da “raggi”), mentre le grandezze fisiche “osservabili” - quali l’energia, il momento angolare etc. vengono rappresentate da trasformazioni lineari hermitiane. Il problema agli autovalori per una trasformazione T acquista in questo modo un importante significato: gli autovalori di T vengono infatti interpretati come i possibili risultati che si ottengono eseguendo misure della grandezza rappresentata da T . Se poi gli autovettori v1 , v2 , · · · di T sono una base, ogni stato x si potr` a scrivere come sovrapposizione (finita o infinita)  x= ai vi . Se i vettori x e vi sono scelti normalizzati, ciascun numero |ai |2 si interpreta come la probabilit` a pi di ottenere come risultato di una misura della grandezza T sullo stato x il valore λi , cio`e l’autovalore corrispondente al vettore vi . Immaginando di eseguire pi` u misure di T sullo stato assegnato x, il valor medio teorico  T x delle misure di T su x sar` a allora dato da   pi λ i = |ai |2 λi  T x = e si verifica facilmente che si ha  T x = (x, T x) .

2 Spazi di Hilbert

2.1 Equazione di d’Alembert. Onde stazionarie Cominciamo ad esaminare il problema del movimento di una corda perfettamente flessibile ed elastica, tesa fra i suoi estremi. Fissato l’asse x lungo la posizione di equilibrio della corda, `e chiaro intanto che per descrivere comple-

0

u(x, t) L x

Figura 2.1. Una configurazione della corda elastica a estremi fissi.

tamente la situazione della corda occorre una funzione u = u(x, t) di due variabili che descriva lo spostamento u (v. fig. 2.1) dalla sua posizione di equilibrio, di ogni punto di ascissa x della corda al tempo t . Si pu` o immaginare che la corda sia costituita da una successione di infinite particelle uguali e molto vicine legate fra loro da forze elastiche, in modo analogo a quanto succedeva nel problema del § 1.7b (la differenza `e che ora si prendono in considerazione solo movimenti trasversali, mentre nel § 1.7b si consideravano quelli longitudinali). Proprio utilizzando questa idea, si arriva a dimostrare che la funzione u(x, t) obbedisce alla seguente equazione ∂2 1 ∂2 u= 2 2u 2 ∂x v ∂t

(2.1)

dove  v `e una costante che dipende dalle caratteristiche fisiche del problema (v = τ /ρ, dove τ `e tensione della corda e ρ la sua densit` a lineare). L’equazione (2.1) `e una equazione differenziale alle derivate parziali e prende il nome di equazione di d’Alembert.

30

Spazi di Hilbert

Studiamo il caso in cui gli estremi della corda (siano x = 0 e x = L) vengano tenuti fissi. Questo si traduce nelle condizioni, per ogni t, u(0, t) = u(L, t) = 0

(2.2)

che sono dette condizioni al contorno o al bordo o agli estremi. Cerchiamo intanto particolari soluzioni dell’equazione di d’Alembert (cio`e particolari tipi di movimento della corda): cerchiamo precisamente soluzioni u(x, t) che siano esprimibili come un prodotto: u(x, t) = X(x) T (t) in cui X(x) `e una funzione della sola variabile x e T (t) della sola t. Questo procedimento si chiama metodo della separazione delle variabili. Sostituendo nella (2.1), l’equazione si scompone e diventa X  1 T  = 2 . X v T In questa equazione il primo membro dipende solo da x, il secondo solo da t: dovendo i due membri essere identicamente uguali fra loro, l’unica possibilit` a `e che entrambi siano uguali ad una costante C. Si ottengono cos`ı le due equazioni separate X  − C X = 0 (2.1 ) T  − C v 2 T = 0 . La pi` u generale soluzione della prima equazione `e √ Cx

X(x) = A e

√ Cx

+ B e−

,

ma le condizioni al contorno (2.2), che ora diventano X(0) = X(L) = 0 impongono che



X(0) = A +√B = 0 √ X(L) = A e C L + B e− C L = 0

e cio`e

√ CL

e



√ CL

= e−

.

o essere reale, e ricordando che per due numeri complessi Allora C non pu` α, β si ha eα = eβ

⇐⇒

α = β + 2n π i ,

ne risulta che deve essere C=−

n2 π 2 L2

n = 0, ±1, ±2, · · ·

2.1 Equazione di d’Alembert. Onde stazionarie

e dunque le soluzioni possibili saranno

X(x) = A ei kn x − e−i kn x = an sin (kn x)

31

(2.3)

dove si `e indicato con an la costante moltiplicativa arbitraria (per ciascun n) e dove nπ kn = (2.3 ) , C = −kn2 . L Si vede cos`ı che le condizioni al contorno impongono alla costante C di assumere soltanto i valori indicati dalla condizione (2.3 ), nella quale vanno assegnati i valori n = 1, 2, 3, · · · dato che n = 0 corrisponde alla soluzione identicamente nulla e il cambiamento di segno di n non produce soluzioni nuove. Per la seconda delle equazioni (2.1 ) non ci sono condizioni al contorno e la soluzione pi` u generale sar` a T (t) = An sin (ωn t) + Bn cos (ωn t) = En cos (ωn t + δn ) avendo posto ω = ωn = v kn e indicato con An , Bn , En , δn le solite costanti arbitrarie, per ciascun n. Fin qui abbiamo considerato il caso della corda ad estremi fissi. Naturalmente sarebbe possibile trattare in modo simile altre condizioni al contorno, ad esempio ∂ ∂ u(0, t) = 0 , u(L, t) = 0 ∂x ∂x ovvero, eseguita la separazione delle variabili, X  (0) = 0 ,

X  (L) = 0

che corrisponde ad una situazione in cui gli estremi della corda possono spostarsi conservando per` o la tangente orizzontale in x = 0 e x = L , oppure anche altre situazioni, p.es. u(0, t) = 0, ∂u(L, t)/∂x = 0 (v. anche pi` u avanti, § 2.14). Tornando comunque per concretezza al caso X(0) = X(L) = 0 , si sono dunque trovate infinite soluzioni a variabili separate, che – a meno di un fattore arbitrario – sono date da un (x, t) = sin (kn x) cos (ωn t + δn ) ;

kn =

nπ , ωn = kn v . L

(2.4)

Queste soluzioni sono caratteristiche per la loro particolare dipendenza da x e da t, e si chiamano onde stazionarie ; esse descrivono i modi pi` u semplici di oscillazione della corda (modi armonici o normali ). Il modo n-simo corrisponde alla configurazione in cui il profilo della corda `e in ogni istante una sinusoide di lunghezza d’onda λn = 2π/kn = 2L/n , mentre al variare del

32

Spazi di Hilbert

u(x, t) 0

L

Figura 2.2. Onde stazionarie per la corda elastica a estremi fissi.

tempo cambia solo l’ampiezza di tale sinusoide (v. fig. 2.2, dove `e rappresentata la situazione nel caso n = 3 ); la variazione col tempo di questa ampiezza avviene con legge sinusoidale con “frequenza” ωn = kn v = n π v/L . Quando la corda si trova in uno di questi stati di vibrazione un , essa emette un “suono puro” cio`e una nota con lunghezza d’onda fissata λn .

2.2 Primi problemi concernenti gli spazi a dimensione infinita Quanto visto nel paragrafo precedente offre immediatamente lo spunto e la motivazione per vari approfondimenti. Anzitutto, si pu` o osservare che l’equazione che si `e ottenuta per la X(x), riscritta nella forma d2 X = −k 2 X , dx2

X(0) = X(L) = 0

pu` o essere vista come una equazione agli autovalori. Infatti basta considerare lo spazio vettoriale (di dimensione infinita!) delle funzioni X(x) derivabili almeno due volte, definite nell’intervallo [0, L] e che si annullano agli estremi ` chiaro che l’operatore di cui si cercano gli autovalori di questo intervallo. E `e l’operatore “derivata seconda”, che `e un operatore lineare su questo spazio. Da notare che sono precisamente le condizioni di annullamento al bordo a limitare gli autovalori λ = −k 2 a ben determinati valori “discreti” k 2 = kn2 = ` ovvio che dovremo riconsiderare accuratamente questo fatto. n2 π 2 /L2 . E Ma c’`e un altro punto che dobbiamo subito mettere in evidenza. Poich`e l’equazione di d’Alembert `e un’equazione lineare, se u1 e u2 sono soluzioni dell’equazione, anche ogni combinazione lineare α1 u1 + α2 u2 lo `e. Ma ora di soluzioni indipendenti ce ne sono a disposizione infinite (le soluzioni trovate prima) e quindi, al posto delle combinazioni lineari finite (usate nel primo capitolo), ci aspettiamo di dover scrivere delle serie di funzioni. Naturalmente questo comporter`a nuovi problemi, che dovremo affrontare con cura. Prima di tutto, dovremo ovviamente preoccuparci della convergenza di tali serie, o – pi` u esattamente – di quale dovr` a essere il tipo di convergenza da richiedere

2.3 La serie di Fourier nell’analisi elementare e le sue difficolt` a

33

(puntuale in ogni punto, oppure puntuale quasi ovunque, oppure uniforme, oppure . . . ? Vedremo che tutte queste nozioni di convergenza avranno un ruolo importante, ma che il tipo di convergenza pi` u appropriato sar` a ancora diverso). D’altronde la effettiva necessit`a di ricorrere a queste “combinazioni infinite” si intuisce facilmente pensando al tipico problema di Cauchy , cio`e: data una configurazione iniziale della corda, determinarne il suo andamento nel tempo (il problema `e analogo – a parte appunto la dimensione – a quello risolto nel § 1.7a). Poich`e conosciamo l’evoluzione temporale delle onde stazionarie, sar` a dunque necessario decomporre la situazione iniziale come “somma” (cio`e qui come opportuna serie) delle onde stazionarie. Per affrontare questo problema, `e allora necessario rivedere qualche risultato classico dell’analisi matematica concernente gli sviluppi in serie tramite funzioni trigonometriche.

2.3 La serie di Fourier nell’analisi elementare e le sue difficolt` a Sia f = f (x) una funzione, definita nell’intervallo finito [−L, L] , continua, oppure solo generalmente continua (cio`e dotata al pi` u di un numero finito di punti di discontinuit` a, tale che nei punti di discontinuit` a esistono finiti i limiti destro e sinistro; tali funzioni sono anche dette continue a tratti ), e inoltre dotata di derivata prima pure generalmente continua. Si considerino i seguenti integrali ⎧  +L ⎪ 1 ⎪ ⎪ α0 = f (x) dx ⎪ ⎪ 2L −L ⎪ ⎪ ⎪  ⎨  nπ  1 +L n = 1, 2, . . . (2.5) f (x) cos αn = x dx ⎪ L −L L ⎪ ⎪ ⎪   nπ  ⎪ ⎪ 1 +L ⎪ ⎪ f (x) sin x dx ⎩ βn = L −L L e poi la serie α0 +

∞  n=1

αn cos

∞  nπ    nπ  βn sin x + x L L n=1

(2.6)

che viene detta serie di Fourier (trigonometrica) della funzione f (x). Si dimostra che valgono le due seguenti basilari propriet` a di convergenza: (a) Se la funzione f (x) `e continua con derivata prima generalmente continua, e inoltre f (L) = f (−L), allora la serie (2.6) converge uniformemente alla f (x). (b) Se la funzione f (x) `e generalmente continua, con derivata prima generalmente continua, la serie (2.6) converge in ogni punto; ha per somma la

34

Spazi di Hilbert

f (x) in tutti i punti in cui la f (x) `e continua, mentre in ciascun punto x0 di − discontinuit` a, essa converge alla “media” 12 [f (x+ 0 ) + f (x0 )]. Infine, nei punti 1 estremi ±L la serie converge alla media 2 [f (L) + f (−L)]. Da notare che quest’ultimo fatto (la convergenza in ±L) si capisce facilmente se si osserva che la serie (2.6) definisce in realt`a una funzione periodica, che si estende “automaticamente” anche fuori dell’intervallo −L, L con periodo 2L; pertanto, se f (L) = f (−L), si vede che ripetendo periodicamente la f (x), si viene a manifestare una discontinuit` a nei punti ±L. Da osservare pure che, naturalmente, nei punti in cui la f (x) presenta delle discontinuit` a, la convergenza della serie non pu` o essere uniforme: infatti – come `e ben noto – una serie (o una successione) di funzioni continue che converge uniformemente ha per somma (o per limite) una funzione continua. Ad esempio, il prolungamento periodico della funzione definita in |x| < L da f (x) = x risulter` a discontinuo nei punti x = ±L (anzi in tutti i punti x = ±L, ±3L, . . .): in tali punti la serie di Fourier converger` a a zero e non ci sar` a convergenza uniforme. Grazie ai risultati (a) e (b), si scrive f (x) = α0 +

∞ 

αn cos

n=1

∞  nπ    nπ  βn sin x + x L L n=1

(2.7)

e si dice che la funzione f (x) `e stata sviluppata nella serie (trigonometrica) di Fourier (2.7).

1

1

−π

−π π −1

π −1

Figura 2.3. Somma dei primi 4 e dei primi 11 termini della serie di Fourier dell’onda quadra.

In fig. 2.3 `e riportato il grafico della somma dei primi 4, e dei primi 11 termini non nulli dello sviluppo in serie di Fourier dell’“onda quadra” −1 per −π < x < 0 f (x) = . 1 per 0 < x < π Si noti che, partendo dalla (2.7), e almeno nei casi in cui la serie converge uniformemente, un risultato del tipo (2.5) pu` o essere ottenuto direttamente: basta

2.3 La serie di Fourier nell’analisi elementare e le sue difficolt` a

35

moltiplicare entrambi i membri della (2.7) per cos (nπ/L x) e integrare termine a termine (grazie all’ipotesi di uniformit` a della convergenza); osservando poi che  L  nπ   mπ  cos x cos x dx = L δnm L L −L  L  nπ   mπ  cos x sin x dx = 0 (2.8) L L −L si ottiene proprio la formula (2.5) per αm (e analogamente per α0 e βm ). Si osservi ora che l’insieme delle funzioni f che godono delle propriet` a assegnate all’inizio di questo paragrafo, forma evidentemente uno spazio vettoriale; emerge allora abbastanza chiara l’analogia della decomposizione (1.1) del vettore x = xi e(i) in dimensione finita con lo sviluppo (2.7) della funzione f come “combinazione lineare infinita” di una “base” costituita dai vettori  nπ   nπ  1 , cos x , sin x ; n = 1, 2, 3, · · · . (2.9) L L Introducendo infatti un prodotto scalare (f, g) fra le funzioni del nostro spazio nel modo naturale seguente  +L f (x) g(x) dx (2.10) (f, g) = −L



pi` u in generale, se le funzioni sono complesse, il prodotto scalare si dovr` a definire cos`ı:  +L f ∗ (x) g(x) dx (2.10 ) (f, g) = −L

(v. pi` u avanti, §§ 2.6,2.9) , le funzioni elencate in (2.9) risultano ortogonali fra loro grazie alla (2.8). Tenendo ancora conto delle (2.8), il sistema di vettori (2.9) si pu` o anche normalizzare: basta prendere 1 √ , 2L

 nπ  1 √ cos x , L L

 nπ  1 √ sin x ; L L

n = 1, 2, 3, · · ·

(2.11)

e ottenere cos`ı un sistema ortonormale. In conclusione, se indichiamo con f (n) , n = 0, 1, 2, 3, · · · la generica di queste funzioni, ad esempio ponendo: π  π  1 1 1 f (0) = √ , f (1) = √ sin x , f (2) = √ cos x , ··· L L 2L L L  nπ   nπ  1 1 x , f (2n) = √ cos x , ··· (2.12) f (2n−1) = √ sin L L L L

o scrivere nella forma (almeno nel si ha f (m) , f (n) = δnm e la (2.7) si pu` caso in cui la serie converga assolutamente, in modo da consentire lo scambio nell’ordine di somma):

36

Spazi di Hilbert ∞ 

f=

an f (n)

(2.13)

n=0

dove a0 =



2L α0 ,

a2n−1 =



L βn ,

a2n =



L αn .

(2.13 )

I coefficienti an dello sviluppo rappresentano le “componenti” di f rispetto al sistema ortonormale f (n) ; inoltre, grazie alla (2.5), essi si possono

calcolare, esattamente come in dimensione finita v. ad esempio la (1.7) , mediante prodotti scalari: an = (f (n) , f ) . (2.14) o essere spinta oltre. Innanzitutto, mentre in Ma l’analogia con Cn non pu` ogni spazio a dimensione finita a qualsiasi n-pla di numeri (a1 , a2 , · · · , an ) corrisponde un vettore dello spazio (e viceversa), qui non `e certamente vero che ad ogni “infinitupla” (cio`e successione) {an } corrisponde un elemento dello spazio: basta ad esempio prendere la successione an = 1 (per ogni n), per ottenere una serie (2.13) non convergente. Si potrebbe pensare di limitarsi alle successioni an che tendono a zero, ma anche con questa limitazione non sempre le serie (2.13) convergono: prendendo ad esempio an = 1/n, n = 0 , la serie corrispondente non converge in ogni punto (per esempio non converge in x = 0 ). D’altronde se si pensa di imporre la condizione ancora pi` u forte ∞ 

|an | < +∞

n=0

allora la serie di Fourier (2.13) risulta totalmente convergente 1 , e quindi anche uniformemente convergente: pertanto la serie stessa ha per somma una funzione continua. Ma la limitazione a funzioni continue `e certamente troppo restrittiva, anche in vista delle applicazioni (basta pensare all’esempio dell’onda quadra considerato poco fa). ` insomma necessario individuare contemporaneamente: E (i) un opportuno spazio di funzioni (con propriet` a abbastanza ampie e generali) (ii) una precisa condizione sulla successione dei coefficienti am in modo tale che ogni funzione di tipo (i) ammetta uno sviluppo con i coefficienti cos`ı individuati, e – viceversa – ogni serie costruita con questi coefficienti sia convergente ad una funzione di tipo (i). E, come gi` a detto nel paragrafo precedente, resta, prima ancora, da precisare: (iii) a quale tipo di convergenza ci si debba riferire quando si considerano tali serie.  1 Si ricorda che una serie di funzioni fn (x) converge totalmente se esiste  una successione di costanti Mn tali che |fn (x)| ≤ Mn e la serie numerica convergente.

Mn `e

2.4 Evoluzione temporale di un’onda elastica

37

Un ulteriore punto da chiarire `e se oltre alla “base” (2.12) ne esistano altre, e in ogni caso, come si possano individuare (anzi: definire precisamente) e riconoscere tali basi; e inoltre come si possano estendere i risultati a spazi di funzioni definite su insiemi qualsiasi, o meglio ancora a spazi vettoriali “astratti” di dimensione infinita. Tuttavia, prima ancora di affrontare questa serie di questioni, quanto detto finora `e gi`a sostanzialmente sufficiente per dare un’idea di come affrontare qualche particolare problema concreto concernente il movimento della corda elastica o la propagazione del calore su una sbarra conduttrice.

2.4 Evoluzione temporale di un’onda elastica Premettiamo un’osservazione importante. Sia f (x) una funzione sviluppabile in serie di Fourier secondo quanto visto nel paragrafo precedente, definita per` o nell’intervallo [0, L] . Immaginiamo ora di prolungare tale funzione “con legge dispari” all’intervallo [−L, L] , cio`e introduciamo una funzione f (x) definita in [−L, L] in modo che f sia una funzione dispari e sia tale che f (x) = f (x) quando 0 < x < L . Se ora si sviluppa la f (x) in serie di Fourier (2.7) nell’intervallo [−L, L] , lo sviluppo che si ottiene dovr` a quindi contenere i soli termini in sin n π x/L ; allora, limitandosi all’intervallo [0, L] , si avr` a anche lo sviluppo della funzione f (x) in serie di soli seni: ∞ n π   f (x) = βn sin x . (2.15) L n=1 Questo fatto `e importante in relazione al problema

della corda elastica a estremi fissi in [0, L] , poich´e le funzioni sin n π x/L esprimono proprio la dipendenza da x delle onde stazionarie in questo caso. Il problema classico che ora affrontiamo `e quello di determinare, date le opportune informazioni sullo stato iniziale della corda, la configurazione u(x, t) della corda stessa negli istanti successivi (la evoluzione temporale dell’onda ), e anche di individuare quali sono le frequenze che la corda emette (la analisi in frequenza ). Il problema si pu` o risolvere completamente assegnando le condizioni iniziali della corda e cio`e assegnando due funzioni che hanno il seguente significato:  f (x) = posizione della corda all’istante zero = u(x, 0) (2.16) ∂u  g(x) = “velocit` a” di ciascun punto della corda all’istante zero =  ∂t t=0 Tenendo conto di quanto detto nei precedenti paragrafi, cerchiamo di risolvere questo problema partendo da una soluzione pi` u generale dell’equazione di d’Alembert espressa tramite una opportuna serie di onde stazionarie, cio`e 2 2

Il procedimento qui adottato `e esatto, anche se richiederebbe ora una giustificazione pi` u rigorosa. Il problema `e essenzialmente quello di assicurarsi che `e lecito

38

Spazi di Hilbert

u(x, t) =

∞ 

an un (x, t) =

n=1

∞ 

an sin(kn x) cos(ωn t + δn )

(2.17)

n=1

dove kn = n π/L . Si riconosce subito che, per ogni fissato t, questa serie `e proprio una serie di Fourier. A questo punto baster` a determinare i coefficienti incogniti an e δn che compaiono nella serie: e questo si ottiene imponendo che al tempo t = 0 siano soddisfatte le condizioni (2.16). Il procedimento generale, del resto facilmente deducibile, `e meglio illustrato da un esempio semplice. Consideriamo il caso in cui nelle condizioni iniziali (2.16) la funzione g `e nulla, mentre f = 0 , cio`e il caso in cui la corda viene spostata dalla sua posizione di equilibrio e quindi lasciata ripartire liberamente. Ponendo t = 0 nella derivata ∂u/∂t della (2.17) si ottiene ∞  g(x) = −an ωn sin δn sin(kn x) n=1

che `e lo sviluppo di Fourier (con coefficienti βn = −an ωn sin δn ) della funzione g. Poich´e ora g = 0 , si ha evidentemente an sin δn = 0 per ogni n e quindi si pu` o porre δn = 0 per tutti gli n per cui an = 0 . Rimane quindi u(x, t) =

∞ 

an sin(kn x) cos(ωn t)

(2.18)

n=1

Supponiamo ora di assegnare esplicitamente anche la funzione iniziale f : sia per esempio (v. fig. 2.4)

0

d

L

Figura 2.4. Una configurazione iniziale per la corda elastica.

⎧ 2d ⎪ ⎪ x ⎨ L f (x) = ⎪ ⎪ ⎩ 2d (L − x) L

L 2

per

0≤x≤

per

L ≤ x ≤ L. 2

Imponendo nella (2.18) f (x) = u(x, 0) , i coefficienti an coincidono proprio con i coefficienti βn dello sviluppo di Fourier della f (che – per quanto visto eseguire le operazioni di derivazione della serie termine a termine. V. pi` u avanti, i §§ 2.14, 2.27 e anche § 5.6 (i).

2.5 L’equazione del calore

39

all’inizio di questo paragrafo – deve essere prolungata con legge dispari) in serie di soli seni (2.15). Essi quindi si calcolano facilmente e si ottiene, nel caso in esame: ⎧ 0 per n pari ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ 8d per n = 1, 5, · · · , 4n + 1, · · · an = 2 π n2 ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ − 8d per n = 3, 7, · · · , 4n + 3, · · · . π 2 n2 Questo risultato intanto mostra che le lunghezze d’onda che vengono emesse in questo caso sono i sottomultipli dispari della lunghezza λ1 = 2L ; il modo di oscillazione con la lunghezza d’onda pi` u alta (e quindi la frequenza pi` u bassa) si chiama “armonica principale” o “fondamentale”, e le altre “armoniche secondarie”. Inoltre si vede che l’intensit` a con cui viene emessa l’n-sima armonica, essendo proporzionale al quadrato dell’ampiezza con cui tale armonica compare nello sviluppo (2.18), risulta proporzionale a 1/n4 , e quindi decresce rapidamente all’aumentare di n. Infine la (2.18), inserendovi gli an ora trovati, fornisce l’evoluzione temporale cercata. Ad esempio si verifica immediatamente che negli istanti t = 0, 2L/v, 4L/v, · · · , si ha u(x, t) = u(x, 0) = f (x) , cio`e la corda riassume la sua posizione iniziale; mentre per t = L/v, 3L/v, · · · , si ha u(x, t) = −u(x, 0) = −f (x) . Resta pure da notare che, qualsiasi siano f e g, si ha u(x, t+2L/v) = u(x, t) .

2.5 L’equazione del calore Come `e noto, le equazioni di Maxwell nel vuoto conducono alle equazioni di d’Alembert in tre dimensioni per il campo elettrico associato a un’onda elettromagnetica Δ Ei =

1 ∂ Ei , c2 ∂t2

i = 1, 2, 3;

Δ≡

∂2 ∂2 ∂2 + + ∂x2 ∂y 2 ∂z 2

a cui deve obbedire ogni componente del campo elettrico stesso E = E(x, y, z, t) (come ogni componente del campo magnetico). Supponiamo che il campo si trovi fra due pareti piane indefinite perfettamente riflettenti; assumendo opportunamente gli assi, siano x = 0 e x = L le equazioni di questi piani e si assuma che il campo elettrico abbia componenti E = (0, 0, E) , con E funzione solo di x, oltre che del tempo t; la precedente equazione diventa allora ∂2 1 ∂2 E = E, E = E(x, t) ∂x2 c2 ∂t2 con le condizioni al contorno E(0, t) = E(L, t) = 0 . Si ottiene quindi un problema identico a quello gi` a studiato per le vibrazioni della corda elastica.

40

Spazi di Hilbert

Un’altra importante equazione alle derivate parziali `e la cosiddetta equazione del calore (o della diffusione, talvolta chiamata anche equazione di Fourier): si consideri una sbarretta conduttrice di calore; se u(x, t) indica la temperatura presente all’istante t nel punto x della sbarretta, si dimostra che l’equazione che regola l’andamento di tale temperatura `e ∂2 ∂ u=C u 2 ∂x ∂t

(2.19)

dove C > 0 `e una costante caratteristica del mezzo conduttore. L’equazione contiene la derivata prima rispetto al tempo, e quindi l’evoluzione temporale risulta determinata da una sola condizione iniziale u(x, 0) . Si supponga che gli estremi della sbarretta siano posti in x = 0 e x = L , e siano mantenuti a temperatura costante T0 (si pu` o sempre assumere T0 = 0 : basta sostituire u con u − T0 ). Se si esegue la separazione delle variabili, come nei §§ 2.1 e 2.4, e si scrive dunque la soluzione sotto forma di serie  u(x, t) = Xn (x) Tn (t) , n

si trova, sostituendo nell’equazione, che Xn (x) = sin(πn x/L) , esattamente come nel paragrafo precedente, mentre le Tn (t) soddisfano l’equazione d π 2 n2 Tn . Tn = − dt C L2 La soluzione che si ottiene `e quindi π n   2 2 2 an sin u(x, t) = x e−π n t/C L L n

(2.18 )

dove, come nel paragrafo precedente, gli an sono i coefficienti di Fourier della condizione iniziale f (x) = u(x, 0) rispetto al set Xn (x) . Anche l’equazione di Schr¨ odinger per una particella quantistica vincolata sul segmento 0, L (buca di potenziale rettangolare infinita), che ha la forma ∂2 ∂ u = −i u ∂x2 ∂t

u(0) = u(L) = 0

(2.20)

porta a soluzioni analoghe alle precedenti (cambia l’andamento temporale). I risultati di questo e del precedente paragrafo saranno in seguito opportunamente ripresi e studiati in un contesto pi` u ampio e “adeguato”, che ne consentir` a importanti approfondimenti e generalizzazioni.

2.6 Prodotto scalare e norma: definizione generale Torniamo ora al problema, indicato nella seconda parte del § 2.3, di chiarire in un contesto preciso l’applicabilit` a della tecnica dello sviluppo in serie di Fourier, di cui abbiamo appena visto qualche utilizzazione interessante. Il punto

2.6 Prodotto scalare e norma: definizione generale

41



di partenza sta nella definizione di prodotto scalare (2.10) oppure (2.10 ) , che in realt` a `e stata introdotta in modo del tutto naturale. Ma per poter utilizzare a questo proposito i risultati generali che ci fornisce la matematica, `e necessario premettere alcune considerazioni “astratte” e quindi di carattere del tutto generale, cio`e indipendenti dal particolare caso in esame. Sia V un qualsiasi spazio vettoriale (di dimensione finita o infinita): si dice che in V `e definito un prodotto scalare se `e definita una legge di V ×V → C , che ad ogni coppia di vettori x, y ∈ V associa un numero complesso che si indica con il simbolo (x, y) in modo che siano soddisfatte le seguenti propriet` a per ogni x, y, z ∈ V e λ ∈ C: (p1) (x, y)∗ = (y, x) (p2) (x, x) ≥ 0 e inoltre (x, x) = 0 se e solo se x = 0 (p3) (x, λ y) = λ (x, y) e quindi : (λ x, y) = λ∗ (x, y) (p4) (x, y + z) = (x, y) + (x, z) (si `e indicato semplicemente con 0 il vettore “zero” dello spazio V ). Si dice invece che in V `e definita una norma se `e definita una legge V → R+ (R+ indica l’insieme dei numeri reali ≥ 0 ), che ad ogni x ∈ V associa un numero reale positivo o nullo, che si indica con x , in modo che siano soddisfatte le seguenti propriet` a, per ogni x, y ∈ V e λ ∈ C: (n1) x ≥ 0 e inoltre x = 0 se e solo se x = 0 (n2) λ x = |λ| x (n3) x + y ≤ x + y Vogliamo ora mostrare che il prodotto scalare implica una norma: si ponga infatti  x = (x, x) . (2.21) ` immediato vedere che con tale definizione le propriet` E a (n1) e (n2) sono soddisfatte grazie alle (p1,p2,p3); per provare che vale anche la (n3) (detta disuguaglianza triangolare ), si deve prima dimostrare l’importante disuguaglianza di Schwarz : |(x, y)| ≤ x y

(2.22)

che `e conseguenza delle sole propriet` a formali del prodotto scalare e della definizione (2.21). Per provare la (2.22) si osservi che, detto λ un qualsiasi numero reale, si ha ovviamente x + λ (y, x) y2 ≥ 0 e quindi, usando anche la (p4), x + λ (y, x) y2 = x2 + 2λ |(x, y)|2 + λ2 |(x, y)|2 y2 ≥ 0 che, dovendo essere vera per ogni λ, implica |(y, x)|4 − |(y, x)|2 x2 y2 ≤ 0

42

Spazi di Hilbert

da cui segue la (2.22). Si ha allora x + y2 = (x + y, x + y) ≤ x2 + y2 + 2x y = (x + y)2 cio`e appunto la disuguaglianza triangolare (n3). Questo prova che la posizione (2.21) `e corretta.

Naturalmente, le definizioni date a suo tempo (1.3) e (1.4) di prodotto scalare e di norma per i vettori di Cn soddisfano a tutte le propriet` a formali richieste sopra. Ma anche la posizione (2.10 ) soddisfa alle propriet` a richieste 3 e quindi correttamente definisce un prodotto scalare. Resta allora definita anche una norma per le funzioni considerate, e sar` a verificata la disuguaglianza di Schwarz, che in questo caso diventa      L  L L   ∗ 2 f (x) g(x) dx ≤ |f (x)| dx |g(x)|2 dx . (2.23)   −L  −L −L

2.7 Il concetto di norma come “distanza” Dati ad esempio due vettori x, y dello spazio R3 , la quantit` a x−y esprime, da un punto di vista geometrico, la “distanza” fra i due vettori. Preso un vettore x0 , l’insieme dei vettori x tali che x−x0  < δ costituisce un “intorno sferico” di x0 di raggio δ. Questi esempi mostrano che il concetto di norma fornisce una struttura metrica, cio`e un concetto di distanza fra gli elementi di uno spazio vettoriale, qualunque esso sia. Bisogna per` o notare che in uno stesso spazio vettoriale V `e possibile definire pi` u tipi di norme, cio`e leggi V → R+ che soddisfano i requisiti (n1,n2,n3) assegnati nel paragrafo precedente. Per esempio in Cn , oltre alla norma gi` a usata (1.4) che ha la propriet` a di essere indotta da un prodotto scalare, anche la seguente legge x → |x1 | + |x2 | + · · · + |xn | definisce una norma, diversa dalla precedente. Analogamente, nello spazio vettoriale delle funzioni considerate nel § 2.3 a proposito della serie di Fourier, oltre alla norma  1/2 2 f  = |f (x)| dx (2.24) I

o considerare anche la norma indotta dal prodotto scalare (2.10 ), si pu` f  = sup |f (x)|

(2.25)

x∈I

` chiaro che, spesso indicata con f ∞ , dove I `e l’intervallo in cui varia la x. E 3

Ci` o `e senz’altro vero per funzioni continue; in caso contrario occorre una preci sazione che riguarda le propriet` a (p2) ed (n1) , e che faremo nel § 2.8.

2.7 Il concetto di norma come “distanza”

43

f (x)

g(x) x

Figura 2.5. Funzioni “lontane” nella norma del sup, “vicine” nella norma L1 (2.24 ) o L2 (2.24).

come mostra la fig. 2.5, due funzioni f , g possono essere “vicine” rispetto alla prima norma  1/2 f − g = |f (x) − g(x)|2 dx I

ed essere invece “lontane” rispetto alla seconda f − g = sup |f (x) − g(x)| . x∈I

` a questo punto essenziale osservare che in generale la serie di Fourier di E una funzione non `e vicina alla funzione stessa nel senso della norma (2.25), ovvero – pi` u esattamente – la successione delle somme parziali della serie di Fourier non approssima bene nel senso di tale norma la funzione data: basta infatti pensare a quanto succede nei punti di discontinuit` a della funzione stessa. Come enunceremo in modo completo e preciso pi` u avanti, si ha invece che la serie di Fourier approssima veramente la funzione nel senso della norma (2.24), che d’altronde `e proprio quella che segue dal prodotto scalare (2.10 ) introdotto in modo del tutto naturale nel calcolo dei coefficienti della serie, come si `e visto. Tutto questo suggerisce che la giusta “ambientazione” della teoria delle serie di Fourier `e quella che coinvolge le funzioni per le quali `e definibile la norma (2.24), cio`e le funzioni con modulo quadrato integrabile. Accanto alla norma (2.24), citiamo anche un’altra scelta utile (che incontreremo pi` u avanti) e che indichiamo qui con f 1 :  f 1 = |f (x)| dx . (2.24 ) I

Un altro importante concetto, legato a queste considerazioni, `e quello di spazio completo (o chiuso ). Ricordiamo intanto che in uno spazio V in cui `e definita una norma, una successione di elementi xn ∈ V si dice successione di Cauchy se xn − xm  → 0; lo spazio si dir` a completo o chiuso (rispetto alla data norma) se ogni successione di Cauchy converge ad un elemento x dello spazio stesso (sempre nel senso della norma: xn − x → 0). L’esempio

44

Spazi di Hilbert

pi` u ovvio di spazio non completo `e dato dall’insieme dei numeri razionali, con la norma “naturale” |x1 − x2 |: `e ben noto infatti che ci sono successioni di Cauchy di numeri razionali che convergono ad un numero irrazionale. Invece, la propriet` a caratteristica dei numeri reali `e appunto quella di costituire uno spazio completo, o – meglio ancora – di essere il completamento (o chiusura) dello spazio dei razionali. Consideriamo ora lo spazio delle funzioni continue definite in un intervallo compatto qualsiasi I, con la norma (2.25), che ora si pu` o anzi scrivere f  = max |f (x)| . x∈I

(2.25 )

Questo spazio `e completo, infatti una successione di funzioni continue che sia successione di Cauchy rispetto alla norma (2.25 ) `e una successione uniformemente convergente, e pertanto essa converge (uniformemente) ad una funzione continua e quindi contenuta nello spazio. Invece, lo stesso spazio di funzioni per` o dotato della norma (2.24) non `e completo, e nemmeno lo `e con la norma (2.24 ): `e facile trovare esempi di successioni di Cauchy rispetto a queste norme che per`o convergono puntualmente e nel senso dela norma (2.24) o rispettivamente della (2.24 ) a funzioni discontinue. Ricordiamo infine la seguente propriet` a generale: se una successione xn `e convergente, cio`e xn − x → 0, allora essa `e di Cauchy. Infatti, per la disuguaglianza triangolare, si ha xn − xm  = xn − x + x − xm  ≤ xn − x + x − xm  .

2.8 Alcune osservazioni sulla integrazione delle funzioni Le considerazioni fatte nei paragrafi precedenti ci conducono in modo naturale ad introdurre una norma da definire attraverso un integrale come nella (2.24). Ma si deve osservare che, affinch`e la (2.24) definisca una vera norma, cio`e soddisfi in particolare al requisito (n1) (v. § 2.6), occorre anzitutto che f  = 0 implichi f = 0. In realt` a, invece, per una funzione che sia diversa da zero solo in un numero finito di punti, o pi` u in generale in un insieme di punti di misura nulla (secondo Lebesgue) e sia nulla in tutti gli altri punti, l’integrale (2.24) risulta uguale a zero. Per poter allora considerare la definizione (2.24) come una vera norma, basta convenire di considerare equivalenti (e cio`e di “identificare”) le funzioni quasi ovunque uguali fra loro, ovvero le funzioni che differiscono fra loro soltanto in un insieme finito o numerabile di punti (o – come si dice pi` u esattamente – in un insieme di punti di misura nulla). Nel seguito questa convenzione verr` a sempre sottintesa. Naturalmente identiche osservazioni valgono anche per la norma (2.24 ). Come si vede, la nozione di integrale a cui occorre far riferimento in questo contesto `e quella dell’integrale secondo Lebesgue. Come noto, l’integrale di Le-

2.8 Alcune osservazioni sulla integrazione delle funzioni

45

besgue `e una estensione dell’integrale elementare 4 (quello dei plurirettangoli inscritti e circoscritti, o di Riemann), nel senso che esso permette di definire l’integrale anche per alcune funzioni che non risultano integrabili secondo il metodo elementare. L’esempio tipico `e dato dalla funzione di Dirichlet, cos`ı definita nell’intervallo [0, 1] :  0 se x `e irrazionale f (x) = 1 se x `e razionale che non `e integrabile nel senso dell’integrazione elementare, ma `e integrabile secondo Lebesgue, e in particolare ha integrale nullo: in effetti essa differisce dalla funzione nulla soltanto in un insieme numerabile di punti (si ricordi che l’insieme dei numeri razionali `e numerabile), e dunque `e da considerare equivalente a quest’ultima. Alcune importanti propriet` a dell’integrale di Lebesgue che ci serviranno nel seguito sono le seguenti: (a) Se F (x) `e una funzione integrabile, ed f (x) un’altra funzione tale che |f (x)| ≤ F (x) allora anche f `e integrabile. (b) f `e integrabile se e solo se |f | `e integrabile. ` da osservare che tali propriet` E a sono in generale false se riferite all’integrale elementare (per esempio, per la funzione di Dirichlet f sopra ricordata si ha f = |f | ≤ F = 1); tuttavia tornano ad essere vere se ci si limita alle funzioni generalmente continue. In realt` a, occorre osservare che la propriet`a (b) risulta vera qui “per definizione”: infatti la definizione stessa di integrabilit` a secondo Lebesgue richiede che siano separatamente integrabili la “parte positiva” f (x) se f (x) > 0 f + (x) = 0 se f (x) < 0 e la “parte negativa” f − (x) (definita analogamente) della f (x) 5 , dunque `e f = f + + f − e |f | = f + − f − , e la propriet` a (b) segue automaticamente. ` tuttavia importante far presente che `e possibile introdurre una nozioE ne “meno restrittiva” di integrabilit` a: consideriamo, ad esempio, la funzione (definita e continua su tutto R ) sin x f (x) = x 4

5

Per maggiori dettagli, v. per esempio i testi di Rudin [28], di Royden [27] o di Fano [3]. In particolare, dovremo sempre sottintendere – come d’abitudine – che le funzioni che verranno considerate siano “misurabili” secondo Lebesgue. Naturalmente, questa non `e una grave limitazione, dato che gli esempi che si possono costruire di insiemi o funzioni non misurabili sono piuttosto “astrusi”, non solo dal punto di vista fisico, ma anche da quello matematico, poich´e per costruire esempi non misurabili occorre utilizzare l’assioma della scelta. Se f `e complessa, lo stesso procedimento si applica alla parte reale e alla parte immaginaria della f .

46

Spazi di Hilbert +∞

si vede, anche solo osservandone il grafico, che l’integrale −∞ |f (x)| dx si com porta come la serie (1/n) e dunque diverge, mentre esiste finito il seguente limite:  +R

lim

R→+∞ R →+∞

f (x) dx

(2.26)

−R

dove i limiti per R → ∞ e per R → ∞ vanno eseguiti indipendentemente; la (2.26) definisce il cosiddetto integrale improprio della funzione f (x). Per sottolineare la differenza fra la nozione di integrabilit` a secondo Lebesgue e quella pi` u “debole” secondo questa nozione di integrale improprio, le funzioni integrabili secondo Lebesgue si dicono anche sommabili . Dunque f (x) = sin x/x ammette integrale improprio su R, ma non `e sommabile. L’insieme delle funzioni sommabili su un insieme I si indica con L1 (I), e dunque la (2.24 ) `e precisamente la definizione della norma L1 (I). La propriet` a rilevante dello spazio L1 (I) `e che esso `e completo rispetto a tale norma (Teorema di Riesz ), ed anzi `e il completamento (o chiusura), sempre rispetto a tale norma, del sottospazio C 0 (I) delle funzioni continue. Infine, particolarmente importante, anche nelle applicazioni, `e il seguente Teorema di Lebesgue o Teorema della convergenza dominata : Sia fn (x) una successione di funzioni sommabili che converge puntualmente quasi ovunque per n → ∞ ad una funzione f (x); se esiste una funzione F (x) sommabile, tale che, per ogni n, sia |fn (x)| ≤ F (x) , allora: (i) anche f `e sommabile; (ii) si ha



lim



n→∞

 fn (x) dx =

I

(2.27)

f (x) dx

(2.28)

I

analogo risultato vale anche se – invece di una successione

fn (x) – si ha una famiglia f (x) , dipendente da un parametro continuo  . Questo teorema costituisce una importante generalizzazione del noto risultato dell’analisi elementare, che assicura la possibilit` a di passare al limite sotto l’integrale come nella (2.28) nelle due ipotesi che la successione fn converga uniformemente e che l’intervallo sia di lunghezza finita.

2.9 Lo spazio L2 (I) Sia I un qualsiasi intervallo o sottoinsieme di R (misurabile, eventualmente anche di misura infinita, per esempio l’intera retta); si indica con Lp (I) l’insieme delle funzioni f tali che esiste finito l’integrale

2.9 Lo spazio L2 (I)

47

 |f (x)|p dx . I

Ovviamente, si possono considerare anche sottoinsiemi in Rn . Per semplicit`a, ci limiteremo in generale al caso n = 1; l’estensione a funzioni di n > 1 variabili non presenta difficolt` a. Come si `e visto precedentemente, l’insieme L2 (I) merita particolare attenzione. Proviamo intanto che L2 `e uno spazio vettoriale: siano infatti f, g ∈ L2 (I) , cio`e   |f |2 dx < +∞ , |g|2 dx < +∞ ; I

I

osservando che |f + g|2 ≤ |f + g|2 + |f − g|2 = 2 |f |2 + 2 |g|2 segue, grazie alla propriet` a (a) del paragrafo precedente, che anche f + g ∈ ` immediato poi osservare che anche α f ∈ L2 (I) per ogni numero L2 (I) . E complesso α. Nello spazio L2 (I) si pu` o inoltre definire un prodotto scalare nel modo gi` a visto  f ∗ (x) g(x) dx

(f, g) =

(2.29)

I

e l’integrale esiste finito per qualunque coppia di funzioni f, g ∈ L2 (I) grazie alle propriet` a (a), (b) del paragrafo precedente. Infatti

|f ∗ g| = |f | |g| ≤

1 2

|f |2 +

1 2

|g|2

dunque f ∗ g ∈ L1 (I), e cos`ı anche ovviamente f g e |f |2 , dove si `e fatto uso della ovvia disuguaglianza 0 ≤ (|f | − |g|)2 = |f |2 + |g|2 − 2 |f | |g| . Vale inoltre il seguente Teorema di Riesz-Fischer : Lo spazio L2 (I) `e completo rispetto alla norma  (2.30) f 2 = |f |2 dx I

indotta dal prodotto scalare (2.29). Inoltre L2 (I) `e il completamento, rispetto alla norma (2.30), del sottospazio delle funzioni continue C 0 (I). Naturalmente, la convergenza cui ora ci si riferisce `e quella in media di ordine due, come gi`a osservato, cio`e  2 fn − f  = |fn − f |2 dx → 0 . I

Enunciamo, infine, una generalizzazione della disuguaglianza di Schwarz e cio`e la cosiddetta

48

Spazi di Hilbert

Disuguaglianza di Schwarz-H¨ older : Siano f ∈ Lp (I) e g ∈ Lq (I) , dove p e q sono numeri tali che 1/p + 1/q = 1 . Allora il prodotto f g `e sommabile e vale la disuguaglianza  1/p  1/q  p q |f g| dx ≤ |f | dx |g| dx . (2.31) I

I

I

2.10 Lo spazio di Hilbert: definizione generale Uno spazio di Hilbert `e semplicemente uno spazio vettoriale in cui `e definito un prodotto scalare e che `e inoltre completo rispetto alla norma indotta da tale prodotto scalare 6 . Quindi gli spazi L2 (I) sono spazi di Hilbert. Ma anche gli spazi a dimensione finita Cn (o Rn ) sono spazi di Hilbert, dato che sono evidentemente spazi completi (usualmente per` o, quando si parla di spazi di Hilbert, ci si riferisce a spazi di dimensione infinita). Consideriamo ora lo spazio L2 (I) nel caso che I sia l’intervallo [−L, L] . Osserviamo intanto che l’insieme delle funzioni che soddisfano i requisiti dati all’inizio del § 2.3 `e ovviamente un sottospazio di L2 (−L, L), e per queste funzioni vale dunque lo sviluppo in serie di Fourier nel senso gi` a indicato. Siamo ora in grado di generalizzare questo risultato con la seguente formulazione precisa del classico Teorema di Fourier sulla sviluppabilit` a in serie (trigonometrica): Sia f = f (x) ∈ L2 (−L, L) e siano am i prodotti scalari am = (fm , f ) fra f (x) e le funzioni fm (x) del set (2.11); allora la serie (2.13) che cos`ı si costruisce risulta convergente alla funzione f nella norma di L2 (cio`e la successione delle somme parziali approssima la funzione f “in media di ordine due”). Abbiamo dunque ampliato (rispetto a quanto visto in § 2.3) lo spazio delle funzioni per le quali `e possibile calcolare lo sviluppo in serie tramite funzioni trigonometriche (2.13), e abbiamo anche precisato qual `e il tipo di convergenza che `e giusto richiedere in questa situazione. Grazie alla sua propriet` a qui sopra descritta, il sistema (2.11) viene detto sistema completo in L2 (−L, L) (si noti bene che, accanto alla parola “sistema”, l’aggettivo “completo” assume un significato diverso da quello che ha accanto alla parola “spazio”: v. § 2.7). Ma `e anche chiaro che questa fondamentale propriet` a del set (2.11) deve essere “formalizzata”, allo scopo di estenderla ad altri sistemi, e a spazi di Hilbert qualsiasi. Svilupperemo dunque nei prossimi paragrafi una teoria “generale”, cio`e fondata solo su propriet` a “astratte” dello spazio di Hilbert che in particolare ci consentir` a di introdurre una nozione “astratta” di serie di Fourier di vettori. 6

Se manca la completezza, si parla di spazio pre-Hilbertiano ; se invece lo spazio `e completo, ma la norma non proviene da un prodotto scalare, si ha uno spazio di Banach . Tutti gli spazi Lp sono spazi di Banach, ma solo L2 `e spazio di Hilbert.

2.11 Sistemi indipendenti e ortonormali

49

2.11 Sistemi indipendenti e ortonormali Sia H un generico spazio di Hilbert e sia x1 , x2 , . . . , xn , · · · un insieme (finito o infinito) di vettori linearmente indipendenti contenuti in H. Se lo spazio ha dimensione infinita (ed `e il caso che qui ci interessa), `e evidentemente possibile trovare infiniti vettori indipendenti 7 . Pu` o essere utile il seguente criterio, che sarebbe facile dimostrare: condizione necessaria e sufficiente affinch´e gli n vettori x1 , x2 , · · · , xn siano linearmente indipendenti `e che il determinante ⎛ (x , x ) (x , x ) · · · (x , x ) ⎞ 1

1

⎜ (x2 , x1 ) G(x1 , x2 , · · · , xn ) = det ⎜ .. ⎝ . (xn , x1 )

1

2

1

n

(x2 , x2 ) · · · ⎟ ⎟ .. ⎠ . ··· (xn , xn )

detto determinante di Gram , sia diverso da zero. Per esempio, vettori ortogonali sono (ovviamente!) indipendenti. Si ha il seguente importante risultato: comunque sia dato un insieme x1 , x2 , · · · , xn , · · · di vettori indipendenti, se ne pu` o sempre ricavare un altro insieme e1 , e2 , · · · , en , · · · di vettori ortonormali in modo che, per ogni m, i vettori e1 , e2 , · · · , em siano combinazioni lineari dei soli primi m vettori x1 , x2 , · · · , xm . L’insieme {en } si chiama sistema ortonormale . Per costruire tale sistema si comincia ponendo x1 e1 = · x1  Si sottrae poi ad x2 la componente “parallela” a e1 , cio`e e2 = x2 − (e1 , x2 ) e1 e si pone

e2 · e2  I vettori e1 ed e2 sono ortonormali, come si verifica subito. Il procedimento si ripete analogamente: il termine generale `e e2 =

ek

= xk −

k−1  i=1

(ei , xk ) ei

,

ek =

ek ek 

(2.32)

(si noti che ek = 0 , altrimenti x1 , x2 , · · · , xk sarebbero linearmente dipendenti). Tale procedimento si chiama procedimento di ortonormalizzazione di Schmidt . 7

Per l’esattezza, parlare di un insieme infinito (numerabile) di vettori indipendenti significa questo: comunque si fissi un intero n, i primi vettori x1 , x2 , . . . , xn sono linearmente indipendenti fra loro.

50

Spazi di Hilbert

2.12 Serie di Fourier Sia {en } un qualsiasi sistema ortonormale in uno spazio di Hilbert H. Fissato comunque x ∈ H ed un intero n , vogliamo determinare n numeri complessi a1 , a2 , · · · , an in modo tale che la “distanza” x −

n 

ai ei 

i=1

sia minima. Cio`e vogliamo trovare quale combinazione lineare dei primi n vettori “approssima” meglio il vettore x. Si ha 0 ≤ x −

n 

ai ei 2 = x2 −

i=1

n 

ai (x, ei ) −

i=1

= x2 −

n 

n 

a∗i (ei , x) +

i=1

|(ei , x)|2 +

i=1

n    ai − (ei , x)2

n 

|ai |2 =

i=1

(2.33)

i=1

e tale quantit` a `e chiaramente minima quando ai = (ei , x)

(2.34)

cio`e scegliendo come ai proprio la “componente” di x sul vettore ei . n  ai ei rappresenta quella In questo modo, con la (2.34), il vettore i=1

che si pu` o chiamare la proiezione ortogonale di x sul sottospazio  generato da e1 , e2 , · · · , en . Sempre con la scelta (2.34) e usando x − ai ei 2 ≥ 0, la (2.33) d` a ancora n n   x2 ≥ |(ei , x)|2 = |ai |2 i=1

i=1

la quale `e verificata per ogni n. Quindi si pu` o prendere il limite n → ∞ al secondo membro, la serie converge e si ottiene x2 ≥

∞ 

|(ei , x)|2 =

i=1

∞ 

|ai |2

(2.35)

i=1

che si chiama disuguaglianza di Bessel . I coefficienti ai definiti dalla (2.34) si chiamano coefficienti di Fourier del vettore x rispetto al sistema {ei } : la ragione di questa denominazione `e chiara grazie, ad esempio, all’analogia con la (2.14). Si consideri ora la seguente “serie di vettori” ∞  i=1

ai ei =

∞  i=1

(x, ei ) ei

2.12 Serie di Fourier

51

costruita con i coefficienti di Fourier del vettore x, che si chiama serie di Fourier del vettore x rispetto al sistema {ei } : si deve naturalmente sottolineare che “sommare” questa serie vuol dire cercare il limite x (beninteso: nel senso della norma assegnata in H) della successione delle somme parziali xn =

n 

ai ei

i=1

e l’esistenza di questo limite `e assicurata dal fatto che la successione xn `e di Cauchy: infatti (se n > m ) n n !2 !   ! ! ai ei ! = |ai |2 → 0 xn − xm 2 = ! i=m+1

i=m+1



 grazie alla convergenza della serie numerica |ai |2 v. la (2.35) . a in generale col vetBisogna subito notare che il vettore x non coincider` tore di partenza x. Ci` o dipender` a da come `e stato scelto all’inizio il sistema ortonormale {ei } : ad esempio, se prendiamo H = L2 (I) dove I `e l’intervallo [−L, L] e come sistema ortonormale l’insieme {L−1/2 sin(π n x/L)} , `e chiaro che lo sviluppo in serie di Fourier di soli seni di una funzione f ∈ L2 (I) converger`a alla funzione stessa solo se essa `e dispari, mentre ne dar` a in generale la sola “parte dispari” 8 12 [f (x) − f (−x)] , e addirittura dar` a zero se la funzione `e pari. Tornando al caso generale, il vettore x sar` a la migliore approssimazione di x mediante una serie degli {ei } . Diremo allora che {ei } `e un sistema (o set) ortonormale completo in H se, per ogni x ∈ H , la serie di Fourier di x rispetto a tale sistema converge nella norma di H ad x stesso, cio`e se xn − x → 0 , e si scriver`a x=

∞ 

ai ei ,

ai = (ei , x) .

(2.36)

i=1

I sistemi completi generalizzano, in dimensione infinita, il concetto di base degli spazi a dimensione finita. Come si `e gi`a detto, grazie al Teorema di Fourier (§ 2.10),

il set (2.11) `e un set ortonormale completo per lo spazio H = L2 ([−L, L]) . La definizione ora vista di sistema completo `e la generalizzazione “astratta” di quanto detto a proposito del sistema (2.11). Dobbiamo ora vedere altre importanti propriet` a caratterizzanti i sistemi completi. 8

Ogni funzione f definita in un intervallo simmetrico rispetto all’origine si pu` o scomporre nella somma di una funzione pari fp e di una dispari fd : f (x) = 12 [f (x) + f (−x)] + 12 [f (x) − f (−x)] ≡ fp + fd .

52

Spazi di Hilbert

2.13 Sistemi completi Dimostriamo ora che la completezza di un sistema ortonormale {en } `e equivalente ad altre propriet` a, che spesso risulteranno pi` u agevoli a verificare negli esempi concreti. Precisamente proveremo che le seguenti quattro propriet`a sono equivalenti fra loro (cio`e basta verificarne una sola perch´e siano verificate anche le altre). (i) Il sistema {en } `e completo secondo la definizione del paragrafo precedente, cio`e – in breve – ogni vettore x ∈ H coincide con la sua serie di Fourier rispetto a tale sistema. (ii) L’insieme delle combinazioni lineari finite n 

ai ei

i=1

al variare di n e dei coefficienti ai `e denso in H, cio`e ogni vettore x ∈ H pu` o essere “approssimato” in norma quanto si vuole da una combinazione lineare finita degli {en }. (iii) Per ogni x ∈ H vale la seguente identit` a: x2 =

∞ 

|(en , x)|2

(2.37)

n=1

detta identit` a di Parseval . (iv) L’unico vettore ortogonale a tutti gli en `e il vettore nullo, cio`e: sia x0 un vettore tale che per ogni n si abbia (en , x0 ) = 0 , allora x0 = 0 . Dimostrazione: (i) ⇒ (ii): In realt` a la (ii) `e semplicemente un altro modo di enunciare la (i). Infatti, per quanto detto nel paragrafo precedente, se il sistema `e completo, per ogni x ∈ H , la somma parziale xn della sua serie di Fourier approssima in norma x quanto si vuole: x − xn  = x −

n 

(ei , x) ei  < 

i=1

e viceversa fra tutte le combinazioni lineari finite, quella che approssima meglio ogni prefissato vettore x `e proprio quella che ha come coefficienti le quantit`a ai = (ei , x), come dimostrato nel paragrafo precedente. (ii) ⇒ (iii): Ricordando la (2.33) con la scelta (2.34), si ha per n → ∞ che il primo membro della (2.33) tende a zero, e quindi, direttamente dal secondo membro, segue la (2.37). (iii) ⇒ (iv): La (2.37) applicata al vettore x0 d` a x0 = 0 infatti x0 2 =

∞  n=1

|(en , x0 )|2 = 0 .

2.13 Sistemi completi

53

(iv) ⇒ (i): Fissato comunque x ∈ H, si consideri x=

∞ 

(en , x) en .

n=1

Come gi`a visto, tale serie `e convergente e x ∈ H. Per ogni intero j si ha 

(ej , x − x) = ej ,

∞ 



(ei , x) ei − (ej , x) =

i=1

∞ 

(ei , x) δji − (ej , x) = 0

i=1

cio`e x − x `e ortogonale a tutti gli ej , quindi x = x e cio`e x coincide con la sua serie di Fourier.

Nota . Nella dimostrazione precedente si `e scritto  ej ,

∞ 

 ...

∞ 

=

i=1

(ej , . . .)

i=1

“scambiando” il prodotto scalare con la serie. Poich`e la linearit` a del prodotto scalare vale – per definizione! – per le combinazioni lineari finite, occorre provare che il passaggio sopra eseguito `e lecito. Si ha in effetti: Lemma(continuit` a del prodotto scalare): Sia xn una successione di vettori convergente ad x ∈ H, cio`e xn → x ovvero xn − x → 0 , allora, per ogni y ∈ H, si ha 9 (y, x) = lim (y, xn ) . n→∞

Dimostrazione: Immediata: infatti, usando la disuguaglianza di Schwarz     (y, x) − (y, xn ) = (y, x − xn ) ≤ y x − xn  → 0 .

Questo giustifica la dimostrazione precedente: basta infatti prendere come successione xn la successione delle somme parziali della serie di Fourier di x . Si considerino ora due vettori x, y ∈ H, con le rispettive serie di Fourier rispetto al set ortonormale completo {en }: x=

∞ 

ai ei ,

i=1

y=

∞ 

bi ei .

i=1

Usando il precedente Lemma, si ha (x, y) = lim

n→∞

9

2

n  i=1

n  

ai ei , y = lim a∗i ei , y = n→∞

i=1

Se H = L (I), questo risultato fornisce un’altra condizione di “passaggio al limite sotto integrale”: I g fn dx → I g f dx , se g, fn ∈ L2 (I) e fn → f in senso o prendere L2 (I) , ossia fn − f L2 → 0 ; se in particolare I ha misura finita si pu` g = 1 e si ottiene I fn dx → I f dx .

54

Spazi di Hilbert

= lim

n→∞

n 

a∗i

i=1

bi =

∞ 

a∗i

bi =

i=1

∞ 

x, ei



ei , y



(2.38)

i=1

che si chiama identit` a di Parseval generalizzata (infatti la (2.37) si ottiene da questa ponendo x = y ). Pertanto, anche la (2.38) `e una propriet` a equivalente alla completezza del sistema ortonormale {en }. Un esempio (molto istruttivo!) di set ortonormale completo `e il set fn dato dalla (2.92) nel § 2.27 infatti, la condizione (fn , x0 ) = 0 per ogni

n implica che i coefficienti di Fourier del vettorex0 ∈ H devono essere . . . . Ne segue ∞ ∞ p.es. che il sottospazio dei vettori z = i=1 ai ei tali che i=1 ai = 0, dove ai sono i coefficienti di Fourier rispetto al set ei , `e denso in H ! Dato un sistema di vettori wn non ortogonali, ci si pu` o chiedere se tale sistema `e o no completo, anche senza eseguirne preliminarmente la sua ortonormalizzazione. Naturalmente non saranno pi` u vere la (2.34) n`e la (2.36) e nemmeno la propriet` a (iii), che d’altronde non sarebbero vere neppure in

dimensione finita! ; la completezza del set wn pu` o tuttavia essere definita mediante la propriet` a (ii), che si potr` a enunciare nella forma: per ogni x ∈ H e per ogni  > 0, si possono trovare un intero N ed N opportuni coefficienN  ti αi in modo che x − αi wi  <  . Tenendo presente il procedimento di i=1

ortonormalizzazione di Schmidt, `e facile quanto importante vedere che resta vera, anche per un set “obliquo” wn , l’equivalenza della completezza con la propriet` a (iv). Un esempio di set completo non ortogonale `e dato dal set di vettori vn = e1 −en (n = 2, 3, · · ·) , dove en (n = 1, 2, · · ·) `e un set ortonormale completo (infatti . . .). P.es., il vettore zn = (1/n)(v1 + . . . + vn+1 ) `e una combinazione di vettori vn che approssima e1 , infatti zn − e1 2 = 1/n. Da notare che ortonormalizzando il set di vettori vn si ritrova il set fn dato dalla (2.92) e ricordato pi` u sopra. Un altro caso istruttivo: sia H = L2 (I) e vn (x) un set ortonormale completo in H; sia φ(x) una funzione (continua e limitata, per semplicit`a). Allora wn (x) = φ(x) vn (x) `e un set completo se φ(x) = 0 oppure anche se ammette qualche zero isolato: infatti dalla condizione di ortogonalit`a 0 = (wn , f0 ) = (vn , φ∗ f0 ) segue che f0 (x) `e la funzione nulla (quasi ovunque!). Un importante esempio di set completo non ortogonale verr` a dato nel prossimo paragrafo. Si pu` o notare come quanto detto in questo paragrafo si traduca in fatti elementari e ben noti se ci si riduce allo spazio R3 (o a spazi a dimensione finita). Per esempio, la (2.37) `e in R2 il teorema di Pitagora, mentre nello spazio H = L2 (I) diventa  ∞  |f (x)|2 dx = |an |2 . I

n=1

2.14 Spazi separabili e lo spazio 2

55

2.14 Spazi separabili e lo spazio 2 Si deve anzitutto notare che non in tutti gli spazi di Hilbert `e presente un sistema completo 10 . Si chiamano separabili quegli spazi (e sono gli unici ` allora separabile, per che ci interessano) nei quali esiste un set completo. E 2 esempio, lo spazio L (−L, L) , nel quale il set (2.11) `e completo. Nello stesso spazio `e ortonormale completo anche il sistema 1 1 2π uk (x) = √ e−i π k x/L = √ e−i ωk x ; ωk = k , k = 0, ±1, ±2 , . . . (2.39) 2L 2L 2L infatti, per quanto concerne la completezza, basta applicare la propriet` a (iv), oppure semplicemente osservare che mediante le combinazioni uk ± u−k si riottiene il set (2.11). Il set (2.39) risulta particolarmente utile ad esempio quando si vuole studiare la risposta di circuiti elettrici sottoposti a tensioni periodiche: in tal caso (sostituire la variabile x con il tempo t) le uk = uk (t) rappresentano i termini “alternati puri” di frequenza ωk ; il segnale periodico verr` a espresso come serie di questi; v. anche i §§ 2.27, 4.2 e 4.10. Ancora, tenendo conto di quanto visto all’inizio del § 2.4, si conclude che anche il sistema {sin π n x/L} `e completo nello spazio L2 (0, L); con una traslazione x → x − L in cui L = L/2 (e osservando poi che L `e generico), lo si pu` o riportare all’intervallo (−L, L) e ottenere cos`ı quest’altro set completo per L2 (−L, L): ⎧   1 π nd x 1 1 πx ⎪ ⎪ ⎨ √ cos 2L = √ cos (h − 2 ) L , nd = 2h − 1 = 1, 3, 5, · · · L L vn (x) =  π x x 1 π n 1 ⎪ p ⎪ ⎩ √ sin = √ sin h , np = 2h = 2, 4, · · · (2.40) 2L L L L che `e diverso dal set (2.11): provare infatti a disegnare i primi elementi del set (2.11) e di questo set vn (x), notare anche p.es. che tutti gli elementi del set (2.11) tranne il primo (la costante) hanno valor medio nullo, mentre per le funzioni sin πnx/L nell’intervallo (0,L), ovvero per le (2.40) su (−L,L) . . .. Se I `e un qualsiasi intervallo (di lunghezza finita), tutti i sistemi sopra ricordati sono – opportunamente traslati – altrettanti set completi in L2 (I). Un altro importante sistema completo (ma non ortonormale) su un intervallo `e fornito dalle potenze {xn } (n = 0, 1, 2, · · ·): questa propriet` a segue da un teorema classico di Weierstrass, che afferma che l’insieme dei polinomi ` e denso rispetto alla norma (2.25) e dunque anche rispetto alla norma L2 (I) 11 10

11

Si possono infatti dare esempi di spazi di Hilbert in cui, comunque si scelga un insieme numerabile di vettori, le combinazioni lineari di questi vettori non risultano dense nello spazio. Infatti, se f, g sono continue in I, si ha f − g2L2 (I) =

I

|f − g|2 dx ≤ maxx∈I |f (x) − g(x)|2 mis(I) ,

dunque se f e g sono “vicine” nella norma (2.25), lo sono anche nella norma L2 (I).

56

Spazi di Hilbert

nello spazio delle funzioni continue (su un compatto I), che a sua volta risulta denso, rispetto alla norma L2 (I), in L2 (I). si pu` o dimostrare Se poi I `e tutta la retta R, oppure una semiretta,

ritroveremo pi` u avanti questo fatto, v. § 2.22 (1) e (2) che sono set completi in L2 (R) e in L2 (0, +∞) set di funzioni del tipo 2

e−x

/2

Hn (x)

e rispettivamente

e−x/(n+1) Ln (x) ,

n = 0, 1, 2, · · ·

dove Hn (x) e Ln (x) sono opportuni polinomi di grado n, detti rispettivamente polinomi di Hermite e polinomi di Laguerre (importanti anche perch´e descrivono soluzioni dell’equazione di Schr¨ odinger per l’oscillatore ar` monico e rispettivamente per l’atomo di idrogeno: v. pi` u avanti il § 2.22). E facile estendere questi risultati sulla esistenza di set completi anche a funzioni L2 di pi` u variabili reali (v. ad esempio § 2.21 e anche Appendice A, § A.13, a proposito degli spazi “prodotto tensore”). In conclusione, tutti gli spazi L2 sono separabili. Inoltre, dalla propriet` a (ii) dei set completi segue dunque, ad esempio, che il sottospazio vettoriale delle funzioni C ∞ `e denso in L2 ; si pu` o anche dire che L2 `e il completamento di C ∞ rispetto alla norma L2 . Sia H un qualsiasi spazio di Hilbert separabile ed {en } un set ortonormale completo in H. Come gi`a detto, ogni vettore x ∈ H `e individuato dalla successione delle sue componenti di Fourier an rispetto ad en : x → (a1 , a2 , · · · , an , · · ·) .

(2.41)

Inoltre, grazie all’identit` a di Parseval, questa successione gode della propriet` a: ∞   2 an  < +∞ .

(2.42)

n=1

Questo suggerisce di considerare lo spazio costituito da tutte le successioni di numeri complessi {an } che soddisfano la (2.42): questo spazio si indica con 2 e verificheremo tra poco che anch’esso `e uno spazio di Hilbert, con la seguente definizione di prodotto scalare: se a ≡ {an } e b ≡ {bn } sono due successioni di 2 , si definisce ∞  (a, b) = a∗n bn . (2.43) n=1 2

Lo spazio  gioca nei confronti degli spazi di Hilbert separabili lo stesso ruolo giocato da Cn nei confronti degli spazi vettoriali di dimensione n: infatti la corrispondenza data dalla (2.41) fra il generico elemento x ∈ H e una successione numerica a ∈ 2 individua un isomorfismo fra qualsiasi spazio di Hilbert separabile H e 2 , come `e immediato verificare. Per esempio, se x `e un qualsiasi vettore in uno spazio separabile H, l’identit` a di Parseval (2.37) ci dice appunto che la norma, calcolata secondo la definizione data in H, coincide con la norma calcolata in 2 della successione numerica individuata

2.14 Spazi separabili e lo spazio 2

57

da x tramite la (2.41). E ancora, ricordando i calcoli eseguiti nel § 2.12 per la costruzione del vettore x = limite delle migliori approssimazioni del vettore generico x tramite combinazioni degli {en }, si conclude che la condizione occorrente (anzi: necessaria e sufficiente) sui coefficienti an affinch`e la serie  an en sia convergente in H `e proprio la condizione “ 2 ” (2.42) (cf. la fine del § 2.3). Varie utili osservazioni seguono a questo punto: anzitutto `e ora chiaro che nei problemi di evoluzione temporale della corda elastica e della diffusione del calore (§§ 2.4, 2.5) le condizioni iniziali possono essere prese in L2 (0, L). Inoltre, la (2.18) mostra, per quanto detto qui sopra, che la soluzione u(x, t) del problema della corda resta – per ogni t fissato – in L2 . Nel caso poi dell’equazione del calore (2.19), si pu` o intanto osservare che la serie nella (2.18 ) risulta convergente, per t > 0, anche totalmente e dunque uniformemente, e dunque si ha subito che u(x, t) `e anche una funzione continua (oltre che L2 , ovviamente). Ma si pu` o dire di pi` u. Ricordiamo intanto un teorema elementare sulla derivazione delle serie (e successioni) di funzioni: se una serie di funzioni derivabili converge puntualmente ad una f = f (x) e se la serie delle derivate `e uniformemente convergente, allora la somma della serie delle derivate `e la derivata f  (x) della f (si noti che non basterebbe l’ipotesi di convergenza uniforme della serie di partenza: trovare qualche controesempio!). Tornando all’equazione del calore, si pu` o allora concludere che u(x, t) `e infinitamente derivabile sia rispetto ad x che rispetto a t (sempre per t > 0 ) grazie alla convergenza uniforme delle serie ottenute derivando termine a termine. Infatti, qualsiasi derivata eseguita termine a termine nella (2.18 ) con2 duce a una serie di Fourier i cui coefficienti sono del tipo an nk e−n t (si `e posto per semplicit`a C = 1, L = π) e dunque `e garantita la convergenza uniforme (e anche quella L2 , ovviamente). Si pu` o pure verificare che la soluzione u(x, t) tende a zero, in norma L2 (0, π), per t → +∞: infatti si ha u(x, t)2 = (π/2)

∞  n=1

|an |2 e−2n

2

t

≤ (π/2)e−2t

∞ 

|an |2 → 0

n=1



pi` u precisamente, la “velocit`a di decrescenza a zero” di tale norma sar`a 2  e−2n1 t se an1 `e primo coefficiente non nullo dello sviluppo in serie di Fourier di u(x, 0) . ` anche possibile introdurre diverse condizioni agli estremi: p.es., le conE dizioni dette “di periodicit` a” agli estremi, cio`e (ora si `e scelto per comodit`a L = 2π) u(0, t) = u(2π, t) , ux (0, t) = ux (2π, t) ; ora il set completo appropriato `e {ei n x }, n ∈ Z , e la soluzione va scritta nella forma

58

Spazi di Hilbert

u(x, t) =

+∞ 

an (t) ei n x

n=−∞

(che cosa succede per t → +∞ della soluzione u(x, t) dell’equazione del calore in questo caso ?). Del teorema sopra ricordato circa la derivazione delle serie di funzioni verr` a data pi` u avanti una versione “avanzata” pi` u generale, v. § 2.27; in breve: la possibilit` a di derivare termine a termine una serie di funzioni `e ancora garantita se la serie delle derivate `e L2 convergente. Ne segue, per esempio, che se si ha una serie di Fourier del tipo  c f (x) = an ei n x con |an | ≤ α e α > k + 12 n (almeno per “grandi” n, |n| > n0 ), dove c `e una costante e k un intero, allora f `e derivabile k volte con derivata in L2 , ma la k-esima derivata potr` a essere non continua. Possiamo anche dare una motivazione pi` u precisa del procedimento della “separazione delle variabili” adottato per la soluzione delle equazioni di d’Alembert e del calore. Considerando infatti, per esempio, l’equazione di d’Alembert (2.1) e scegliendo di nuovo le condizioni al contorno (2.2), basta chiedere che la soluzione sia, per ogni t ∈ R , una funzione di L2 (0, L): si pu` o allora scrivere la pi` u generale soluzione come serie u(x, t) =

+∞ 

an (t) sin(n x)

n=1

(L = π, v = 1 ), con coefficienti an (t) dipendenti dal tempo. Sostituendo nell’equazione si trova a ¨n = −n2 an e si ritrovano le soluzioni gi` a note. Il metodo si generalizza facilmente: si consideri per esempio l’equazione del calore con un termine “non omogeneo” F (x) ∈ L2 (0, 2π) (con C = 1, L = 2π) ut = uxx + F (x) imponendo questa volta le condizioni di periodicit` a, e  con la condizione iniziale assegnata u(x, 0) = f (x) ∈ L2 (0, 2π). Se F (x) = Fn einx , sostituendo 2 si trova per an (t) l’equazione a˙ n = −n an + Fn , che si risolve facilmente tenendo conto della condizione iniziale che implica an (0) = fn , dove fn sono i coefficienti di Fourier di f (x) rispetto ad ei n x . Resta infine da provare che 2 `e uno spazio di Hilbert: dimostriamo intanto che se a ≡ {an } e b ≡ {bn } sono due successioni di 2 , soddisfacenti quindi la (2.42), anche a + b ≡ {an + bn } ∈ 2 : infatti |an + bn |2 ≤ 2|an |2 + 2|bn |2

 e quindi anche |an + bn |2 < +∞; `e d’altronde immediato che α a ∈ 2 per ogni α ∈ C , a ∈ 2 . Inoltre, la definizione (2.43) di prodotto scalare `e corretta: la serie `e anzi assolutamente convergente, poich´e

2.15 Trasformazioni lineari

59

|a∗n bn | = |an ||bn | ≤ 12 |an |2 + 12 |bn |2 e le propriet` a (p1,. . .,p4) del § 2.6 sono evidentemente soddisfatte. Infine si 2 potrebbe dimostrare senza difficolt`a che lo spazio

 `e anche completo rispetto alla norma indotta dal prodotto scalare (2.43) a 2 =

∞  

|an |2

1/2

.

(2.44)

n=1

Un esempio naturale di set ortonormale completo in 2 `e dato dal “set canonico”: e1 ≡ (1, 0, 0, · · · ) , e2 ≡ (0, 1, 0, · · · ) , · · · , en ≡ ( 0, · · · 1, 0, · · ·) , · · · . (2.45) " #$ % n

2.15 Trasformazioni lineari La definizione di trasformazione (od operatore) lineare T fra due spazi di Hilbert H ed H  T : H → H `e, almeno sul principio, del tutto ovvia e simile al caso degli operatori fra spazi a dimensione finita: T (α x + β y) = α T (x) + β T (y) ;

α, β ∈ C ,

x, y ∈ H .

In realt` a si vedr` a immediatamente che la dimensione infinita produce notevoli (forse non inattese) differenze e – naturalmente – qualche difficolt`a. La prima “sorpresa” viene quando si osserva che – a differenza di quanto avviene in dimensione finita – pu` o succedere che non sia semplice definire una trasformazione lineare su tutti i vettori dello spazio. Ad esempio se H = L2 (I) = H  e T `e l’operatore di derivazione d/dx , `e chiaro che T non pu` o essere definito su tutto H poich´e non tutte le funzioni di H sono derivabili, e√ inoltre non sempre f ∈ L2 implica che anche df /dx ∈ L2

2 u sorprendente di questa p.es., f = x in L (0, 1) . Ma l’aspetto forse pi` particolarit` a consiste nel fatto che pu` o capitare che la trasformazione T sia in realt` a perfettamente definita su tutti i vettori di un sistema completo dello spazio (questo avviene, per esempio, proprio per l’operatore d/dx considerato sopra, che `e certamente definito su tutti i sistemi completi visti finora negli spazi L2 ) senza che questo permetta di estenderne la definizione a tutti gli altri vettori. Anche questa `e una notevole differenza rispetto al caso della dimensione finita, dove era sufficiente definire una trasformazione sui vettori di base per poterla poi estendere “per linearit` a” a tutti i vettori, in quanto esprimibili mediante combinazioni lineari dei vettori di base.

60

Spazi di Hilbert

Per capire meglio questo fatto consideriamo quest’altro esempio: sia H = H  e {e(n) } un sistema ortonormale completo in H, sia T l’operatore cos`ı definito 12 T e(n) = n e(n) , n = 1, 2, · · · (2.46) Sia x il vettore, appartenente ad H, le cui componenti di Fourier rispetto ad {e(n) } sono date da an = 1/n , cio`e x=

∞  1 (n) e . n n=1

Grazie alla linearit` a dell’operatore T si pu` o immediatamente calcolare come T trasforma tutte le somme parziali finite di tale serie: T

N N N   1 (n)   1 = e(n) , e T e(n) = n n n=1 n=1 n=1

ma si vede che, mentre – da un lato – la successione di queste somme parziali tende al vettore x, dall’altro la successione delle loro trasformate sotto l’operatore T non converge, e quindi non d` a la possibilit` a di estendere al vettore x la definizione della trasformazione T . Nel prossimo paragrafo analizzeremo meglio questa situazione. L’insieme dei vettori su cui `e definita una trasformazione lineare T costituir` a un sottospazio vettoriale dello spazio H; tale sottospazio D si chiama dominio di T . Gli esempi mostrati ora indicano casi in cui D = H ; naturalmente in altri casi si potr` a avere D = H un esempio semplicissimo – molti altri verranno visti in seguito – `e dato dall’operatore a” R in

di “parit` L2 (−a, a) , definito da R f = g con g = g(x) = f (−x) . Si chiama invece immagine o codominio o range di T il sottospazio D di H  costituito da tutti i vettori “trasformati” T x . Come avviene per il dominio, pu` o anche avvenire che l’immagine di un operatore T contenga tutti i vettori di un set completo, e tuttavia non coincida con l’intero spazio: p.es. l’immagine dell’o(n) (n) peratore di H  in s`e definito da T e = e /n (n = 1, 2, . . .) non contiene il vettore y = e(n) /n (infatti . . .).

2.16 Continuit` a e limitatezza di una trasformazione lineare ` innanzitutto chiaro che, in dimensione finita, se si fa tendere a zero un E vettore x, facendone tendere a zero le sue componenti, anche il vettore T x , qualunque sia la trasformazione lineare (cio`e la matrice) T , tende a zero. 12

In Meccanica Quantistica l’operatore “energia” dell’oscillatore armonico `e un operatore di questo tipo.

2.16 Continuit` a e limitatezza di una trasformazione lineare

61

La stessa cosa per`o non `e in generale vera in dimensione infinita, cio`e se x → 0 (nel senso della norma: x → 0 ) non `e detto che T x → 0 . Ad esempio, se e(n) `e il set canonico (2.45) nello spazio 2 , la successione di vettori x(n) = e(n) /n tende evidentemente a zero, poich´e x(n)  = 1/n , mentre se prendiamo come trasformazione T l’operatore T e(n) = n e(n) considerato nel paragrafo precedente, la successione T x(n) non converge nemmeno. Una trasformazione lineare T si dice continua in x0 (x0 ∈ D) se x → x0 cio`e x − x0  → 0 ⇒ T x → T x0

cio`e T x − T x0  → 0 .

` assai utile notare che, in realt` E a, affinch´e una trasformazione lineare T sia continua ovunque `e sufficiente che essa sia continua in un punto, ad esempio nello zero, cio`e `e sufficiente verificare che x→0



T x → 0.

Infatti, se x0 `e un elemento qualsiasi del dominio D e x → x0 , si ha (x − x0 ) → 0 e quindi, se T `e continua nello zero, anche T x − T x0 = T (x − x0 ) → 0 . Vale la pena di notare che il concetto di continuit` a di una trasformazione `e fondato sul concetto di “intorno” (e cio`e di “vicinanza”: una trasformazione `e continua se trasforma elementi “vicini” in elementi “vicini”). Come sappiamo, nel nostro caso `e proprio la norma che fornisce questa struttura “topologica” allo spazio. Il concetto di continuit` a di un operatore `e importante in relazione alla questione vista nel paragrafo precedente. Infatti, sappiamo che ogni vettore x `e il limite della successione delle somme parziali della sua serie di Fourier rispetto ad un dato sistema completo e(n) : n  xn = ak e(k) , xn → x . k=1

Allora, se T `e un operatore continuo, sar` a anche T xn → T x e, in questo caso, si potr` a scrivere Tx=T

∞  k=1

∞   ak e(k) = ak T e(k) .

(2.47)

k=1

Dimostreremo alla fine di questo paragrafo che la continuit` a di un operatore T `e equivalente ad un’altra importante propriet` a, che viene detta limitatezza di T e che `e in genere pi` u facilmente verificabile, come si vedr` a negli esempi considerati nei prossimi paragrafi; tale propriet` a si definisce come segue. Un operatore lineare T si dice limitato se la quantit` a T x/x al variare di x nel dominio D di T si mantiene limitata, ovvero – in altre parole – se sup x∈D

T x = K < +∞ x

(2.48)

62

Spazi di Hilbert

(va ovviamente escluso in questo rapporto il caso x = 0). Se un operatore T `e limitato, la quantit` a finita K definita dalla (2.48) si chiama norma di T e si indica con T : si vede subito infatti che si tratta di una vera norma, nel senso che tale definizione, applicata allo spazio vettoriale L(H) degli operatori lineari limitati di H, verifica le condizioni assegnate nel § 2.6. Molti esempi verranno visti nel seguito. Naturalmente, per ogni vettore x ∈ H, si avr` a T x ≤ T  x . (2.49) Torniamo ora al caso in cui un operatore lineare viene definito soltanto sugli elementi di un set ortonormale completo {e(n) } di uno spazio H, e si vuole vedere se `e possibile estenderne la definizione a tutto lo spazio. Come gi` a detto, se H avesse dimensione finita, l’operatore risulterebbe automaticamente definito su tutti i vettori dello spazio. In caso contrario, invece, utilizzando la linearit` a dell’operatore, possiamo intanto definirlo certamente sull’insieme (denso!) F delle combinazioni lineari finite degli e(n) . Si pu` o ora procedere “a vista”, controllando direttamente se – presa una qualsiasi successione di vettori {xn } ⊂ F (per esempio la successione delle somme parziali della serie di Fourier rispetto al set e(n) di un generico vettore x ∈ H ) – la successione T xn `e tale che il rapporto T xn /xn  si mantiene limitato. Pi` u formalmente, si calcola l’estremo superiore sup x∈F

T x x

come nella (2.48), ma ora restringendosi ai soli vettori di F ; se tale estremo superiore `e finito, e sia KF , allora se ne pu` o concludere che T si pu` o prolungare (o estendere) “per continuit` a” su tutti gli elementi di H. Infatti, se x `e un elemento qualsiasi in H (e ∈ / F ), c’`e senz’altro una successione di vettori xn ∈ F che tende in norma ad x (per esempio la successione delle “troncate” della serie di Fourier di x): basta ora osservare che la successione T xn `e una successione di Cauchy, infatti T xn − T xm  = T (xn − xm ) ≤ KF xn − xm  essendo pure di Cauchy la successione xn in quanto convergente. Se ne conclude (per la completezza dello spazio di Hilbert) che anche la T xn deve essere convergente e il vettore limite y di tale successione si prende come definizione del “trasformato” T x del vettore x: T xn → y := T (x) . In questo modo l’operatore T risulta definito su tutto H, e si potrebbe pure dimostrare che, se si approssima il vettore x con qualsiasi altra successione zn → x , si otterrebbe lo stesso risultato, cio`e anche T zn → y (quindi la definizione di T x non dipende dalla successione scelta per approssimare x). In altre parole, l’operatore cos`ı prolungato risulta continuo e, in particolare,

2.17 Una applicazione concernente il problema della corda elastica.

63

il vettore T x pu` o essere calcolato mediante la formula (2.47), dove gli ak sono ovviamente i coefficienti di Fourier di x rispetto al set {e(k) } . Inoltre si ha che l’operatore prolungato su tutto H ha ancora norma KF : sup x∈F

T x T x = sup = T  . x x∈H x

Dimostriamo ora: Teorema . Continuit` a e limitatezza di un operatore lineare sono propriet` a equivalenti. Dimostrazione. (i) Sia T continuo. Supponiamo, per assurdo, che non sia limitato: allora, per ogni numero n, si potrebbe trovare un vettore xn tale che T xn  > nxn  . Si consideri ora la successione yn =

xn · nxn 

Poich`e yn → 0 , dovrebbe anche essere T yn → 0 – essendo T continuo – mentre la precedente disuguaglianza d` a T yn  =

1 T xn  > 1 . nxn 

(ii) Se T `e limitato, si ha T x − T x0  = T (x − x0 ) ≤ T  x − x0  → 0 e quindi T `e continuo.



2.17 Una applicazione concernente il problema della corda elastica. Come semplice applicazione di quanto visto nei precedenti paragrafi, studiamo il problema dell’evoluzione temporale di una corda elastica mantenuta ad estremi fissi. Supponiamo che nelle condizioni iniziali sia ∂u  g= =0  ∂t t=0 mentre f (x) = u(x, 0) sia una funzione generica (ovviamente f ∈ L2 ; le notazioni sono quelle del § 2.4). Supponiamo per` o – per pura comodit` a – che ora la corda abbia lunghezza 2 L e abbia gli estremi in x = ±L . Detto I l’intervallo [−L, L] , si tratta, come si `e gi`a visto, di sviluppare la funzione f ∈

64

Spazi di Hilbert

L2 (I) in serie di Fourier rispetto al sistema ortonormale completo costituito dalle “onde stazionarie”, che in questo caso ha la forma vn (x) data nella (2.40): u(x, 0) = f (x) =

∞ 

an vn (x) =

n=1



αn cos

n dispari

π n   π n  βn sin x + x . 2L 2L n pari

Prima di cercare l’evoluzione temporale di questa configurazione, consideriamo l’operatore lineare T di L2 (I) in se stesso cos`ı definito: T f (x) = −f (−x) . ` immediato provare che T `e limitato (anzi: T  = 1 ) e quindi continuo, e E pertanto `e valida la relazione (2.47), che ora diventa T f (x) =

∞ 



an T vn (x) =

(2.50)

n=1

=



(−αn ) cos

n dispari

∞ π n  π n    βn sin (−1)n an vn (x) . x + x = 2L 2L n=1 n pari

Tornando al problema precedente, l’evoluzione temporale dell’onda risulta π n  π n    αn cos βn sin u(x, t) = x cos(ωn t) + x cos(ωn t) 2L 2L n dispari

n pari

dove ωn = π n v/2L . Si vede allora, mediante il confronto con la (2.50), che negli istanti t = 2L/v, 6L/v, · · · , si ha u(x, t) = −f (−x) .

2.18 Operatore aggiunto. Operatori unitari. Proiettori (a) Operatore aggiunto La definizione dell’operatore aggiunto T + di un operatore lineare T `e formalmente identica a quella introdotta in dimensione finita tramite la (1.12): dato l’operatore T : H → H  , si dice trasformazione aggiunta (o semplicemente aggiunto) l’operatore T + : H → H (indicato anche con T † ) tale che, per ogni x, y  nel rispettivo dominio, si ha (y  , T x) = (T + y  , x) .

(2.51)

Rinviando al § 2.26 per la dimostrazione e per una discussione pi` u completa, ci limitiamo qui a dire che, se l’operatore T `e limitato, allora il suo aggiunto esiste sempre ed `e anch’esso un operatore limitato (anzi `e T  = T +  ) e con dominio coincidente con tutto H  . La cosa richiede invece maggiore cautela se

2.18 Operatore aggiunto. Operatori unitari. Proiettori

65

T non `e limitato, soprattutto per quanto riguarda la determinazione del dominio D dell’aggiunto T + ; in ogni caso, comunque, la propriet` a caratterizzante `e ancora la (2.51). Per esempio, si supponga di voler trovare l’aggiunto dell’operatore di derivazione T = d/dx in L2 (α, β): si ha intanto (naturalmente nel sottinsieme delle funzione derivabili con derivata in L2 )  β  dg   β & 'β & '  df  (f, T g) = f, f ∗ g  dx = f ∗ g α − f ∗ g dx = · · · + − , g ; = dx dx α α & ' occorre dunque eliminare il termine · · · . Per esempio si pu` o chiedere che il dominio di T sia costituito dalle funzioni derivabili che si annullano agli estremi α, β: allora il dominio di T + `e dato dalle funzioni derivabili limitate agli estremi. Oppure invece si pu` o chiedere che il dominio di T e quello di T + siano dati entrambi dalle funzioni derivabili che soddisfano le condizioni di periodicit` a agli estremi, cio`e f (α) = f (β) (si noti che tutti questi domini sono densi in L2 ). Restringendosi a quest’ultimo dominio, che indicheremo con D0 , si pu` o allora dire che in D0 si ha T + = −T . Se poi si considera l’operatore 13 T =i

d dx

(2.52)

a ne segue che in D0 sussiste l’identit` (f, T g) = (T f, g)

∀f, g ∈ D0 .

(2.53)

Un operatore T per il quale si pu` o trovare un opportuno dominio D0 , denso in H, contenuto nel dominio di T , in cui `e soddisfatta la (2.53), si dice simmetrico o hermitiano (in D0 ). Se poi avviene che il dominio D di un operatore T coincide con il dominio D di T + e che in tale dominio vale la (2.53), allora si scrive T = T+

(2.54)

` chiaro allora che la (2.53) `e in generale un e si dice che T `e autoaggiunto . E po’ pi` u debole della (2.54); esse sono equivalenti se T `e continuo: in tal caso infatti `e D = H. Si pu` o dire tuttavia che, per esempio, l’operatore (2.52) “si comporta come autoaggiunto” nel dominio D0 sopra definito 14 . Si pu` o anche dimostrare che un operatore hermitiano il cui dominio `e l’intero spazio di Hilbert H `e limitato. 13 14

` proporzionale all’operatore “impulso” o “quantit` E a di moto” in Meccanica Quantistica. Per maggiori dettagli, v. per esempio i testi di Abbati e Cirelli [22], di Akhiezer e Glazman [25], di Reed e Simon [18], o di Yoshida [29].

66

Spazi di Hilbert

(b) Trasformazioni unitarie Sia U : H → H ; la propriet` a caratteristica di conservare i prodotti scalari (U x, U y) = (x, y)

(2.55)

che si pu` o anche scrivere U + U = I , ora, in dimensione infinita, non `e pi` u sufficiente a garantire l’invertibilit` a dell’operatore U . Precisamente, la (2.55) assicura (oltre alla limitatezza dell’operatore, anzi U  = 1 ) l’iniettivit` a di U (infatti da U x = U y segue 0 = U (x − y) = x − y , dunque x = y ), ma

non la sua surgettivit` a per un esempio, v. pi` u sotto la (2.57) . Aggiungendo alla (2.55) l’ulteriore condizione (che, in dimensione finita, `e automaticamente verificata, v. § 1.4) Imm U = H (2.56) (dove Imm U indica l’immagine di U ), allora U risulta anche surgettivo e dunque invertibile, e si ricava – come in dimensione finita – U −1 = U + . Riassumendo, un operatore si dice unitario se soddisfa entrambe le (2.55, 56). ` anche utile osservare che, se un operatore `e lineare, allora la (2.55) pu` E o essere sostituita dalla condizione pi` u “debole” della sola conservazione delle norme: U x = x ; (2.55 ) infatti si prova facilmente che, grazie alla linearit` a di U , la (2.55 ) implica la (2.55). Come gi`a detto, la sola condizione (2.55), non `e sufficiente a garantire la surgettivit` a (e dunque l’unitariet` a): basta considerare, per esempio, l’operatore lineare definito da T en = en+1 ,

n = 1, 2, 3, · · ·

(2.57)

dove en `e un set ortonormale completo. Questo operatore soddisfa la (2.55), dunque conserva i prodotti scalari ed `e iniettivo (il suo nucleo `e infatti Ker(T ) = {0} ), ma non `e surgettivo. Da notare che l’aggiunto di T , che `e T + en = en−1

se

n > 1,

e

T + e1 = 0

(2.57 )

`e invece surgettivo ma non iniettivo (il suo nucleo `e unidimensionale, Ker(T ) = {α e1 }, α ∈ C ) e T + T = I ma T T + = I . Sono, per esempio, unitari lo stesso operatore (2.57) se n = 0, ±1, ±2, · · · , oppure gli operatori di traslazione Ua : f (x) → g(x) = f (x − a) in L2 (R), o la trasformazione considerata nel § 2.17. Una propriet` a caratteristica degli operatori unitari, che `e semplice controllare, `e quella di trasformare set ortonormali completi in set ancora ortonormali completi.

2.18 Operatore aggiunto. Operatori unitari. Proiettori

67

(c) Proiettori Sia V1 un sottospazio vettoriale di H: se V1 `e denso in H, allora chiaramente non esiste in H alcun vettore ortogonale a tutti i vettori x1 ∈ V1 e il completamento (o chiusura) V1 di V1 coincide con H per esempio, se H =

2 L (I) e V1 `e il sottospazio delle funzioni continue . Se invece V1 non `e denso, si considerino tutti i vettori x2 ∈ H ortogonali a tutti gli x1 ∈ V1 : `e facile verificare che l’insieme di tali vettori x2 forma un sottospazio di Hilbert (cio`e `e anche completo (o chiuso): basta applicare la continuit` a del prodotto scalare, v. la (2.38), infatti . . .). Si indichi con H2 tale sottospazio. Se V1 non era uno spazio di Hilbert (cio`e non era completo), sia H1 = V1 il suo completamento (o chiusura): H1 risulta cos`ı costituito da tutti i vettori ortogonali agli x2 ∈ H2 , dunque H1 e H2 sono due spazi di Hilbert ortogonali e “complementari”. Si scrive allora H come somma diretta H = H1 ⊕ H2

(2.58)

e si dice che H2 `e il complemento ortogonale di H1 (si scrive anche H2 = H1⊥ , e naturalmente pure H1 = H2⊥ ). Si pu` o ora dimostrare che per ogni vettore x ∈ H `e sempre possibile eseguire, in modo unico, la decomposizione, esattamente come in dimensione finita (cfr. § 1.8) x1 ∈ H1 ,

x = x1 + x2 ;

x2 ∈ H2 .

(2.59)

Ad esempio, se si sceglie in H un set ortonormale completo in modo che una parte dei suoi elementi {en } sia un set completo per H1 e la rimanente {en } sia un set completo per H2 , allora {en } ∪ {en } `e set completo per H, dunque le componenti (en , x) sono le componenti di Fourier di x1 , e le componenti (en , x) sono quelle di x2 . Ed `e anche facile dimostrare che la decomposizione (2.59) `e unica. Una volta eseguita la decomposizione (2.59), `e naturale definire gli operatori di proiezione (o proiettori): P1 x = x1 ,

P2 x = x2

e

P1 + P2 = I ,

P1 P2 = P2 P1 = 0 .

(2.60)

` immediato verificare che si tratta di operatori lineari, che ogni proiettore `e E continuo (anzi `e P  = 1 ), e inoltre valgono le propriet` a P+ = P ,

P2 = P .

(2.61)

` facile anche verificare che un operatore definito su tutto H `e un proiettore E se e solo se soddisfa le (2.61). I proiettori qui definiti si chiamano pi` u propriamente proiettori ortogonali sono proiettori “obliqui” quelli che soddisfano

soltanto la seconda delle (2.61) . Ad esempio, se I = [−L, L] , lo spazio H = L2 (I) `e somma diretta dei due sottospazi H1 = L2p (I) e H2 = L2d (I) costituiti rispettivamente dalle funzioni pari e dispari; un set completo in H1 = L2p (I) `e dato dalle funzioni f (2n) , uno in H2 = L2d (I) dalle f (2n−1) , con le notazioni della (2.12).

68

Spazi di Hilbert

2.19 Autovalori ed autovettori. Spettro di un operatore Sia T : H → H. L’equazione agli autovalori si imposta esattamente come in dimensione finita: si tratta cio`e di trovare soluzioni non nulle x ∈ D dell’equazione T x = λx; λ ∈ C, x = 0 . (2.62) La situazione ora `e per`o totalmente diversa: nulla infatti si pu` o dire, in generale, circa l’esistenza di autovettori di un operatore in dimensione infinita. Questa difficolt` a non dipende dall’eventualit` a che l’operatore sia non limitato: per esempio, l’operatore indicato nell’eq. (2.57) `e limitato ma non  possiede alcun autovettore, come si verifica facilmente: basta scrivere x = n an en e la (2.62) fornisce un sistema di infinite equazioni per le componenti an che ammette la sola soluzione x = 0 (infatti . . .). Da notare che le cose cambiano (con un risultato sorprendente) se si considera invece l’operatore (2.57 ) 15 . Nemmeno l’operatore (unitario) di traslazione T : f (x) → f (x − a) in L2 (R) , a ∈ R , ammette alcuna autofunzione: infatti, osservando che T f  = f  , si ha subito che gli eventuali autovalori λ devono soddisfare |λ| = 1 , dunque una autofunzione di T dovrebbe soddisfare |f (x − a)| = |f (x)| , il che implica f ∈ / L2 (R) . Anche l’operatore di moltiplicazione, con f ∈ L2 (I), T f (x) = x f (x)

(2.63)

non ha autofunzioni: infatti, l’equazione (x − λ)f (x) = 0 `e risolta solo da funzioni f (x) diverse da zero solo al pi` u in un punto, dunque . . . , indipendentemente dal fatto che I sia o no un intervallo finito (ma v. i §§ 4.12, 5.4, 5.5). A tal proposito, si noti che, se I `e l’intervallo finito [0, a], allora l’operatore (2.63) `e limitato, T  = a, e autoaggiunto. Una osservazione importante: in questo esempio, la norma si ottiene veramente come un “sup”, secondo la definizione (2.48), infatti non c’`e nessuna f0 ∈ L2 tale che T f0  = a f0 , per` o si pu` o trovare una famiglia di funzioni fn (x) tale che limn→∞ T fn /fn  = a , . . .. Se I = R, l’operatore (2.63) `e non limitato si noti che il suo dominio non coincide con l’intero spazio L2 (R), ma `e denso in esso . Pi` u in generale, per gli “operatori di moltiplicazione” T f (x) = h(x) f (x) con f (x) ∈ L2 (I) e dove h = h(x) `e una funzione assegnata, si ha T  = supx∈I |h(x)|, infatti  T f 2 = |h(x)f (x)|2 dx ≤ sup |h(x)|2 f 2 I

15

x∈I

Che cosa avviene se si considera ancora l’operatore (2.57) ma con n = 0, ±1,  2 |a | < ∞! ±2, · · · ? Si ricordi sempre che deve essere n n

2.19 Autovalori ed autovettori. Spettro di un operatore

69

e dunque . . .. Analogamente, T `e non limitato se supx∈I |h(x)| = +∞. P.es., T f = (1/x)f `e non limitato (ma ha dominio denso) in L2 (0, 1), mentre T  = 1 in L2 (1, +∞) 16 . Invece, per esempio, ogni operatore di proiezione (§ 2.18c) ammette ovviamente un set completo di autovettori (i vettori indicati con {en } ed {en }, con autovalori 1 e 0), e la sua norma si ottiene come “max”. Anche un operatore lineare T cos`ı definito su un set ortonormale completo {en } T en = cn en (2.63 ) dove cn `e una qualsiasi successione possiede un set orto di numeri complessi,

normale completo di autovettori gli {en } stessi , e pu` o essere o no limitato a seconda di come sono scelti gli autovalori cn (qual `e la sua norma?) 17 Sussiste comunque il seguente (semplice ma importante): Teorema : Se T `e simmetrico e se possiede qualche autovettore, si ha che: (i) i suoi autovalori sono reali; (ii) autovettori relativi ad autovalori diversi sono ortogonali. Dimostrazione. (i) Sia T x = λ x, allora λ (x, x) = (x, T x) = (T x, x) = λ∗ (x, x), essendo T simmetrico, quindi λ = λ∗ . (ii) Siano λ1 e λ2 due autovalori diversi: T x1 = λ1 x1 , T x2 = λ2 x2 . Allora (x2 , T x1 ) = λ1 (x2 , x1 ) ,

(T x2 , x1 ) = λ2 (x2 , x1 ) ;

ma (T x2 , x1 ) = (x2 , T x1 ), quindi, sottraendo membro a membro: (λ1 − λ2 )(x2 , x1 ) = 0 da cui (x2 , x1 ) = 0, essendo λ1 = λ2 .

Naturalmente questa dimostrazione poteva essere data anche nel caso di operatore T hermitiano in spazi a dimensione finita. La dimostrazione data nel § 1.6 era stata in quel caso preferita perch´e aveva permesso di giungere alla ulteriore conclusione – valida come gi` a detto in dimensione finita – che gli autovettori formano una base per lo spazio. Un altro esempio gi` a incontrato di operatore (in dimensione infinita) che possiede un set completo di autofunzioni `e dato dall’operatore T = d2 /dx2 con la condizione di annullamento agli estremi dell’intervallo: il set delle sue autofunzioni { sin nπx/L } `e infatti completo in L2 (0, L) ovvero il set

(2.40) in L2 (−L, L) . Anche gli insiemi (2.11) e (2.39) sono set completi in L2 (−L, L) , e sono autovettori di T scegliendo invece la condizione di periodicit` a agli estremi, cio`e ora: f (−L) = f (L), f  (−L) = f  (L) 16 17

Un operatore di moltiplicazione ammette autofunzioni? Quando `e limitato, la sua norma si ottiene come “sup” oppure in qualche caso come “max”? Quando `e limitato, la sua norma si ottiene come “max” oppure in qualche caso solo come “sup”?

70

Spazi di Hilbert

(si noti pure che – come si verifica facilmente – l’operatore d2 /dx2 risulta simmetrico sia nel dominio delle funzioni che si annullano agli estremi, sia scegliendo le condizioni di periodicit` a). Ma si tratta comunque di operatori diversi: p.es., se si vuole risolvere l’equazione f  = g in L2 (0, π) (dove g(x) `e data e f (x) `e l’incognita) con condizioni di annullamento agli estremi, un set completo appropriato sar` a {sin n x}; sviluppando f e g in serie di Fourier si trova ∞ ∞   f  = (−n2 fn ) sin n x = gn sin n x = g n=1

n=1

e si vede che la soluzione f esiste unica, con coefficienti fn = −gn /n2 , per ogni g(x). Invece, considerando lo stesso problema, nello stesso spazio, ma con condizioni di periodicit` a agli estremi 0 e π, un set completo appropriato `e {e2inx }; sviluppando si ha f  = 4

∞ 

(−n2 fn ) e2inx =

n=−∞

∞ 

gn e2inx = g

n=−∞

ma ora il problema ha soluzione soltanto se g0 = 0 (dovendo essere −4n2 fn = gn , n = 0, ±1, ±2, . . .), e la soluzione non `e unica, ma `e data a meno di una costante additiva f0 . Enunceremo nel prossimo paragrafo un teorema che generalizza questo esempio e nel § 2.29 vedremo un’altra speciale classe di operatori che ammette un set ortonormale completo di autovettori. Altri risultati utili sono i seguenti. (1) Se un operatore T soddisfa un’equazione algebrica P(T ) = an T n + · · · + a0 I = 0 si vede facilmente che i suoi autovalori λ sono le soluzioni dell’equazione P(λ) = 0 , e inoltre che T possiede effettivamente autovettori: infatti, detta λ1 una soluzione di P(λ) = 0 , si ha P(T ) = (T − λ1 ) Q(T ) = 0 e dunque, per qualsiasi v ∈ H , si ha (T − λ1 ) Q(T ) v = 0 ; allora, se Q(T )v = 0 , si ha che w = Q(T )v = 0 `e autovettore di T con autovalore λ1 ; se invece Q(T ) v = 0, il problema si riconduce ad un’equazione di grado n − 1. (2) Se T ed S sono due operatori tali che T S = S T , e T ha un autovalore λ, allora il sottospazio Vλ dei corrispondenti autovettori `e un sottospazio invariante sotto S, cio`e S|Vλ : Vλ → Vλ , infatti, per ogni vλ ∈ Vλ (cfr. con § 1.6), T S vλ = S T vλ = λ S vλ ⇒ S vλ ∈ Vλ . Se poi, in particolare, λ `e non degenere, ne segue che vλ `e anche autovettore di S; se invece Vλ ha dimensione finita, allora per la restrizione S|Vλ valgono i teoremi per le matrici (a dimensione finita), e dunque se, per esempio, tale restrizione `e una matrice normale allora esiste in Vλ una base di autovettori anche per S, etc.

2.20 Problema di Sturm-Liouville

71

Una estensione del concetto di autovalore `e quella di spettro di un operatore: un numero (reale o complesso) σ si dice che appartiene allo spettro dell’operatore T se l’operatore (T −σ I) (I `e l’operatore identit` a) non ammette inverso limitato: cio`e se non `e invertibile, oppure se ammette un inverso non limitato. Anzitutto, se σ `e un autovalore di T , si ha che T − σ I non `e iniettivo e dunque non invertibile; ne segue che ogni autovalore di un operatore appar` anche evidente che in dimensione finita lo spettro di un tiene al suo spettro. E operatore coincide con l’insieme dei suoi autovalori. Si vede invece facilmente, per esempio, che lo spettro dell’operatore T f (x) = x f (x) in L2 (I) `e dato dai numeri reali σ ∈ I = chiusura dell’insieme I: infatti l’operatore inverso `e (T − σ I)−1 f (x) = f (x)/(x − σ) e risulta non limitato se (e solo se) σ ∈ I: in tal caso T − σ I `e iniettivo e il suo range (o immagine) `e denso in L2 (I), ma non coincidente con L2 (I). Invece, come altro esempio, l’operatore (2.57) pur essendo iniettivo, ha range non denso in H (essendo dato dal sottospazio ortogonale a e1 ), dunque non `e invertibile (nemmeno con inverso non limitato), e si pu` o concludere cos`ı che σ = 0 appartiene al suo spettro 18 . Si chiama risolvente di T l’insieme complementare dello spettro: dunque se λ ∈ C `e nel risolvente, l’equazione (T − λ)x = v, dove v ∈ H `e assegnato e x il vettore incognito, ha una unica soluzione x = (T − λ)−1 v; se invece λ `e nello spettro, l’equazione ha soluzione solo se v ∈ Imm(T − λ I) e in questo caso la soluzione `e unica se λ non `e autovettore di T (altrimenti . . .). Si pu` o anche dimostrare che lo spettro `e un insieme chiuso (e dunque il risolvente un insieme aperto).

2.20 Problema di Sturm-Liouville Si consideri l’equazione  1  d  d  p(x) − q(x) u + λ u = 0 ρ(x) dx dx

(2.64)

per la funzione u = u(x) , dove p(x), q(x), ρ(x) sono funzioni assegnate “abbastanza regolari”, come preciseremo pi` u avanti, in un intervallo finito α ≤ x ≤ β ; si supponga inoltre che la funzione u(x) debba soddisfare alle condizioni al bordo – per esempio di annullamento agli estremi 19 u(α) = u(β) = 0 . 18 19

(2.65)

quali altri σ appartengono al suo spettro? Si ottengono risultati simili anche imponendo altre condizioni al bordo, per esema. V. pio u (α) = u (β) = 0 , oppure u(α) = u (β) = 0 , o condizioni di periodicit` anche il paragrafo precedente.

72

Spazi di Hilbert

Si tratta evidentemente di un problema agli autovalori, detto Problema di Sturm-Liouville: ci si deve attendere che solo per particolari valori di λ la u(x) possa soddisfare la (2.64) con le condizioni (2.65). L’operatore che si sta studiando, cio`e  1  d  d  T =− p(x) − q(x) (2.66) ρ(x) dx dx `e un operatore (non limitato) nello spazio L2 ([α, β]) e generalizza l’operatore −d2 /dx2 (che infatti si ottiene ponendo ρ(x) = p(x) = 1, q(x) = 0) studiato nei primi paragrafi di questo capitolo. Supponiamo che le funzioni p, q, ρ verifichino le seguenti condizioni p(x) > 0 , derivabile e con derivata continua; q(x) ≥ 0 , ρ(x) > 0 entrambe continue .

(2.67)

Intanto, grazie alla condizione di positivit` a per ρ(x), notiamo che `e possibile definire correttamente un prodotto scalare  β (f, g)ρ = f ∗ (x) g(x) ρ(x) dx (2.68) α

in modo che siano soddisfatte tutte le propriet` a richieste (p1,. . .,p4) del § 2.6 20 . Si controlla subito facilmente che l’operatore (2.66) `e simmetrico nel

sottinsieme denso in L2 (α, β) delle funzioni derivabili almeno due volte in L2 e soddisfacenti le condizioni agli estremi (2.65). Ne segue che se u1 (x) e u2 (x) sono due autofunzioni di T e quindi due soluzioni delle (2.64,65) relative ad autovalori diversi, esse risultano ortogonali rispetto alla funzione peso o funzione densit` a ρ(x):  β (u1 , u2 )ρ = u∗1 (x) u2 (x) ρ(x) dx = 0 . (2.69) α

Possiamo infine enunciare i seguenti risultati: a) Gli autovalori del problema di Sturm-Liouville (2.64, 65) sono tutti reali e maggiori di zero. b) Le corrispondenti autofunzioni {un (x)} , che sono ortogonali fra loro rispetto al prodotto scalare (2.68), formano un sistema completo nello spazio, relativamente alla norma indotta da tale prodotto scalare. Ci`o significa che ogni funzione f tale che  β |f |2 ρ dx < +∞ α 20

Talvolta l’introduzione di un prodotto scalare modificato come in (2.68) pu` o essere un utile accorgimento: per esempio due funzioni non ortogonali rispetto al prodotto scalare “ordinario” (2.29) possono risultare ortogonali rispetto ad un prodotto scalare modificato con l’introduzione di una funzione peso ρ(x) opportuna.

2.20 Problema di Sturm-Liouville

73

pu` o essere sviluppata in serie di Fourier di tali autofunzioni un : f=

∞ 

an un

(2.70)

n=1

nel senso che, per N → ∞ , 

β

N  2    an un  ρ dx → 0 , f −

α

n=1

cio`e la serie di Fourier converge in media del secondo ordine rispetto alla funzione densit` a ρ. Per quanto riguarda il calcolo dei coefficienti an , si ottiene, grazie anche alla (2.69), la regola naturale  (um , f )ρ = an (um , un )ρ = am (um , um )ρ . n

Si noti ad esempio che l’equazione di Schr¨ odinger indipendente dal tempo unidimensionale (v. il § 2.22 per l’equazione in pi` u dimensioni) per una particella quantistica soggetta ad un potenziale V (x) `e del tipo 



 d2 + V (x) u = λu dx2

cio`e appunto del tipo di Sturm-Liouville. Le corrispondenti autofunzioni formano quindi un sistema completo: risultato importante in fisica, perch´e assicura la possibilit` a di esprimere qualsiasi “stato” (v. § 1.11) come sovrapposizione (cio`e come serie di Fourier) degli “autostati” dell’operatore energia. Possiamo ancora enunciare altri risultati di questa teoria. (i) Gli autovalori λ1 , λ2 , · · · , λn , · · · sono crescenti e λn → +∞ . (ii) Se λ1 `e il pi` u piccolo degli autovalori, la corrispondente autofunzione u1 (x) si annulla solo nei punti x = α e x = β. (iii) Teorema di monotonia : mantenendo inalterate le p, q, ρ ma riducendo l’intervallo da [α, β] ad [α , β  ] con α < α < β  < β , aumentano tutti gli autovalori. La stessa cosa succede aumentando p e/o q ; oppure diminuendo la ρ. (iv) Teorema di separazione : dette un , um due autosoluzioni con autovalori λn , λm rispettivamente, se λn > λm allora fra due zeri consecutivi di um cade almeno uno zero di un . (v) Teorema di oscillazione : supponendo di aver ordinato gli autovalori λn in ordine crescente, la n-sima autosoluzione un ha n − 1 zeri nell’intervallo aperto (α, β) , ossia n + 1 includendo gli estremi x = α e x = β . ` immediato constatare come tutti questi risultati sono verificati nel caso E particolare dell’operatore −d2 /dx2 .

74

Spazi di Hilbert

Prima di passare ad altre considerazioni sul problema di Sturm-Liouville, accenniamo ad un altro caso in cui `e assicurata l’esistenza di un sistema completo di autovettori. Si consideri l’operatore di L2 (0, 1) in s`e cos`ı definito:  1 Tf= K(x, t) f (t) dt 0

dove f ∈ L2 (0, 1) e K(x, t) `e una funzione assegnata di L2 (0, 1) × L2 (0, 1) , cio`e tale che  1 1 |K(x, t)|2 dx dt < +∞ . 0

0

L’equazione agli autovalori T f = λ f `e, come si vede, un’equazione integrale (l’“incognita” f compare infatti anche sotto il segno di integrale). Si riesce a provare che, se K(x, t) = K ∗ (t, x) , allora l’equazione ha un sistema completo di autosoluzioni fn e che i corrispondenti autovalori sono reali, decrescenti e tendono a zero (v. anche il § 2.29).

2.21 L’equazione di d’Alembert in due dimensioni Casi notevoli di equazioni di Sturm-Liouville si ottengono da molte equazioni differenziali alle derivate parziali con il metodo della separazione delle variabili e con opportune condizioni agli estremi. Ne vedremo qualche esempio nel prossimo paragrafo, ma gi` a il caso considerato proprio all’inizio di questo capitolo (§ 2.1) `e un esempio – assai semplice – di quanto detto. Altrettanto semplice `e il caso dell’equazione di d’Alembert in due dimensioni x, y:  ∂2 1 ∂2 ∂2  u = + u, ∂x2 ∂y 2 v 2 ∂t2

u = u(x, y; t)

(2.71)

che `e l’equazione cui obbediscono le vibrazioni di una superficie elastica. Separata, come nel § 2.1, la dipendenza da t: u(x, y; t) = w(x, y) T (t) si ottiene per w(x, y) l’equazione agli autovalori  ∂2 ∂2  w = −k 2 w . + ∂x2 ∂y 2

(2.72)

Se supponiamo ora che la superficie abbia un contorno rettangolare fisso, si debbono aggiungere le seguenti condizioni al contono i vertici del rettangolo siano (0, 0), (a, 0), (a, b), (0, b) : w(0, y) = w(a, y) = w(x, 0) = w(x, b) = 0 . Separando ulteriormente

2.22 Equazione di Sturm-Liouville con punti singolari.Alcune funzioni speciali

75

w(x, y) = X(x) Y (y) l’equazione diventa

X  Y  + = −k 2 X Y che si spezza nelle due equazioni usuali X  = −k12 X ,

Y  = −k22 Y ;

k 2 = k12 + k22

con le rispettive condizioni X(0) = X(a) = 0 ,

Y (0) = Y (b) = 0 .

Le autosoluzioni sono allora (a meno del solito fattore arbitrario) wn1 n2 (x, y) = sin(kn1 x) sin(kn2 y) ,

n1 , n2 = 1, 2, 3, · · ·

 n2 π π n2  kn2 = n2 ; kn2 1 n2 = π 2 21 + 22 . n1 , a b a b Si verifica subito che tali funzioni wn1 n2 (x, y) sono un sistema completo nello spazio di Hilbert L2 (D) , dove D `e il dominio rettangolare in esame, con il prodotto scalare definito naturalmente da  a b f ∗ (x, y) g(x, y) dx dy . (f, g) = kn1 =

0

0

Si noti in particolare che l’autovalore k 2 pu` o risultare degenere 21 . Le linee nodali di ciascuna soluzione wn1 n2 , cio`e il luogo dei punti in cui wn1 n2 = 0 , sono date da segmenti che congiungono i lati opposti del rettangolo considerato parallelamente ai suoi lati e che lo dividono esattamente in n1 × n2 rettangoli uguali fra loro. La parte dipendente dal tempo, corrispondentemente a ciascuna wn1 n2 , sar` a naturalmente T (t) = cos(ωn1 n2 t + δn1 n2 ) , con ωn1 n2 = v kn1 n2 . Il caso di superficie con contorno circolare sar`a considerato nel prossimo paragrafo (punto 4).

2.22 Equazione di Sturm-Liouville con punti singolari. Alcune funzioni speciali Le autosoluzioni dell’equazione di Sturm-Liouville sono funzioni regolari (continue e limitate) se α e β sono finiti e se sono verificate le condizioni (2.67) sulle funzioni p(x), q(x) e ρ(x) . I punti in cui almeno una di queste condizioni non `e verificata si chiamano punti singolari dell’equazione e sono 21

Per esempio, nel caso a = b, all’autovalore kn2 1 n2 corrispondono, per ogni n1 = n2 , le due soluzioni indipendenti wn1 n2 e wn2 n1 .

76

Spazi di Hilbert

punti in cui la soluzione pu` o presentare singolarit` a. In generale, si riesce a dimostrare che, imponendo opportune condizioni di regolarit` a alle soluzioni, le autosoluzioni formano un set completo anche in questo caso. Accenneremo ad alcuni esempi particolarmente importanti di questa situazione 22 . (1) Polinomi di Hermite L’equazione   d2 2 − x + λ u(x) = 0 , dx2

−∞ < x < +∞

(2.73)

presenta come punti singolari i punti x = ±∞ . Si vede facilmente che le soluzioni della (2.73) si comportano “asintoticamente” (per grandi x) come 2 e±x /2 . Si pu` o provare che si hanno soluzioni non divergenti all’infinito soltanto se λ assume i valori “discreti” λ = λn = 2n + 1 , n = 0, 1, 2, · · · , ed in tal caso le soluzioni corrispondenti hanno la forma 2

un (x) = Hn (x) e−x

/2

,

n = 0, 1, 2, · · ·

dove Hn (x) `e un polinomio di grado n. Questi polinomi sono detti polino

mi di Hermite e le un (x) funzioni di Hermite ; si prova anche che tali autovalori λn sono non degeneri e che per le soluzioni cos`ı trovate rimangono vere tutte le propriet` a date nel § 2.20; in particolare si ha che il set un (x) `e completo in L2 (R) . Si ha inoltre che i polinomi di Hermite sono pari per n pari e dispari per n dispari. Poich´e l’operatore −d2 /dx2 + x2 `e il doppio dell’operatore “energia” dell’oscillatore armonico in Meccanica Quantistica (di massa m = 1 , costante elastica k = 1 e avendo posto h ¯ = 1), se ne ricava che gli autovalori dell’energia dell’oscillatore armonico quantistico sono dati da 12 λn = n + 12 . (2) Polinomi di Legendre e armoniche sferiche L’equazione (Δ − V (r) + λ) u = 0

(2.74)  dove V `e una funzione assegnata della sola variabile r = x2 + y 2 + z 2 , scritta in coordinate sferiche r, θ, φ, diventa 1 ∂  ∂   ∂2 1 ∂  ∂  1 −V (r)+λ u = 0. (2.75) r2 + 2 sin θ + 2 2 2 2 r ∂r ∂r r sin θ ∂θ ∂θ r sin θ ∂φ Posto u = R(r) Θ(θ) Φ(φ) , l’equazione si separa in tre equazioni di SturmLiouville. La condizione agli estremi che va imposta per φ `e ovviamente Φ(φ + 2π) = Φ(φ) . Con questa l’equazione per Φ si risolve immediatamente: 22

Per maggiori dettagli, v. per esempio i testi di Weinberger [21] o di Morse e Feshbach [17].

2.22 Equazione di Sturm-Liouville con punti singolari.Alcune funzioni speciali

77

m = 0, ±1, ±2, · · ·

Φ(φ) = ei m φ , L’equazione per Θ diventa

 1 d d m2  Θ + μΘ = 0 sin θ − sin θ dθ dθ sin2 θ

(2.76)

dove naturalmente μ `e la costante introdotta dalla separazione delle equazioni ed m un numero intero fissato dalla soluzione Φm (φ) . La (2.76) presenta i punti θ = 0, θ = π come punti singolari. Si dimostra che si hanno soluzioni regolari solo se μ = ( + 1), con  = 0, 1, 2, . . ., e se |m| ≤ , e le autosoluzioni (m) corrispondenti Θ (θ) sono polinomi in sin θ e cos θ. Le funzioni (m)

Y m (θ, φ) = Θ

(θ) ei m φ

si chiamano armoniche sferiche . Si noti che le ei m φ sono ortogonali fra (m) loro per valori diversi di m, mentre, con lo stesso m, le Θ sono ortogonali fra loro, per valori diversi di , rispetto alla funzione peso sin θ . Quindi le Y m sono ortogonali fra loro proprio rispetto all’angolo solido dΩ = sin θ dθ dφ . Esse forniscono un set completo nello spazio delle funzioni f = f (θ, φ) ∈ (0) L2 (S), dove S `e la superficie della sfera. In particolare, le funzioni Θ (θ) si chiamano polinomi di Legendre e sono un altro esempio di sistema completo in L2 ([0, π]) . (3) Polinomi di Laguerre La terza delle equazioni in cui si `e separata la (2.75) riguarda la funzione R(r) ed `e l’unica che contiene la funzione V (r) : essa `e  1 d  d  ( + 1)  2 − V (r) + λ R=0 (2.77) r − r2 dr dr r2 dove ora  `e un numero intero fissato da quanto detto nel precedente esempio. Scegliendo il caso del potenziale Coulombiano V (r) = −

2 r

i punti singolari sono r = 0 e r = ∞ . Le autosoluzioni regolari che si ottengono, imponendo in particolare la condizione lim R(r) = 0 ,

r→∞

sono del tipo

Rn( ) (r) = e−α r/n L( ) n (r) ( )

dove α `e una costante e gli Ln (r) sono dei polinomi di grado n − 1 nella (0) variabile r. Se in particolare `e  = 0 , i polinomi Ln (r) si chiamano poli(0) nomi di Laguerre . Il sistema Rn (r) `e un sistema completo in L2 (0, ∞) 2 rispetto alla funzione peso r .

78

Spazi di Hilbert

(4) Funzioni di Bessel Si scriva l’equazione di d’Alembert in due dimensioni previa separazione della

variabile t: v. (2.71, 72) : (Δ + k 2 ) w = 0 in coordinate polari r, φ : si ottiene  1 ∂  ∂  1 ∂2 2 w(r, φ) = 0 . + k r + 2 r ∂r ∂r r ∂φ2

(2.78)

Se tale equazione si riferisce al problema di una superficie elastica a contorno circolare fisso, si deve imporre la condizione al contorno w(a, φ) = 0 dove a `e il raggio del contorno circolare. Separando w = R(r) Φ(φ) e scrivendo ora la soluzione dell’equazione per

φ nella forma seguente si ricordi anche la condizione Φ(φ + 2π) = Φ(φ) m = 0, 1, 2, · · ·

Φ = sin(m φ + δm ) , si ottiene per R

 1 d  d  m2  r − 2 + k2 R = 0 r dr dr r e infine, posto x = k r , f (x) = R(x/k) : f  +

1   m2  f + 1− 2 f =0 x x

(2.79)

che si chiama equazione di Bessel . I suoi punti singolari sono x = 0, x = ∞ . Pi` u in generale l’equazione pu` o essere studiata anche per valori non interi di m. Per ogni valore intero di m = 0, 1, 2, · · · , la soluzione regolare in x = 0 si chiama funzione di Bessel di prima specie e si indica col simbolo Jm (x) . Le Jm (x) hanno andamento oscillante smorzato con infiniti zeri non equidistanti. Inoltre J0 (0) = 1 mentre Jm (0) = 0 per m = 1, 2, · · · ; le Jm (x) sono espresse da serie di potenze del tipo Jm (x) = xm

∞ 

an x2n

n=0

dove le serie hanno raggio di convergenza infinito. Per quanto riguarda la condizione al contorno, essa diventa nel nostro caso Jm (k a) = 0 e quindi k a deve coincidere con uno degli zeri della Jm (x) . Questo determina k, cio`e l’autovalore. Le linee nodali di ogni autosoluzione sono di due tipi e si ottengono cercando i punti in cui sin(m φ+δm ) = 0 oppure

2.23 Equazione di Laplace e funzioni armoniche

φ

79

r

Figura 2.6. Linee nodali di una soluzione dell’equazione di d’Alembert per il cerchio.

Jm (k r) = 0 nell’interno del cerchio considerato. La prima equazione fornisce m diametri del cerchio, la seconda dei cerchi concentrici al primo aventi i raggi ri tali che k ri coincida con gli (eventuali) zeri della Jm contenuti fra 0 e k a v. fig. 2.6, dove sono indicate le linee nodali relative

al caso m = 2 e con k a coincidente con il terzo zero della funzione J2 (x) . Zeri delle funzioni di Bessel J0 = 0 J1 = 0 J2 = 0

per x = per x = per x =

− ±2.41 . . . ±5.52 . . . · · · 0 ±3.83 . . . ±7.02 . . . · · · 0 ±5.14 . . . ±8.42 . . . · · ·

2.23 Equazione di Laplace e funzioni armoniche Passiamo ora a considerare l’equazione alle derivate parziali per la funzione incognita u = u(x, y) ∂2u ∂2u Δu = + 2 =0 (2.80) ∂x2 ∂y che si chiama equazione di Laplace e le cui soluzioni si chiamano funzioni armoniche . Le funzioni armoniche descrivono, per esempio, fra molte altre grandezze fisiche, il potenziale elettrostatico piano in assenza di cariche. Risolviamo ora esplicitamente il problema di trovare il potenziale all’interno di una circonferenza di centro l’origine e raggio ρ = 1 , essendo noto il potenziale al bordo, ovvero risolviamo la (2.80) con la condizione u(r = 1, φ) = F (φ)

(2.81)

80

Spazi di Hilbert

avendo introdotto coordinate polari r, φ e assumendo che F (φ) ∈ L2 (0, 2π). Scritta l’equazione nelle coordinate r, φ Δu =

∂ 2 u 1 ∂u 1 ∂2u + =0 + ∂r2 r ∂r r2 ∂φ2

e separate le variabili u(r, φ) = R(r) Φ(φ) si trovano immediatamente per Φ(φ) le solite soluzioni Φ(φ) = e±i m φ

m = 0, 1, 2, · · ·

mentre l’equazione per R(r) , che diventa R +

1  m2 R − 2 R=0 r r

`e facilmente risolta, per ogni m ≥ 0, a meno di una costante moltiplicativa, da Rm (r) = rm . In realt` a l’equazione per R(r) ha anche le soluzioni singolari nell’origine r−m se m = 0 , e log r se m = 0 , che nel problema che stiamo ora considerando vanno escluse in quanto divergenti (se il problema si pone per esempio in una corona circolare, occorre tener conto anche di queste soluzioni). La soluzione sar` a allora da ricercare fra le funzioni del tipo u(r, φ) = α0 +

∞ 

rm (αm ei m φ + βm e−i m φ )

(2.82)

m=1

dove, per soluzioni u(r, φ) reali, si ha α0 = α0∗ ,

∗ αm = βm .

Dobbiamo ora imporre la condizione al contorno (2.81): per r = 1 dovr` a essere: u(1, φ) = α0 +

∞ 

(αm ei m φ + βm e−i m φ ) = F (φ)

m=1

e dunque i coefficienti α0 , αm , βm sono i coefficienti dello sviluppo in serie di Fourier della funzione reale assegnata F (φ) rispetto al set completo ei m φ :  2π  2π 1 1 ∗ F (θ) dθ , αm = F (θ) e−i m θ dθ = βm . (2.83) α0 = 2π 0 2π 0 Da notare in particolare che, per r = 0 , si ha dalla (2.82) che il potenziale al centro `e dato da u(0, φ) = α0 = valor medio dei valori al bordo F (φ) , come `e ben noto. Sostituendo le (2.83) nella (2.82), si trova

2.23 Equazione di Laplace e funzioni armoniche





2π u(r, φ) =

 F (θ) dθ + 2 Re

0



dθ F (θ) 0





=



dθF (θ) 1 + 2 Re

0

∞ 

81

rm ei m (φ−θ) =

m=1 ∞ 

zm



m=1

avendo posto z = r ei(φ−θ) . Essendo ∞  m=1

zm =

1 z −1= , 1−z 1−z

|z| = r < 1

(2.84)

e inoltre (come si verifica con semplici passaggi) 1 + 2 Re

z 1 − r2 = 1−z 1 + r2 − 2r cos(φ − θ)

ne segue la formula finale, detta formula di Poisson  F (θ) 1 − r2 2π dθ u(r, φ) = 2 − 2r cos(φ − θ) 2π 1 + r 0

(2.85)

che risolve completamente il problema posto all’inizio. Il risultato si generalizza immediatamente a circonferenze di raggio ρ arbitrario:  ρ2 − r2 2π F (θ) u(r, φ) = dθ (2.85 ) 2 2 2π ρ + r − 2r ρ cos(φ − θ) 0 Anche il problema di risolvere la (2.80) per regioni a contorno rettangolare pu` o essere facilmente risolto con la separazione delle variabili u(x, y) = X(x) Y (y) e mediante serie di Fourier. P.es., se il rettangolo `e [0, π] × [0, 1] e si impone che la u(x, y) sui lati “verticali” sia nulla: u(0, y) = u(π, y) = 0, la soluzione avr` a la forma u(x, y) =

∞ 

sin nx (an eny + bn e−ny )

n=1

dove le an , bn sono determinate dalle altre condizioni al bordo u(x, 0) e u(x, 1). Il problema di trovare una funzione armonica u all’interno di una regione S essendo noto il suo valore F lungo il bordo  si chiama problema di Dirichlet . Si chiama invece problema di Neumann il problema di determinare una funzione armonica u essendo noto il valore della sua derivata normale G = ∂u/∂n lungo il bordo. Il procedimento visto in questo paragrafo pu` o essere applicato, con le opportune modifiche, anche al problema di Neumann: naturalmente la funzione

82

Spazi di Hilbert

u risulter` a determinata a meno di una costante additiva. Si deve per` o osservare che i valori della derivata normale assegnati sul bordo  non possono essere arbitrari, ma devono soddisfare la condizione ( ∂u d = 0 . ∂n Questa condizione emerge direttamente nel caso del cerchio: infatti, ripetendo i calcoli precedenti ed eguagliando la quantit` a ∂u/∂r calcolata dalla (2.82) per r = 1 alla serie di G(φ) = ∂u/∂r|r=1 , si vede che deve essere  2π 1 G(φ)dφ = 0 . g0 = 2π 0 Nel caso generale, tale condizione si pu`o ottenere dal teorema di Gauss: (  ∂u Δ u dS = 0 . d = ∂n S Nella (2.84) si `e incontrata una serie di potenze nella variabile complessa z. ` facile convincersi che tutti i risultati noti dall’analisi reale elementare circa E le propriet` a di convergenza delle serie di potenze in campo reale restano validi anche in campo complesso con l’unica differenza che invece di intervalli di convergenza sull’asse reale, per esempio |x − x0 | < L , si hanno cerchi nel piano complesso, ovvero |z − z0 | < R . Per esempio, la convergenza di una serie geometrica come la (2.84) sar`a assicurata all’interno del cerchio di centro l’origine del piano complesso e raggio 1: |z| < 1 ; la serie ∞  zn n! n=0

(2.86)

sar` a convergente per ogni z ∈ C (il suo raggio di convergenza `e infinito). Anche i teoremi noti per la determinazione del raggio di convergenza sono ancora validi. Naturalmente la serie (2.86) pu` o essere presa come definizione della funzione ez in campo complesso; da questa si pu`o introdurre per esempio la funzione ei z − e−i z sin z = 2i etc. e verificare che eiz = cos z + i sin z. Per` o | sin z| ≤ 1 non `e pi` u vera! (Infatti . . . ). Queste ultime considerazioni verranno riprese e approfondite nel cap. 3.

2.24 Equazioni alle derivate parziali. Il metodo di d’Alembert Abbiamo incontrato fin qui vari esempi di equazioni differenziali lineari alle derivate parziali del secondo ordine. La pi` u generale equazione di questo tipo sar` a evidentemente

2.24 Equazioni alle derivate parziali. Il metodo di d’Alembert

L[u] = A

83

∂2u ∂2u ∂u ∂2u ∂u +B +C 2 +D +E +F u=0 2 ∂x ∂x ∂y ∂y ∂x ∂y

dove u = u(x, y) e A, B, . . . sono costanti reali. A seconda che sia B 2 − 4AC > 0 , = 0 , < 0 l’equazione si dice rispettivamente di tipo iperbolico, parabolico, ellittico 23 . La tipica equazione iperbolica `e l’equazione di d’Alembert (y = vt): ∂2u 1 ∂2u − = 0. ∂x2 v 2 ∂t2 Ponendo ξ = x − vt, η = x + vt , l’equazione diventa ∂2u =0 ∂ξ ∂η

(2.87)

che `e la forma canonica dell’equazione di d’Alembert (e in generale delle equazioni iperboliche: le linee in cui ξ = cost., η = cost. si chiamano linee caratteristiche dell’equazione). La (2.87) `e facilmente risolta u = Φ(ξ) + Ψ (η) = Φ(x − vt) + Ψ (x + vt) dove Φ, Ψ sono funzioni arbitrarie. Dunque per questa via (metodo di d’Alembert) si vede che la pi` u generale soluzione dell’equazione di d’Alembert `e la sovrapposizione di due onde che si propagano lungo l’asse x con velocit`a v e ` facile collegare le funzioni Φ, Ψ con le condizioni iniziali u(x, 0) e ut (x, 0) −v. E e al bordo. Infatti, p.es., se si impone la condizione ad un estremo u(0, t) = 0 (corda con un estremo fisso) segue che deve essere Φ(−vt) = −Ψ (vt) , e questa – dovendo essere verificata per ogni t – implica che Ψ `e il prolungamento “con legge dispari” della Φ. In altre parole, la soluzione diventa u(x, t) = Φ(x − vt) − Φ(−x − vt) cio`e la sovrapposizione di un’onda progressiva e di una uguale onda regressiva “ribaltata”. Se si impone anche la condizione u(L, t) = 0 (secondo estremo fisso), si ottiene Φ(L − vt) = Φ(−L − vt), che – dovendo nuovamente essere valida per ogni t – implica che la funzione Φ deve essere periodica di periodo 2L, in accordo con quanto ottenuto nel § 2.4. Un esempio tipico di equazione parabolica `e dato dall’equazione del calore (2.19). L’equazione di Schr¨ odinger (dipendente dal tempo) `e del tipo 23

Pi` u in generale, se A, B etc. sono funzioni di x, y , l’equazione potr` a essere iperbolica in certe regioni, parabolica in altre, etc. L’equazione `e non omogenea se `e L[u] = w = 0 .

84

Spazi di Hilbert



∂2ψ ∂ψ + V (x) ψ = i 2 ∂x ∂t

ed `e simile ad un’equazione parabolica anche se non rientra propriamente nella classificazione data sopra, a causa del coefficiente immaginario. Infine, la tipica equazione ellittica `e l’equazione di Laplace (2.80), di cui sono stati studiati alcuni casi speciali nel paragrafo precedente. Vedremo nel § 3.14 che lo studio di tale equazione pu` o essere affrontato, per esempio, anche con le tecniche della variabile complessa. Altre tecniche generali di ricerca di soluzioni per tutte queste equazioni sono basate sull’uso delle trasformate integrali, come mostreremo nel § 4.23.

2.25 Funzionali. Teorema di Riesz In questi ultimi paragrafi del Cap. 2 verranno presentate alcune nozioni pi` u approfondite sugli operatori fra spazi di Hilbert. Anzitutto, si chiama funzionale ogni trasformazione Φ definita da uno spazio di Hilbert H allo spazio dei numeri complessi: Φ : H → C. Poich`e lo spazio C `e un particolare spazio di Hilbert, i funzionali sono dunque una speciale famiglia di operatori; risulta allora chiaro che cosa significa che un funzionale `e lineare, continuo, limitato e il significato di dominio D di un funzionale. Anche l’equivalenza fra continuit` a e limitatezza `e automaticamente valida anche per i funzionali, la cui norma sar` a data da Φ = sup

x∈D

|Φ(x)| · x

Per esempio, sia x0 ∈ H un vettore fissato; per ogni x ∈ H il prodotto scalare (x0 , x) definisce evidentemente un funzionale lineare e continuo di x: Φ(x) = (x0 , x) . Si ha infatti Φ = x0  come si vede immediatamente applicando la disuguaglianza di Schwarz e ricordando che |(y, x)| `e massimo quando x = y. Questo per` o non `e soltanto un esempio particolare di funzionale continuo: si ha infatti il seguente fondamentale: Teorema di Riesz : Ogni funzionale lineare continuo Φ pu` o essere espresso come un prodotto scalare con un vettore x0 , univocamente individuato da Φ: Φ(x) = (x0 , x) .

(2.88)

Il vettore x0 si chiama vettore rappresentativo di Φ, e si ha, come appena visto, Φ = x0  . Esiste quindi una corrispondenza biunivoca fra i

2.26 Operatore aggiunto

85

vettori di H e l’insieme dei suoi funzionali lineari e continui. Tale insieme si chiama duale di H e si indica usualmente con H  . Grazie al teorema di Riesz, si pu` o dunque dire che gli spazi di Hilbert sono “autoduali”. In parole diverse, si pu` o dire che il nucleo K di un funzionale lineare continuo ha “codimensione” 1 (cio`e il suo complemento ortogonale H1 ha dimensione 1), essendo dato da tutti i vettori ortogonali a x0 . La dimostrazione del Teorema di Riesz si basa proprio sulla verifica di questo fatto. E per verificarlo, si scrive H = K ⊕ H1 e si prendono due qualsiasi vettori x1 , y1 ∈ H1 ; sia z = α x1 + β y1 la loro combinazione lineare con α = Φ(y1 ), β = −Φ(x1 ) (per ipotesi α, β sono diversi da zero), allora Φ(z) = 0, dunque z ∈ H1 ∩ K e pertanto z = 0 . Questo implica che x1 e y1 sono linearmente dipendenti e dunque H1 `e unidimensionale. Se invece il funzionale non `e limitato, il suo nucleo risulta denso in H. Si consideri p.es. il funzionale Φ(f ) = f (a) in L2 (I) (o meglio, cos`ı definito nel dominio denso delle funzioni continue in un intorno del punto a ∈ I ).

2.26 Operatore aggiunto Mediante il teorema di Riesz `e immediato provare l’esistenza dell’operatore aggiunto , indicato con T + (oppure con T † ), di ogni operatore limitato T fra due spazi di Hilbert H e H  (cf. § 2.18). Sia infatti T : H → H una trasformazione lineare continua di H in H  . Per ogni fissato y  ∈ H  , il prodotto scalare (y  , T x) definisce, al variare di x in H, un funzionale di H: (y  , T x) = Φy (x) . ` immediato verificare che tale funzionale `e lineare e continuo; allora, per il E teorema di Riesz, esiste un vettore (ed uno solo) y ∈ H tale che Φy (x) = (y, x) . Resta cos`ı definita una corrispondenza y  → y , e, posto T + y  = y , se ne ricava (y  , T x) = (y, x) = (T + y  , x) esattamente come nella (2.51). Per questa via si conclude pure che l’operatore T + `e lineare, che ha per dominio l’intero spazio H  e che `e anch’esso limitato (anzi T +  = T  ). Inoltre si ha T ++ = T e (T S)+ = S + T + (dove S `e un altro operatore limitato). Scegliendo ora per semplicit` a H = H  , e preso un set ortonormale completo {en } in H, i prodotti scalari (ei , T ej ) = Tij si chiamano, come in dimensione finita, elementi di matrice dell’operatore T . Da notare per inciso

86

Spazi di Hilbert

che – utilizzando gli elementi Tij e almeno nel caso che T sia limitato – si pu` o generalizzare alla dimensione infinita la (1.10): posto x = T x, le componenti xi del vettore “trasformato” x si possono infatti esprimere tramite le componenti xi di x nella forma xi =

∞ 

Tij xj .

j=1

Per quanto aggiunto T + , si verifica subito che si ha la riguarda l’operatore

relazione come nella (1.12) ∗ (T + )ij = (ei , T + ej ) = (T ei , ej ) = (ej , T ei )∗ = Tji .

Se invece T non `e limitato, non si pu` o pi` u applicare il teorema di Riesz per definire T + , ma si deve partire direttamente dalla (2.51), e inoltre in questo caso `e necessario, come vedremo, fare l’ipotesi che il dominio D di T sia denso in H. Precisamente, fissato un y  ∈ H , si considera il prodotto scalare (y  , T x) al variare di x nel dominio D di T e si cerca se esiste un vettore y ∈ H tale che, per ogni x ∈ D , risulti (y  , T x) = (y, x) .

(2.89)

In genere, non per tutti i vettori y  sar` a possibile trovare un y che soddisfi tale uguaglianza (v. esempi ai §§ 2.18 e 2.27); certamente per`o quando – dato un y  – si trova in corrispondenza un y siffatto, questo `e anche l’unico: infatti, se la (2.89) fosse verificata anche da un altro vettore z ∈ H : (y  , T x) = (y, x) = (z, x), ∀ x ∈ D , sarebbe (y − z, x) = 0, ∀ x ∈ D da cui y = z grazie all’ipotesi fatta sul dominio D, ovvero che D = H. Resta cos`ı ben definita una corrispondenza y  → y, si pone allora y = T + y

(2.90)

e questo definisce l’operatore lineare T + , con dominio D costituito dai vettori y  che godono della propriet` a detta. Tale dominio `e comunque uno spazio vettoriale; se poi avviene che D `e denso in H, allora sar` a definibile anche T ++ , e si verifica subito che T ++ `e un’estensione di T , e si scrive T ++ ⊃ T , cio`e il dominio D di T ++ contiene D e sui vettori x ∈ D ⊂ D si ha T x = T ++ x .

2.27 Operatori chiusi Si consideri in uno spazio di Hilbert H un punto arbitrario x0 , e sia xn una qualsiasi successione convergente a x0 . Se T `e un operatore continuo, questo implica, per definizione, che T xn → T x0 per ogni successione xn → x0 . Se T non `e continuo, ci sar` a qualche successione xn → x0 tale che la successione

2.27 Operatori chiusi

87

dei trasformati T xn non risulta convergente, ma pu` o avvenire anche che esistano successioni xn e xn convergenti ad x0 : xn → x0 ,

xn → x0

(con x0 ∈ D = dominio di T ) che vengono trasformate da T in successioni convergenti a vettori diversi: T xn → y  ,

T xn → y  = y  .

Un operatore T si dice chiuso se, ∀ x0 ∈ D , considerate tutte le successioni xn → x0 per le quali la successione trasformata T xn risulta convergente, avviene che tutte tali T xn convergono a T x0 (cio`e non si hanno successioni T xn e T xn convergenti a vettori diversi nonostante xn e xn siano convergenti allo stesso x0 ). Se poi avviene che per un certo x0 (anche non appartenente a D), considerate tutte le successioni xn → x0 per le quali T xn risulta convergere, si ha che tutte tali successioni T xn convergono allo stesso vettore z, allora T sar` a “chiudibile”, cio`e sar`a possibile includere x0 nel dominio di T definendo naturalmente (e senza ambiguit`a) T x0 = z , e ottenere cos`ı una “estensione per chiusura” di T . Si verifica facilmente che l’operatore lineare T cos`ı definito T en = e1

n = 1, 2, · · ·

(2.91)

(dove {en } `e un set ortonormale completo ed `e esteso per linearit`a sull’insieme F delle combinazioni lineari finite dei vettori {en }) `e un esempio di operatore non chiuso (e dunque non continuo!): basta infatti osservare che in F `e contenuto anche il seguente set ortonormale completo (verificare!) √ f1 = (e1 − e2 )/ 2 √ f2 = (e1 + e2 − 2e3 )/ 6 .. . (2.92)  fn = (e1 + e2 + . . . + en − n en+1 )/ n(n + 1) .. . e notare che T fn = 0 per ogni n = 1, 2, · · · , dunque . . . 24

24

` possibile approssimare, per Qual `e il nucleo di T ? `e un sottospazio denso in H ? E esempio, e1 con una successione di vettori appartenenti a Ker (T ) ? Da notare che l’operatore (2.91) presenta varie altre “patologie”: ad esempio si verifica subito che il vettore e1 non appartiene al dominio dell’aggiunto T + .

88

Spazi di Hilbert

Un altro esempio di operatore non chiuso `e dato dal funzionale Φ(f ) = f (a) ` infatti facile costruire successioni di funzioni (congi` a incontrato nel § 2.25. E tinue) fn (x) convergenti a 0 in senso L2 ma tali che la successione numerica fn (a) non tenda a 0 ma tenda a qualsiasi valore, oppure non converga affatto. Dalla definizione stessa di aggiunto, segue invece che l’aggiunto T + di qualsiasi operatore T `e chiuso. Infatti, sia yn una successione contenuta nel dominio D di T + , convergente ad un vettore y  e tale che la successione trasformata T + yn risulti convergente: yn → y  ,

T + yn → w .

Allora, per ogni x nel dominio D (denso in H, per ipotesi) di T , si ha (yn , T x) = (T + yn , x) → (w, x) , ma anche

(yn , T x) → (y  , T x)

ovvero w soddisfa la condizione (y  , T x) = (w, x)

∀x ∈ D



il che significa – per la definizione stessa di aggiunto T + v. le (2.89-90) – che y  sta nel dominio D di T + e che w = T + y  = limn T + yn . Ne segue, per esempio, che qualsiasi operatore della forma (2.63 ) `e chiuso. Per lo stesso motivo, ricordando quanto visto nel § 2.18, anche l’operatore di derivazione d/dx `e un operatore chiuso. In breve, ci` o significa che derivando una successione (o una serie) di funzioni fn (derivabili in L2 ) ed L2 convergente si pu` o anche ottenere una successione non L2 -convergente 25 , ma se la successione delle derivate fn `e L2 -convergente, allora il limite `e proprio la derivata del limite (v. anche quanto anticipato nei §§ 2.4, 2.5, 2.14). Questa propriet` a dell’operatore d/dx `e importante anche perch´e giustifica certi passaggi dell’operatore di derivazione sotto il segno di serie (di Fourier) che si eseguono abitualmente quando, ad esempio, si cerca di risolvere per serie una equazione differenziale. Si consideri il semplice esempio seguente (oltre ai molti altri incontrati in diverse occasioni). Si vuole trovare la soluzione “forzata” y = y(t), periodica di periodo 2π, dell’equazione y  + y = w(t)

(2.93)

dove w(t) `e una funzione assegnata, periodica di periodo 2π; per esempio, la (2.93) pu` o essere l’equazione di un circuito “serie RL”, in cui R = L = 1 , w(t) `e la tensione applicata e y(t) la corrente che circola. Se in particolare w(t) `e una tensione “alternata pura” w = wk = e−i k t con frequenza ωk = k , la soluzione sar` a 25

Trovare un esempio! si ricordi che la derivata non `e un operatore continuo.

2.28 Varie nozioni di convergenza per successioni di vettori e operatori

yk =

89

1 e−i k t . −i k + 1

a essere scritta in Se w(t) `e una funzione periodica di L2 (0, 2π) , essa potr` serie di Fourier sulla base e−i k t : +∞ 

w(t) =

ck e−i k t

k=−∞

e la soluzione si potr`a scrivere sotto forma di serie y(t) =

+∞  k=−∞

ck e−i k t −i k + 1

che risulta convergente (e anzi convergente ad una funzione continua: perch´e?), e che si pu`o derivare termine a termine in modo da verificare che la (2.93) `e soddisfatta . Il risultato precedente sull’operatore di derivazione ci assicura infatti la possibilit` a di derivare termine a termine una serie ogni volta che la serie delle derivate risulti convergente in senso L2 .

2.28 Varie nozioni di convergenza per successioni di vettori e operatori ` gi` E a stata data (e usata varie volte!) la seguente definizione di convergenza per una successione di vettori xn in uno spazio di Hilbert: xn → x

se

xn − x → 0 .

Oltre a questa (che si chiama anche convergenza in norma), `e possibile introdurre una diversa nozione di convergenza, che si chiama: convergenza debole: si dice che xn converge debolmente a x ∈ H se ∀y ∈ H

si ha

(y, xn ) → (y, x) .

` immediato vedere che la convergenza in norma di una successione xn ad un E vettore x implica anche la sua convergenza debole allo stesso vettore. Invece, una successione pu`o convergere debolmente ma non in norma: per esempio, la successione dei vettori en di un set ortonormale (non necessariamente completo) converge debolmente a zero, dato che per ogni y ∈ H si ha, dovendo sussistere la disuguaglianza di Bessel (2.35) o l’uguaglianza di Parseval

(2.37) |(y, en )| → 0 √ ma non `e convergente in norma (in effetti, en − em  = 2 se n = m ). Si pu` o dimostrare che ogni spazio di Hilbert, che per definizione `e completo rispetto alla convergenza in norma, `e anche debolmente completo, cio`e

90

Spazi di Hilbert

ogni successione che sia “debolmente di Cauchy” (ovvero tale che |(y, xn − xm )| → 0 ) possiede un limite x ∈ H a cui converge debolmente. Varie nozioni di convergenza si possono introdurre anche per le successioni di operatori Tn (considereremo solo il caso di operatori limitati): (i) convergenza in norma: si dice che Tn → T in norma se Tn − T  → 0 ; (ii) convergenza forte: si ha convergenza in senso forte se per ogni vettore x ∈ H avviene che (Tn − T ) x → 0 ; (iii) convergenza debole: si parla di convergenza in senso debole se per ogni coppia di vettori x, y ∈ H si ha (x, Tn y) → (x, T y) . Si verifica subito che se Tn → T in norma, allora anche converge in senso forte e debole allo stesso T , e cos`ı pure la convergenza forte implica quella debole. Viceversa, invece, sia per esempio Pn il proiettore che proietta sul sottospazio unidimensionale generato dal vettore en (dove {en } `e un set ortonormale, non necessariamente completo, nello spazio H): si ha che, per n → ∞ , la successione degli operatori Pn → 0 in senso forte, grazie all’identit` a di Parseval o alla diseguaglianza di Bessel. Ma la successione Pn non ha limite in norma: infatti, il limite in senso forte `e gi`a noto, dunque se Pn avesse limite in norma, tale limite dovrebbe essere . . . , invece . . . ; oppure: la successione Pn non `e di Cauchy nel senso della norma, infatti Pn − Pm  = · · · . La stessa cosa si verifica per esempio per la successione di operatori in L2 (0, 1) definiti da Tn f (x) = xn f (x) (usare il teorema di Lebesgue, v. § 2.8). Analogamente, se Tn `e l’operatore lineare cos`ı definito su un set ortonormale completo {em }, m = 1, 2, . . . , Tn e1 = en ,

Tn en = e1 ,

Tn em = 0 se m = 1, n

si vede che Tn → 0 debolmente ma non in senso forte 26 . Da notare infine che lo spazio vettoriale L(H) degli operatori lineari e continui di H in s`e, `e completo rispetto a tutte e tre le nozioni di convergenza ora definite.

26

E ancora: sotto quali condizioni sui coefficienti cn si pu` o scrivere l’operatore





(2.63 ) sotto forma di una decomposizione spettrale v. (1.34) : T = cui la serie `e convergente in norma? oppure in senso forte?

∞  n=1

cn Pn in

2.29 Operatori compatti

91

2.29 Operatori compatti Un operatore si dice compatto se, data comunque una successione di vettori xn debolmente convergente ad x, si ha che la successione dei vettori trasformati T xn converge in norma a T x, cio`e T xn − T x → 0. Evidentemente ogni operatore compatto `e anche continuo, ma non `e vero il viceversa (per esempio l’identit` a `e continua ma non compatta!). Un esempio tipico di operatore compatto `e dato da T en =

1 en n

n = 1, 2, · · ·

dove en `e un set ortonormale completo in uno spazio di Hilbert. Un altro ` pure compatto l’inesempio `e l’operatore integrale dato alla fine del § 2.20. E verso di ogni operatore di Sturm–Liouville (purch´e λ = 0 non sia autovalore di quest’ultimo). Infine, un proiettore `e evidentemente compatto se e solo se il sottospazio su cui proietta ha dimensione finita. L’importanza degli operatori compatti sta nel seguente Teorema : Ogni operatore compatto autoaggiunto (o pi` u in generale normale) T possiede un set ortogonale e completo di autovettori un : T u n = λn u n . Inoltre, ogni autovalore non nullo ha necessariamente degenerazione finita, e – se ci sono infiniti autovalori λn = 0 – si ha che λn → 0 per n → ∞ (λ = 0 pu` o essere o non essere autovalore di T ). Ed `e vero anche il viceversa: se un operatore ammette un set ortogonale completo di autovettori con autovalori che soddisfano le propriet` a suddette, l’operatore `e compatto. Da notare, in questo teorema, che se λ = 0 non `e autovalore, allora T ha immagine densa in H (ma non coincidente con l’intero spazio) e T −1 esiste ma non `e limitato si veda per esempio

l’operatore suggerito qui sopra: T en = en /n ; qual `e un vettore y ∈ / Imm T ? , e dunque 0 ∈ Spettro(T ) .

Parte II

Funzioni di variabile complessa. Trasformate integrali. Distribuzioni

95

Il capitolo iniziale di questa Seconda Parte `e dedicato alla teoria delle funzioni di una variabile complessa: si tratta di un metodo veramente insostituibile come effettivo ausilio di calcolo, specie per il calcolo di integrali, come verr`a discusso e provato da numerosi esempi. Ma esso `e anche utile perch`e fornisce un linguaggio idoneo per interpretare e spiegare varie propriet` a (per esempio, gli sviluppi in serie di potenze), e trova infine una naturale applicazione nello studio delle funzioni armoniche, ovvero – per esempio – nei problemi di potenziale. Le tecniche della variabile complessa trovano poi estesa applicazione nell’argomento centrale di questa seconda parte, che `e costituito dalla trasformata di Fourier (Cap. 4). Per illustrare in modo espressivo il significato fisico della trasformata di Fourier, potremo dire che se f (t) `e la funzione che descrive un segnale elettromagnetico, la sua trasformata di Fourier descrive – in sostanza – quello che si vede analizzando il segnale allo spettroscopio. Verranno viste varie notevoli propriet` a (fisiche e matematiche) della trasformata di Fourier. Verr` a ricavato il “principio di indeterminazione” classico, verranno presentate diverse applicazioni alla soluzione di equazioni differenziali ordinarie (per esempio ai circuiti elettrici) e parziali. Alla trasformata di Fourier si collegano anche altre idee ed estensioni importanti, che vanno dalle relazioni di dispersione alla trasformata di Laplace. Un’altra importante nozione `e quella di funzione di Green, che sar` a presentata e illustrata nelle sue varie propriet` a, caratterizzazioni ed applicazioni. In collegamento a questa, sar`a possibile introdurre in modo naturale la fondamentale nozione di “delta di Dirac”. Le principali e pi` u utili propriet` a della delta di Dirac verranno anticipate per comodit` a, in modo da consentirne una immediata applicazione almeno nei casi pi` u semplici, attraverso un opportuno procedimento “empirico”. Questo procedimento trover` a poi la piena giustificazione nel Capitolo 5, che `e dedicato ad una presentazione rigorosa delle propriet` a generali delle distribuzioni (con particolare riguardo alle distribuzioni temperate, dove `e possibile introdurre la trasformata di Fourier) e delle loro pi` u significative applicazioni fisiche.

3 Funzioni di una variabile complessa

3.1 Prime definizioni. Condizioni di olomorfia Consideriamo in questo capitolo le funzioni complesse di una variabile complessa, cio`e le corrispondenze fra il piano complesso C e se stesso (o fra suoi sottoinsiemi): f : C → C. Potremo scrivere w = f (z) ;

z = x + iy ∈ C,

w = u + iv ∈ C.

Quindi w, u, v potranno anche essere intese come funzioni delle due variabili reali x, y w = f (x, y) ; u = u(x, y) , v = v(x, y) . Anzitutto, per poter costruire una “teoria” concernente le funzioni complesse f (z) , `e necessario definire i concetti base che si intendono assumere come punto di partenza. Il primo concetto `e – naturalmente – quello di limite: la sua definizione `e in realt` a del tutto ovvia e identica al caso delle funzioni reali. Diremo che la funzione f (z) ha limite finito α nel punto z0 1 lim f (z) = α

z→z0

se per ogni  > 0 si pu` o trovare un δ > 0 tale che si abbia |f (z) − α| < 

(3.1)

per ogni z = z0 tale che |z − z0 | < δ , cio`e per ogni z (escluso al pi` u z0 ) contenuto nel cerchio di centro z0 e raggio δ. La funzione sar` a poi continua in z0 se 1

Naturalmente, in queste definizioni occorre assumere che z0 non sia un “punto isolato” ma un “punto di accumulazione” dell’insieme di definizione di f (z) .

98

Funzioni di una variabile complessa

lim f (z) = f (z0 )

z→z0

cio`e se la funzione `e definita in z0 ed `e ivi uguale a lim f (z) . z→z0

Per esempio, la funzione f (z) = z/z ∗ (dove z ∗ indica il complesso coniugato di z) `e continua in tutto il piano complesso, con esclusione del punto z = 0 , dove la funzione non ha limite: per convincersene, basta osservare che, scritto z = ρ ei θ , si ha f (z) = e2 i θ , e si vede che, comunque piccolo si prenda un intorno circolare dell’origine |z| < δ , per nessun numero α pu` o essere soddisfatta la (3.1). Anche la definizione di derivata di una funzione f (z) appare abbastanza naturale: sia f (z) definita in un campo A (cio`e in un insieme aperto di C), si considera il rapporto incrementale f (z) − f (z0 ) z − z0

z, z0 ∈ A

e, se esiste finito il limite di tale rapporto per z → z0 , si dice che f (z) `e derivabile nel punto z0 e si scrive f  (z0 ) = lim

z→z0

f (z) − f (z0 ) · z − z0

(3.2)

Si verifica subito – come `e naturale – che se f (z) `e derivabile in z0 , `e ivi continua. ` importante a questo punto osservare che questa definizione di derivaE bilit` a per le funzioni complesse, nonostante essa appaia come la pi` u naturale possibile, `e in realt` a uno dei punti fondamentali della teoria, sul quale si fondano le “novit` a” che questa teoria presenta nei confronti dell’usuale analisi reale. Si deve infatti rilevare che la condizione di derivabilit` a espressa dalla (3.2) `e in realt` a una condizione assai forte, perch´e essa implica in sostanza (grazie alla definizione stessa di limite) che il limite del rapporto incrementale deve essere indipendente da ogni “direzione” o “percorso” lungo cui si faccia ` chiaro allora che, se si considera la funzione f (z) tendere la variabile z a z0 . E come funzione di due variabili reali x e y, la condizione di derivabilit` a in senso complesso `e un requisito assai pi` u forte della derivabilit` a parziale rispetto a x e a y, e pi` u forte anche della derivabilit` a lungo tutte le direzioni uscenti dal punto considerato. Per esempio, si verifica facilmente che le funzioni f (z) = Re z = x ,

g(z) = z ∗ = x − i y

sono derivabili parzialmente in ogni punto del piano rispetto a x e a y e tuttavia non sono derivabili in nessun punto in senso complesso, poich´e per entrambe il rapporto incrementale ha un limite che dipende dalla direzione lungo cui viene eseguito (il che `e quanto dire che non ha limite!). Una funzione f (z) che sia derivabile con continuit` a in tutti i punti di un campo A viene detta olomorfa o analitica (oppure ancora monogena, con un termine ora alquanto antiquato) in A.

3.1 Prime definizioni. Condizioni di olomorfia

99

Si ha il seguente criterio: Teorema: Condizione necessaria e sufficiente affinch´e una funzione f (z) sia olomorfa in un campo A `e che in ogni punto di A esistano le derivate parziali prime continue fx ed fy e che si abbia fx =

1 fy . i

(3.3)

Dimostrazione. Necessit` a. Se f (z) `e olomorfa in A, significa che in ogni punto z0 ∈ A il rapporto incrementale che appare nella (3.2) ha limite indipendente dalla direzione lungo cui esso viene eseguito. Scegliendo allora in particolare la direzione parallela all’asse reale e quella parallela all’asse immaginario, si dovr` a avere rispettivamente ⎧ f (x + Δx, y) − f (x, y) ⎪ ⎨ lim = fx f (z + Δz) − f (z) Δz=Δx→0 Δx f  (z) = lim = f (x, y + Δy) − f (x, y) 1 Δz→0 ⎪ Δz ⎩ lim = fy . Δz=i Δy→0 i Δy i Sufficienza. L’esistenza delle derivate parziali prime continue in A (e quindi la differenziabilit` a della funzione f (x, y) nel senso dell’analisi reale) assicura che si pu` o scrivere f (z + Δz) = f (x + Δx, y + Δy) = f (x, y) + fx Δx + fy Δy + O(|Δz|) dove O(|Δz|) `e un infinitesimo con |Δz| di ordine superiore al primo. Usando allora la condizione (3.3), si ha lim

Δz→0

f (z + Δz) − f (z) fx Δx + fy Δy + O(|Δz|) = lim = Δz→0 Δz Δx + i Δy = lim

Δz→0

(Δx + i Δy) fx + O(|Δz|) = fx Δx + i Δy

che prova la derivabilit` a di f (z) . In particolare si vede che fx = −i fy .

Un esempio ovvio di funzioni olomorfe `e dato dalle funzioni f (z) = z n che per n = 0, 1, 2, · · · sono olomorfe in tutto il piano complesso, mentre per n = −1, −2, · · · sono olomorfe in tutto il piano con esclusione del punto z = 0 ; inoltre f  (z) = n z n−1 . Ponendo f = u + i v , la condizione di olomorfia (3.3) diventa  ux = vy (3.4) u = −v . y

x

La condizione (3.3), o le condizioni equivalenti (3.4), vengono dette condizioni di Cauchy-Riemann .

100

Funzioni di una variabile complessa

3.2 Serie di potenze Consideriamo ora la serie di potenze a termini complessi ∞ 

an (z − z0 )n = F (z) .

(3.5)

n=0

Esattamente come per le serie reali, si pu`o determinare un numero positivo r (eventualmente uguale a zero o a infinito), detto raggio di convergenza , tale che la serie converge in tutti i punti z interni al cerchio |z − z0 | < r (e anzi converge totalmente, e quindi assolutamente ed uniformemente, in ogni cerchio chiuso |z − z0 | ≤ ρ < r ), mentre non converge nei punti z per i quali |z − z0 | > r . Si verifica subito, inoltre, che all’interno del cerchio di convergenza, la serie di potenze `e olomorfa. Infatti, basta applicare il criterio (3.3) visto nel paragrafo precedente, osservando che le derivate parziali della serie (3.5) possono essere eseguite derivando termine a termine 2 e quindi ∞  ∂F 1 ∂F n an (z − z0 )n−1 = = . ∂x i ∂y n=1

Altro esempio importante `e dato dalle cosiddette serie bilatere : ∞ 

an (z − z0 )n +

n=0

∞  n=1

bn (z − z0 )−n =

+∞ 

an (z − z0 )n .

(3.6)

n=−∞

Sia r il raggio di convergenza della prima parte di tale serie (quella a potenze positive). La seconda, posto 1 w= z − z0 diventa

∞ 

bn wn ; sia r il raggio di convergenza di questa: allora essa con-

n=1

verge per |w| < r , ovvero per |z − z0 | > 1/r ; non converge per |w| > r , ovvero per |z − z0 | < 1/r . Pertanto la serie (3.6) converge nella corona circolare di raggio interno 1/r e raggio esterno r. Ovviamente, se 1/r > r , non ci sono punti di convergenza; se r ed r sono infiniti il campo di convergenza `e tutto il piano complesso escluso il punto z0 , etc. Naturalmente, all’interno del campo di convergenza, la serie bilatera `e olomorfa. Ricordiamo alcuni esempi notissimi di serie di potenze: la serie geometrica 2

Infatti, la serie delle derivate, ottenuta derivando termine a termine una serie di potenze, ha – come `e noto dall’analisi elementare – lo stesso cerchio di convergenza della serie di partenza (3.5) e quindi la serie delle derivate converge uniformemente in questo cerchio. Pertanto essa converge alla derivata della serie (3.5).

3.3 Integrazione delle funzioni di variabile complessa ∞ 

zn =

n=0

1 , 1−z

101

r = 1;

la serie esponenziale ∞  zn = ez , n! n=0

r = ∞.

Alla funzione ez sono collegate poi le funzioni sin z, cos z, etc: ez = ex ei y = ex (cos y + i sin y) , 1 iz 1 iz sin z = (e + e−i z ) , (e − e−i z ) . 2 2i E ancora, per esempio, la serie di potenze ad esponenti negativi cos z =

∞  1 1 = e1/z n n! z n=0

sar` a convergente per |z| > 0 , cio`e per z = 0 .

3.3 Integrazione delle funzioni di variabile complessa Sia f (z) continua (non necessariamente olomorfa) in un campo A e γ una curva generalmente regolare orientata, contenuta in A. Si definisce l’integrale della f (z) esteso alla curva γ come l’integrale lungo la curva γ della forma differenziale in due variabili f (x, y) dx + i f (x, y) dy , cio`e si pone   f (z) dz ≡ f (x, y) dx + i f (x, y) dy (3.7) γ

γ

con tutte le note propriet` a degli integrali curvilinei piani. Si ha in particolare (Lemma di Darboux):     (3.8)  f (z) dz  ≤ M L , γ

dove M = max |f (z)| ed L `e la lunghezza della curva γ. z∈γ

Dimostrazione. Assumendo una rappresentazione parametrica su γ: x = x(t) t 0 ≤ t ≤ t1 y = y(t) si ha, per definizione

102

Funzioni di una variabile complessa

       f (z) dz  =  γ

t1



'  &

f x(t), y(t) x (t) + i f x(t), y(t) y  (t) dt =

t0

  t1

'   =  f x(t), y(t) [x (t) + i y  (t) dt ≤ t0

 ≤M

t1

)

t1

|f |

)

2

2 x (t) + y  (t) dt ≤

t0

2

2 x (t) + y  (t) dt = M L .

t0

Il risultato `e valido, in particolare, anche per curve chiuse.



3.4 Teoremi di Cauchy. Esistenza di tutte le derivate I teoremi di Cauchy rappresentano lo strumento principale della teoria delle funzioni olomorfe. (a) Teorema di Cauchy: Sia f (z) una funzione olomorfa in un campo A semplicemente connesso (cio`e “senza buchi”; pi` u esattamente: ogni curva semplice chiusa contenuta in A racchiude solo punti di A), allora per ogni curva semplice chiusa γ contenuta in A si ha ( f (z) dz = 0 . (3.9) γ

Dimostrazione. La (3.9) segue dalle condizioni di olomorfia (v. § 3.1) e da un noto teorema per le forme differenziali in due variabili X(x, y) dx+Y (x, y) dy , osservando in particolare che, in questo caso, la condizione ∂X ∂Y = ∂y ∂x affinch`e il differenziale sia esatto coincide con la (3.3).

(a ) Sfruttando ancora una propriet` a delle forme differenziali in due variabili, si pu` o generalizzare il precedente teorema al caso di campi A non semplicemente connessi, nel modo seguente. Sia Γ una curva chiusa generalmente regolare contenuta in A, e si supponga che dentro Γ siano presenti p “buchi” di A (cio`e p regioni ove f non `e olomorfa, v. fig. 3.1): si traccino p curve semplici chiuse γ1 , γ2 , · · · , γp che racchiudono al loro interno ciascuna di queste regioni (queste curve possono essere qualsiasi, purch`e esterne l’una all’altra e tutte interne a Γ ; in tal modo, nella regione interna a Γ ed esterna alle γ1 , γ2 , · · · , γp la f (z) `e olomorfa). Si ha allora ( f (z) dz = Γ

p (  i=1

f (z) dz

(3.10)

γi

dove tutti gli integrali sono percorsi nello stesso senso (convenzionalmente si assume come positivo il verso antiorario).

3.4 Teoremi di Cauchy. Esistenza di tutte le derivate

103

A

Γ

γ1 × γ3

×

γ2

Figura 3.1. L’integrale eseguito lungo Γ `e uguale alla somma degli integrali eseguiti lungo γ1 , γ2 , γ3 .

(b) Formula integrale di Cauchy (o anche secondo Teorema di Cauchy): Sia f (z) olomorfa in un campo A, ζ un qualsiasi punto di A e Γ una curva chiusa generalmente regolare contenente ζ al suo interno e racchiudente solo punti di olomorfia per f (z) . Si ha allora ( 1 f (z) f (ζ) = dz . (3.11) 2π i Γ z − ζ Dimostrazione. Fissato ζ, l’integrando nella (3.11), visto come funzione di z, potr` a non essere olomorfo – entro Γ – soltanto nel punto z = ζ . Se γ `e una circonferenza di centro ζ e raggio ρ abbastanza piccolo da rendere γ tutta interna a Γ , si pu` o applicare il teorema (a ) e si ottiene ( ( f (z) f (z) dz = dz . Γ z−ζ γ z−ζ Il secondo membro di questa eguaglianza pu` o essere riscritto (se z ∈ γ si ha z = ζ + ρ ei θ , la rappresentazione parametrica della circonferenza γ si scrive facilmente, e dz = i ρ ei θ dθ): (  2π  2π f (z) f (ζ + ρ ei θ ) iθ i ρ e dθ = i f (ζ + ρ ei θ ) dθ . (3.11 ) dz = iθ z − ζ ρ e γ 0 0 Nella (3.11 ) il primo membro non dipende da ρ, quindi nemmeno l’ultimo, che pu` o allora essere calcolato prendendone il limite ρ → 0 , ma l’integrando `e funzione continua di ρ e θ, quindi si ha semplicemente

104

Funzioni di una variabile complessa

( Γ

f (z) dz = lim i ρ→0 z−ζ





 f (ζ + ρ ei θ ) dθ = i

0



f (ζ) dθ = 2π i f (ζ) .



0

Vale la pena di notare come la formula integrale di Cauchy costituisca un primo sorprendente risultato della teoria che stiamo sviluppando: la (3.11) dice infatti che i valori che la funzione olomorfa f assume nei punti interni a Γ restano determinati dai valori assunti lungo Γ . Risultato questo che non ha nessun analogo, in generale, per le funzioni di variabile reale (v. per` o § 3.14). Come importante corollario della (3.11), si ha che, se f (z) `e olomorfa in un campo A, allora essa `e derivabile quante volte si vuole in A, e quindi tutte le sue derivate sono pure olomorfe in A (ed anche questo risultato `e piuttosto sorprendente). Basta infatti osservare che l’integrando della (3.11) `e, lungo la curva Γ , una funzione continua di z e ζ e inoltre derivabile con continuit` a rispetto a ζ: quindi la derivata n-sima f (n) (ζ) esiste e pu`o essere calcolata derivando sotto il segno di integrale. Si ha cos`ı (formula integrale di Cauchy generalizzata) ( n! f (z) (n) f (ζ) = dz . (3.12) 2π i Γ (z − ζ)n+1 ` opportuno osservare, infine, che le relazioni (3.11, 12) possono anche essere E utilizzate per calcolare alcuni integrali lungo curve chiuse nel piano complesso, come indica il seguente esempio (  sin z 2π i  d2 dz = sin z =0 3 2! dz 2 z=0 γ z dove γ `e una qualsiasi curva chiusa che circonda l’origine.

3.5 Sviluppi in serie di Taylor-Laurent Un importante risultato `e costituito dal seguente Teorema: Sia f (z) una funzione olomorfa in un campo A e z0 un punto qualsiasi: allora in ogni corona circolare C aperta, di centro z0 , che sia interamente contenuta in A, la f (z) pu` o essere sviluppata in una serie di potenze (bilatera): +∞  f (z) = an (z − z0 )n , z ∈C. (3.13) n=−∞

u Se, in particolare, z0 ∈ A , cio`e z0 `e un punto di olomorfia, allora nel pi` grande cerchio aperto C0 di centro z0 contenuto nel campo di olomorfia A, la funzione pu` o essere sviluppata in una serie “puramente di Taylor”, cio`e in una serie con sole potenze positive di z − z0 :

3.5 Sviluppi in serie di Taylor-Laurent

f (z) =

+∞ 

an (z − z0 )n ,

z ∈ C0 .

105

(3.14)

n=0

La serie (3.13) si chiama serie di Taylor-Laurent della funzione f (z) nell’intorno del punto z0 e il punto z0 si chiama centro dello sviluppo. Nella fig. 3.2 sono rappresentate due possibili situazioni.

C1

A z1

z2

C2

Figura 3.2. Lo sviluppo in serie di Taylor-Laurent intorno al punto z1 converge nella corona C1 ; lo sviluppo intorno a z2 `e uno sviluppo di Taylor convergente nel cerchio C2 .

Nel caso generale (3.13), chiameremo parte di Taylor la parte dello sviluppo contenente le potenze posivive (n ≥ 0) di z − z0 , e parte di Laurent o parte singolare la parte contenente le potenze negative. Nel secondo caso (3.14) si ha evidentemente l’usuale relazione an =

f (n) (z0 ) , n!

n = 0, 1, 2, · · · .

(3.14 )

Per illustrare meglio questo risultato (la cui dimostrazione parte dalla formula integrale di Cauchy, e quindi da un risultato tipicamente valido nell’ambito delle funzioni olomorfe), possiamo fare qualche confronto con la situazione corrispondente per le funzioni reali. Come `e noto, nell’analisi reale, la derivabilit` a di una funzione non basta ad assicurare la sviluppabilit` a in serie di Taylor: 2 ad esempio la funzione f (x) = e−1/x `e ovunque indefinitamente derivabile, ma non `e sviluppabile in serie di Taylor nell’intorno del punto x0 = 0 (infatti la funzione e tutte le sue derivate hanno limite nullo in x0 = 0). La situazione si chiarisce invece in variabile complessa, dove l’olomorfia della funzione ne garantisce la sviluppabilit` a: si noti, a proposito dell’esempio dato sopra, 2 che la funzione f (z) = e−1/z non `e olomorfa in z0 = 0 (basta osservare che – a differenza di quanto risulta studiando la funzione per valori reali – la

106

Funzioni di una variabile complessa

f (z) non `e nemmeno continua in z = 0, e per vederlo basta per esempio far tendere z a zero lungo l’asse immaginario). Analogamente, l’analisi reale non `e in grado di fornire criteri generali diretti per prevedere l’intervallo entro cui lo sviluppo di Taylor di una funzione `e convergente: ad esempio la funzione f (x) =

1 1 + x2

`e indefinitamente derivabile su tutto l’asse reale e tuttavia la convergenza del suo sviluppo in serie di Taylor nell’intorno del punto x = 0 non si estende oltre l’intervallo |x| < 1 . Invece il teorema dato qui sopra risolve in modo completo anche questa questione, poich´e sono le regioni di singolarit` a per la funzione a delimitare i cerchi in cui essa `e sviluppabile. Per esempio, in relazione all’esempio appena citato, la funzione f (z) =

1 1 + z2

presenta punti di singolarit` a in z = ±i e quindi il suo sviluppo di Taylor con centro nell’origine potr` a convergere appunto solo entro il cerchio di raggio 1. Si osservi ora il seguente importante risultato: ( dz 2πi se n = 1 (3.15) = n 0 se n = 1 γ (z − z0 ) dove n = 0, ±1, ±2, . . . e γ `e una qualsiasi curva chiusa che racchiude z0 al suo interno. Il risultato `e ovvio se n = 0, −1, −2, . . . poich´e in tali casi l’integrando risulta olomorfo, mentre per n > 0 pu` o essere ottenuto esplicitamente calcolando l’integrale scegliendo come γ una circonferenza di centro z0 e applicando direttamente la definizione e il procedimento dati nel § 3.3, oppure immediatamente applicando la (3.12) ponendo f = 1. Utilizzando la (3.15), si ricava dalla (3.13) (occorre integrare termine a termine una serie, ma questo `e lecito, grazie alla uniforme convergenza della serie di potenze all’interno del suo raggio di convergenza) la seguente espressione per i coefficienti an dello sviluppo di Taylor-Laurent: ( f (z) 1 dz , n = 0, ±1, ±2, · · · (3.16) an = 2π i γ (z − z0 )n+1 dove γ `e una curva chiusa contenente al suo interno z0 e contenuta in C. Di qui si ritrova in particolare che se la f (z) `e olomorfa in z0 e all’interno di γ cadono solo punti di olomorfia, allora a−1 = a−2 = · · · = 0 e si ottiene – come gi`a detto – uno sviluppo con la sola parte di Taylor (3.14), mentre se n ≥ 0, e sempre nel caso di f (z) olomorfa in z0 , la (3.16) riproduce con la (3.14 ) la formula di Cauchy generalizzata (3.12).

3.6 Zeri di una funzione olomorfa

107

3.6 Zeri di una funzione olomorfa 2

Abbiamo visto nel paragrafo precedente che per la funzione reale e−1/x esiste un punto (il punto x = 0 ) nel quale si annulla la funzione e insieme tutte le sue derivate. Questo fatto non si pu` o verificare per le funzioni olomorfe; e in 2 realt` a abbiamo gi` a detto che passando al campo complesso la funzione e−1/z non `e nemmeno continua nell’origine. Pi` u precisamente si ha il seguente Teorema: Sia f (z) una funzione olomorfa in un campo A; se in un punto z0 ∈ A la funzione si annulla insieme con tutte le sue derivate f (z0 ) = f  (z0 ) = f  (z0 ) = · · · = f (n) (z0 ) = · · · = 0 allora f (z) = 0 identicamente 3 in tutto A . Dimostrazione. In breve, la dimostrazione `e la seguente. Lo sviluppo in serie di Taylor della f (z) nell’intorno di z0 ha tutti i coefficienti nulli, quindi esiste un intorno di z0 in cui f (z) ≡ 0 con tutte le sue derivate pure nulle; sia X l’insieme di tutti i punti di A in cui f (z) = f  (z) = f  (z) = · · · = f (n) (z) = · · · = 0 . Se X non invadesse tutto A, sarebbe possibile, detto z  un punto della frontiera di X interno ad A, eseguire un altro sviluppo di Taylor di f (z) con centro z  . Ma anche in z  la funzione e tutte le sue derivate sono nulle: basta infatti calcolare f (n) (z  ) eseguendo il limite lim f (n) (z) facendo z→z

variare z nell’insieme X. Pertanto tale sviluppo produce un intorno di z  in cui f (z) = f  (z) = f  (z) = · · · = f (n) (z) = · · · = 0 e quindi una ulteriore estensione dell’insieme X. Deve essere allora X = A .

Sia ora f (z) una funzione olomorfa non identicamente nulla, e sia z0 un punto tale che f (z0 ) = 0 . Per quanto visto sopra dovr` a certamente esistere un numero intero n tale che f (z0 ) = f  (z0 ) = f  (z0 ) = · · · = f (n−1) (z0 ) = 0 ,

f (n) (z0 ) = 0 .

(3.17)

Si dice allora che il punto z0 `e per f (z) uno zero di ordine n. Si ha inoltre il seguente Teorema: L’insieme degli zeri di una f (z) non identicamente nulla, olomorfa in un campo connesso A, `e costituito da punti isolati (eventualmente `e vuoto), e i suoi eventuali punti di accumulazione non sono punti di olomorfia. Dimostrazione. Sia z0 uno zero di f (z) e n il suo ordine. Pertanto lo sviluppo della f (z) nell’intorno di z0 sar` a, grazie alla (3.14 ), del tipo seguente f (z) = an (z − z0 )n + an+1 (z − z0 )n+1 + · · · = (z − z0 )n φ(z) con φ(z0 ) = an = 3

f (n) (z0 ) = 0 . n!

Si deve in realt` a aggiungere l’ovvia condizione che il campo A sia connesso, cio`e – in sostanza – che esso non sia costituito da pi` u parti fra esse disgiunte.

108

Funzioni di una variabile complessa

Ma allora la funzione φ(z) dovr` a mantenersi diversa da zero almeno in un intorno di z0 , e quindi anche la f (z) sar` a diversa da zero in tutto quest’intorno (escluso, naturalmente, il punto z0 ): ci` o significa appunto che gli zeri della f (z) sono isolati. Supponiamo ora che l’insieme degli zeri della f (z) abbia uno o pi` u punti di accumulazione; sia z uno qualsiasi di tali punti e supponiamo, per assurdo, che esso appartenga al campo di olomorfia A. Allora si avrebbe f (z) = lim f (z) z→z

e il valore di tale limite potrebbe essere calcolato, in particolare, facendo muovere z lungo l’insieme degli zeri che ha z come punto di accumulazione. Ne seguirebbe allora che f (z) = 0 e quindi che anche z sarebbe uno zero per f . Ma ci` o `e impossibile, perch´e z non sarebbe uno zero isolato, in contrasto con la prima parte del teorema.

Una immediata ma assai notevole conseguenza di tali teoremi `e la seguente. Si consideri un campo A e una f (z) olomorfa in A. Ci si pu` o porre il problema di “estendere” la definizione della f (z) in modo da trovare un’altra funzione f0 (z) che coincide con f (z) in tutti i punti di A e che sia olomorfa in un campo A contenente A. Contrariamente a quanto ci si potrebbe aspettare, questa estensione analitica della funzione f (z) `e unica: infatti, se f0 e f1 fossero due estensioni, olomorfe in A , della funzione f , si avrebbe f0 − f1 = 0 in tutto il sottoinsieme A e quindi, applicando il teorema precedente alla funzione f0 − f1 , si avrebbe f0 ≡ f1 in tutto A 4 . Un risultato simile `e il seguente: siano f1 e f2 due funzioni olomorfe in uno stesso campo A e si supponga di aver verificato che in un certo insieme di punti di A si ha f1 (z) = f2 (z) ; ebbene, `e sufficiente che questo insieme possegga almeno un punto di accumulazione contenuto in A per poterne concludere che f1 ≡ f2 in tutto A. Anche qui basta applicare il teorema gi` a citato alla funzione f1 − f2 . Da qui segue subito, p.es., che anche in campo complesso sin2 z+cos2 z = 1: basta infatti applicare quanto detto alle due funzioni (olomorfe) f1 = sin2 z + cos2 z e f2 = 1. Osserviamo, infine, che quanto visto in questo paragrafo garantisce la possibilit` a di applicare il teorema di l’Hˆ opital nella forma consueta pi` u semplice f (z) f  (z) lim = lim  z→z0 g(z) z→z0 g (z) nell’ipotesi che f e g siano olomorfe in un intorno di z0 e che f (z0 ) = g(z0 ) = 0 . Per convincersi di questo basta eseguire lo sviluppo in serie di Taylor delle funzioni f e g in un intorno del punto z0 . 4

Si usa chiamare analitica anche una funzione della variabile reale che ammette estensione analitica, e dunque `e sviluppabile in serie di Taylor (almeno localmente).

3.7 Singolarit` a removibili

109

3.7 Singolarit` a removibili In questo e nel prossimo paragrafo studieremo il caso di funzioni f (z) che presentano singolarit` a isolate, cio`e che sono olomorfe in tutti i punti di un campo A tranne uno o pi` u punti isolati contenuti in A. In questo paragrafo studieremo il caso in cui la singolarit` a `e una singolarit` a “apparente”, nel senso che vedremo. Un caso tipico `e dato dalla funzione ` f (z) = sin z/z , che `e olomorfa in tutto il piano escluso il punto z0 = 0 . E per` o immediato verificare che sin z =1 z→0 z lim

e quindi, definendo f (0) = 1 , `e possibile “prolungare con continuit` a” la funzione anche nel punto z = 0 . Come vedremo meglio tra poco, se una funzione f (z) `e olomorfa in tutti i punti di un campo A con esclusione di un punto z0 ∈ A , ma se avviene che esiste finito il limite lim f (z) = l

z→z0

(3.18)

allora, definendo f (z0 ) = l , si estende la definizione di f (z) anche al punto z0 e la funzione cos`ı prolungata `e olomorfa in tutto A. Pi` u in generale, vale il seguente, assai pi` u forte Teorema: Se una funzione f (z) , olomorfa in un campo A escluso un punto z0 ∈ A , si mantiene limitata in un intorno I contenente z0 al suo interno, cio`e se esistono una costante M e un intorno I contenente z0 al suo interno tali che, per ogni z ∈ I − {z0 } , si abbia |f (z)| ≤ M

(3.19)

allora si pu` o definire f (z0 ) in modo che la funzione cos`ı prolungata sul punto z0 risulta olomorfa in tutto A. Dimostrazione. Si pu` o certamente calcolare lo sviluppo in serie di TaylorLaurent della f (z) con centro in z0 , e i coefficienti an saranno dati dalla (3.16). In particolare, per quanto riguarda i coefficienti delle potenze negative a−n , n = 1, 2, · · · , se si sceglie come curva γ nella (3.15) una circonferenza di raggio z0 contenuta nell’intorno I, si avr` a, grazie alla (3.8) e all’ipotesi: (  1  1 f (z) |f (z)|   dz |a−n | =  max −n+1 2π ρ ≤ M ρn ≤ −n+1 γ 2π i γ (z − z0 ) 2π ρ avendo indicato con ρ il raggio della circonferenza γ. D’altronde i coefficienti a−n non dipendono da ρ, ed inoltre ρ pu` o essere preso piccolo a piacere. Pertanto an = 0, per ogni n = 1, 2, · · · . Ci` o significa che lo sviluppo della f (z) non contiene la parte di Laurent, e quindi la f (z) `e olomorfa anche in

110

Funzioni di una variabile complessa

z0 ; o, pi` u esattamente, esiste finito il limite lim f (z) = l , per cui, ponendo z→z0

f (z0 ) = l , la funzione cos`ı prolungata in z0 `e olomorfa in tutto A.

Si dice in questi casi che z0 `e un punto di singolarit` a removibile (o eliminabile) per la f (z) . In realt` a la f (z) `e prolungabile in z0 e tale punto diventa punto di olomorfia. Vale la pena di notare che il risultato ora provato `e abbastanza sorprendente, se confrontato con quanto suggerirebbe l’analisi reale: infatti, ad esempio, la funzione reale sin(1/x) `e limitata nell’intorno di x = 0 e tuttavia non esiste certo il limite per x → 0 (invece, in variabile complessa, la funzione sin(1/z) . . . ).

3.8 Punti singolari isolati Studieremo ora il caso di singolarit` a isolate “vere”, cio`e non removibili. Sia allora f (z) olomorfa in un campo A tranne che in un punto z0 ∈ A : eseguito lo sviluppo in serie di Taylor-Laurent della f (z) nell’intorno di z0 , ed escluso il caso che z0 sia una singolarit` a removibile, si potranno dunque presentare soltanto i due casi seguenti. (a) La parte di Laurent contiene un numero finito di termini. Si dice allora che z0 `e una singolarit` a polare (o polo). Si dice poi che il polo `e di ordine n se n `e il numero intero tale che, in detto sviluppo, si ha: a−n = 0 ,

a−m = 0 per ogni m > n .

Per esempio le funzioni 1/z 2 e (sin z)/z 3 hanno entrambe un polo di ordine 2 in z0 = 0 . (b) La parte di Laurent contiene infiniti termini. Si dice allora che il punto z0 2 `e una singolarit` a essenziale . Per esempio la funzione e−1/z presenta tale singolarit` a in z0 = 0 . Vediamo ora alcune propriet` a per ciascuno di questi casi. (a) Singolarit` a polari. Si hanno i seguenti criteri. (i) Condizione necessaria e sufficiente perch´e un punto z0 sia un polo di ordine n per una funzione f (z) `e che esista finito e diverso da zero il limite lim (z − z0 )n f (z) = l = 0 .

z→z0

(3.20)

(ii) Condizione necessaria e sufficiente perch´e un punto z0 sia un polo di ordine n per una funzione f (z) `e che z0 sia uno zero di ordine n per la funzione 1/f (z) . (iii) Condizione necessaria e sufficiente perch´e un punto z0 sia un polo per una funzione f (z) `e che

3.9 Calcolo dei residui

lim |f (z)| = +∞ .

z→z0

111

(3.21)

Dimostrazione. Proviamo che la (i) `e condizione necessaria. Se infatti f (z) ha un polo di ordine n nel punto z0 , si ha, per definizione, f (z) = T (z − z0 ) + a−1 (z − z0 )−1 + · · · + a−n (z − z0 )−n ,

a−n = 0

dove T (z − z0 ) `e la parte di Taylor dello sviluppo. Allora (z − z0 )n f (z) = (z − z0 )n T (z − z0 ) + a−1 (z − z0 )n−1 + · · · + a−n . Grazie alla convergenza uniforme della serie di potenze, il limite pu` o essere calcolato termine a termine e si ottiene evidentemente la (3.20) con l = a−n = 0 . La dimostrazione che la condizione (i) `e anche sufficiente non `e molto diversa da questa e per brevit`a verr` a tralasciata. Lo stesso vale per le dimostrazioni dei criteri (ii) e (iii).

Per esempio, applicando il criterio (i), oppure il criterio (ii), alla funzione 1/ sin z si conclude immediatamente che tale funzione presenta poli del primo ordine nei punti z = 0, ±π, ±2π, · · · . (b) Singolarit` a essenziali. Tenuto conto di quanto gi` a detto, se z0 `e un punto di singolarit` a essenziale per una funzione f (z) , il lim f (z) non pu` o esistere, n`e finito n`e infinito. z→z0

Si ha per` o, di pi` u, il seguente risultato, di cui non diamo la dimostrazione, che mostra come sia complicato il comportamento di una f (z) nell’intorno di una singolarit` a essenziale: Teorema di Picard : Se z0 `e un punto singolare essenziale per f (z) , comunque si scelgano un numero complesso α (escluso al pi` u un valore eccezionale) ed un intorno I di z0 , esistono in I infiniti punti in cui f (z) = α . Per esempio, la funzione e1/z assume, in ogni intorno di z = 0 tutti i valori escluso il solo valore α = 0 ; la funzione sin(1/z) assume, in ogni intorno di z = 0 , tutti i valori senza eccezione.

3.9 Calcolo dei residui Sia z0 un punto singolare isolato di una funzione f (z) . Si definisce residuo della f (z) nel punto z0 , e si scrive Rf (z0 ) , il seguente integrale ( 1 f (z) dz (3.22) Rf (z0 ) = 2π i γ dove γ `e una qualsiasi curva semplice chiusa percorsa in senso antiorario contenuta nel campo di olomorfia di f e contenente z0 al suo interno. Ovviamente,

112

Funzioni di una variabile complessa

per il primo teorema di Cauchy, il residuo `e indipendente dalla curva γ. Confrontando con la (3.16), oppure integrando termine a termine la serie (3.13) e ricordando la (3.15), si ha subito Rf (z0 ) = a−1

(3.23)

dove a−1 indica il coefficiente di (z − z0 )−1 nello sviluppo in serie di TaylorLaurent nell’intorno del punto z0 . Se, in particolare, z0 `e un polo di ordine n, si ha f (z) = T (z − z0 ) +

a−1 a−n + ··· + z − z0 (z − z0 )n

dove T (z − z0 ) `e la parte di Taylor dello sviluppo; ne segue (z − z0 )n f (z) = (z − z0 )n T (z − z0 ) + (z − z0 )n−1 a−1 + · · · + a−n e da questa si verifica subito, derivando successivamente, che Rf (z0 ) = a−1 =

 dn−1

 1 n ) f (z) . (z − z 0 (n − 1)! dz n−1 z=z0

In particolare, se n = 1 , & ' a−1 = (z − z0 ) f (z) z=z0 = lim (z − z0 ) f (z) . z→z0

(3.24)

(3.25)

` chiaro che – salvo che nel caso di polo del primo ordine – il residuo potr` E a anche risultare nullo. Naturalmente, pi` u in generale, una funzione f (z) potr` a presentare pi` u punti di singolarit` a isolati in un dato campo A. Tutti i risultati precedenti sono ancora chiaramente validi per ciascun punto singolare, pur di sottintendere sempre, quando si parla di “intorno” del punto singolare o di “curva contenente” il punto singolare, che ci si deve riferire a intorni e curve che non contengono altri punti singolari. Si ha il seguente fondamentale teorema, la cui dimostrazione segue immediatamente dal teorema di Cauchy e dalla definizione di residuo. Teorema dei residui : Sia f (z) una funzione olomorfa in un campo A. Se γ `e una curva chiusa generalmente regolare contenuta in A che contiene al suo interno solo punti di olomorfia per f (z) escluso un numero finito di punti singolari isolati z1 , z2 , · · · , zp (nessun punto singolare deve trovarsi sulla curva γ), si ha (  f (z) dz = 2π i Rf (zi ) (3.26) γ

i interni

dove la somma `e estesa a tutti i punti singolari interni a γ. Possiamo a questo punto mostrare una prima applicazione del calcolo dei residui. Si debba calcolare l’integrale definito

3.9 Calcolo dei residui



113

+∞

f (x) dx

(3.27)

−∞

dove f (x) `e una funzione della variabile reale x. Il caso tipico al quale `e possibile applicare direttamente tutte le considerazioni seguenti, `e quello in cui f (x) `e una funzione razionale, cio`e un rapporto di polinomi P (x)/Q(x) primi fra loro. Si supponga che siano verificate le seguenti condizioni: (i) `e noto a priori che l’integrale esiste finito; (ii) si pu` o estendere al piano complesso la definizione della funzione f (x) in modo da ottenere una funzione f (z) olomorfa in un campo contenente tutto l’asse reale; (iii) la funzione f (z) introdotta in (ii) `e olomorfa in tutto il semipiano complesso “superiore” (cio`e quello in cui Im z > 0 ) escluso al pi` u un numero finito di punti singolari. Se f (x) `e una funzione razionale P (x)/Q(x), la condizione (i) `e verificata se il denominatore Q(x) non ha radici reali (altrimenti f divergerebbe con ordine di infinito maggiore o uguale a uno) e inoltre se, detti nP ed nQ i gradi rispettivi del polinomio al numeratore e di quello al denominatore, si ha nP ≤ nQ − 2 (affinch´e f decresca per x → ±∞ con ordine di infinitesimo maggiore di uno). Le condizioni (ii) e (iii) sono senz’altro verificate: basta semplicemente sostituire x con z nell’espressione di f (x) = P (x)/Q(x) .

Γ

z

× ×

x

−R

R



Figura 3.3. Percorso di integrazione per l’integrale (3.27) con le ipotesi (i). . .,(iv) .

In queste ipotesi, si consideri nel piano complesso z una curva chiusa (v. fig. 3.3) costituita dal segmento [−R, R] dell’asse reale e da una semicirconferenza Γ nel semipiano superiore, di centro l’origine e raggio R. Sia R abbastanza grande da contenere tutti i punti singolari z1 , z2 , · · · , zk di f (z) posti nel semipiano superiore. Grazie al teorema dei residui si ha 



R

f (z) dz + −R

f (z) dz = 2π i Γ



Rf (zi ) .

i

Prendiamo ora il limite R → ∞ : il secondo membro di questa eguaglianza non cambia; per quanto riguarda l’integrale lungo Γ si ha

114

Funzioni di una variabile complessa

    f (z) dz  ≤ max |f (z)| · π R .  z∈Γ

Γ

Si aggiunga allora l’ulteriore condizione (automaticamente verificata, come conseguenza della (i), nel caso che f sia una funzione razionale): (iv) per R → ∞ sia (3.28) R · max |f (z)| → 0 . z∈Γ

Si ha allora che Γ · · · → 0 per R → ∞ . Infine l’integrale sul segmento reale tende proprio all’integrale cercato (3.27), per cui  +∞  f (x) dx = 2π i Rf (zi ) . (3.29) −∞

i

` bene notare che la conclusione che l’integrale della f (x) sull’intervallo E [−R, R] tenda, per R → ∞ , proprio all’integrale (3.27) `e in realt` a valida solo nell’ipotesi (i) dell’esistenza dell’integrale stesso. Va tenuto presente infatti che tale integrale deve essere inteso, per definizione 5 , nel modo seguente  R  ∞ f (x) dx = lim f (x) dx (3.30) R→∞ R →∞

−∞

−R

dove i limiti vanno eseguiti indipendentemente e l’integrale esiste se il risultato non dipende dall’ordine in cui questi due limiti vengono eseguiti. Se invece si sceglie in particolare R = R , il limite che ne risulta definisce il cosiddetto integrale nel senso principale di Cauchy (o parte principale di Cauchy ), che viene denotato  +∞  R P f (x) dx = lim f (x) dx . (3.30 ) R→∞

−∞

−R

` chiaro a questo punto che se l’integrale esiste nel senso della (3.30), allora E esiste anche nel senso principale di Cauchy e i due valori dell’integrale, calcolati secondo la (3.30) oppure la (3.30 ), coincidono. Viceversa, ci potranno essere delle funzioni per le quali esiste finito l’integrale nel senso principale (3.30 ), che tuttavia non sono integrabili fra −∞ e +∞ : un esempio ovvio `e fornito dalla funzione f (x) = x il cui integrale in senso principale esiste (ed `e evidentemente uguale a zero). Un’altra applicazione riguarda il calcolo di integrali del tipo  2π f (cos θ, sin θ) dθ 0

dove f `e una funzione razionale: ponendo z = ei θ , dθ = (−i/z)dz, l’integrale si trasforma facilmente in un integrale nel piano complesso lungo la circonferenza di raggio uno, al cui interno si trova un numero finito di poli.

5 L’integrale nella (3.30) `e l’integrale improprio, gi` a introdotto v. la (2.61) .

3.10 Punto all’infinito

Un esempio ancora diverso: si vuole calcolare l’integrale  +∞ 1 dx . −∞ cosh x

115

(3.31)

La funzione f (z) = 1/ cosh z possiede infiniti poli lungo l’asse immaginario; allora, invece di “richiudere” il percorso di integrazione come in fig. 3.3, si sceglie come percorso di integrazione nel piano complesso un rettangolo come

z

iπ iπ/2× −R

x R

Figura 3.4. Percorso di integrazione per l’integrale (3.31).

in fig. 3.4. Entro tale rettangolo si trova il solo polo del primo ordine in z = iπ/2 per la funzione f (z) = 1/ cosh z. Lungo il lato orizzontale a quota z = iπ si ha cosh (x + iπ) = − cosh x, mentre si vede facilmente che gli integrali lungo i lati verticali del rettangolo tendono a 0 per R → ∞. In conclusione si ha (  +∞  π 1 1 lim dz = 2 dx = 2πi Rf i = 2π . R→∞ cosh z 2 −∞ cosh x

3.10 Punto all’infinito Fino a questo punto, anche se non lo abbiamo mai fatto notare esplicitamente, abbiamo considerato solo punti “al finito” del piano complesso. Se tuttavia il campo di definizione di una f (z) `e illimitato, `e naturale chiedersi qual `e il comportamento di f (z) quando il punto z si allontana indefinitamente. ` comodo, per vari motovi che vedremo, fare la convenzione che il piano E complesso sia dotato di un solo punto all’infinito. Per dare una rappresentazione intuitiva di questa convenzione, si immagini una sfera tangente nell’origine O al piano complesso e si proietti dal punto O della sfera, diametralmente opposto ad O, ciascun punto della superficie sferica sul piano complesso. Mediante questa proiezione (che `e una proiezione stereografica ), ad ogni punto P  della sfera diverso da O , corrisponde un punto al finito

116

Funzioni di una variabile complessa

del piano complesso, mentre al punto O corrisponde appunto – per definizione – il “punto all’infinito” del piano complesso: in questo modo si stabilisce una corrispondenza biunivoca fra i punti della sfera (che viene detta sfera complessa) e i punti del piano complesso, compreso il punto all’infinito. Servendosi di questa rappresentazione del piano complesso, si vede immediatamente che il campo costituito dai punti esterni ad una qualsiasi linea chiusa nel piano non `e altro che un intorno del punto all’infinito . Inoltre la trasformazione 1 z = (3.32) z trasforma il punto z = 0 del piano nel punto all’infinito del piano z  (e viceversa) ed `e biunivoca in tutti i punti; in particolare trasforma un intorno del punto z = 0 (per esempio un intorno circolare |z| < δ ) in un intorno dell’infinito del piano z  , ovvero |z  | > 1/δ . Allora, se una funzione f (z) `e definita in un campo illimitato, si definisce il suo comportamento nel punto z = ∞ nel modo seguente: si esegue il cambiamento z → z  = 1/z dato dalla (3.32) e si studia la funzione g(z  ) che cos`ı si ottiene: g(z  ) ≡ f (1/z  ) nel punto z  = 0 ; si assume – per definizione – che il comportamento di f (z) in z = ∞ `e quello della funzione g(z  ) in z  = 0 . Per esempio, la funzione 1/(1+z 2 ) `e olomorfa in z = ∞ e ivi presenta uno zero di ordine due; la funzione ez presenta invece all’infinito una singolarit` a essenziale. Inoltre, se `e possibile – nelle ipotesi e con le modalit` a viste nel § 3.5 – eseguire lo sviluppo in serie di Taylor-Laurent di g(z  ) con centro z  = 0 : g(z  ) =

∞ 

an (z  ) n +

n=0

∞ 

a−n (z  ) −n

(3.33)

n=1

si ottiene da questo, tornando alla variabile z, il seguente sviluppo per f (z) : f (z) =

∞  n=0

an z −n +

∞ 

a−n z n .

(3.34)

n=1

Tale sviluppo si chiama sviluppo in serie di Taylor-Lurent di f (z) nell’intorno del punto z = ∞ . Si noti come in questo sviluppo la par te “singolare” `e quella con potenze positive della variabile z infatti queste

corrispondono alle potenze negative della variabile z  nello sviluppo (3.33) . Un importante risultato `e fornito dal seguente Teorema di Liouville : Una funzione olomorfa in tutti i punti del piano, compreso il punto all’infinito, `e una costante.

3.11 Residuo all’infinito

117

Dimostrazione. Si pu` o intanto certamente sviluppare una tale funzione in serie di Taylor nell’intorno dell’origine z = 0 : f (z) =

∞ 

an z n = a0 + a1 z + a2 z 2 + · · · .

(3.35)

n=0

Non essendoci punti singolari al finito, tale serie ha raggio di convergenza infinito e rappresenta la f (z) in tutti i punti, almeno al finito, del piano complesso. Passiamo ora

a scrivere lo sviluppo in serie della f (z) nell’intorno di z = ∞ v. (3.34) : non essendoci singolarit` a al finito, questo sviluppo dovr` a valere per ogni punto al finito del piano, e quindi dovr` a essere dato dalla stessa (3.35). Ma poich´e la f (z) deve, per ipotesi, essere olomorfa anche in z = ∞ , allora in questo sviluppo deve mancare la parte singolare all’infinito, cio`e deve essere a1 = a2 = · · · = 0 , e quindi si conclude f (z) = a0 .

Come applicazione del teorema di Liouville, possiamo dimostrare il celebre: Teorema fondamentale dell’algebra: Ogni polinomio P (x) = an xn + an−1 xn−1 + · · · + a0 possiede almeno una radice α, eventualmente complessa: P (α) = 0 . Dimostrazione. Si consideri la funzione complessa 1/P (z) . Se il polinomio dato non avesse radici, tale funzione sarebbe olomorfa in tutti i punti al finito del piano complesso. D’altronde `e immediato verificare che essa `e olomorfa anche in z = ∞ . Ma allora sarebbe una costante.

Si chiama funzione intera una funzione f (z) che `e olomorfa in tutti i punti al finito del piano. Le funzioni intere si distinguono in trascendenti intere (se all’infinito presentano una singolarit` a essenziale) e polinomi (se all’infinito presentano un polo).

3.11 Residuo all’infinito Data una funzione f (z) olomorfa in un campo illimitato, si supponga che si possa tracciare una linea chiusa Γ tale che al suo esterno cadano solo punti di olomorfia della f , esclusa ovviamente l’eventuale singolarit` a presente in z = ∞ . Naturalmente non sempre esiste la possibilit`a di tracciare tale curva: ad esempio, questo `e impossibile nel caso della funzione 1/ sin z , che pure presenta, al finito, punti singolari tutti isolati, ma per la quale il punto z = ∞ `e un punto di accumulazione di singolarit` a (polari in questo caso). Nell’ipotesi, dunque, che si possa tracciare la linea Γ con la propriet` a detta, si definisce il residuo all’infinito della f (z) nella maniera seguente: ( 1 Rf (∞) = f (z) dz (3.36) 2π i −γ

118

Funzioni di una variabile complessa

dove −γ indica una qualsiasi curva semplice chiusa esterna a Γ , percorsa in senso orario. Si noti che l’ipotesi fatta su Γ assicura che l’esterno di Γ individua un intorno di z = ∞ nel quale il punto z = ∞ `e l’unico eventuale punto singolare di f (z) ; questo a sua volta assicura, tramite il primo teorema di Cauchy, che la definizione di residuo (3.36) `e indipendente dalla curva γ scelta (purch´e esterna a Γ ): il tutto in perfetta analogia con il caso dei punti al finito. Da notare che in tutti i casi il verso di percorrenza della curva `e scelto in maniera tale da lasciare a sinistra il punto rispetto a cui si calcola il residuo. Si pu` o trovare per Rf (∞) una relazione simile alla (3.23), partendo dallo sviluppo in serie (3.33) della funzione g(z  ) = f (1/z  ) : si ha infatti grazie alla formula (3.16) ( ( ( g(z  ) f (z) dz f (z) 1 1 1   an = dz = − =− dz 2π i γ  (z  )n+1 2π i −γ z −(n+1) z 2 2π i −γ z −n+1 dove γ  `e una curva chiusa del piano z  entro cui l’unico eventuale punto singolare `e z  = 0 (corrispondente al punto z = ∞ ), ed avendo inoltre eseguito nel primo integrale il cambiamento di variabile z = 1/z  , mediante il quale la curva γ  si `e trasformata nella curva γ del piano z percorsa in senso negativo. Quindi, ponendo nella precedente formula n = 1 , si ottiene, confrontando con la definizione, Rf (∞) = −a1 .

(3.37)

Si noti che a1 `e il coefficiente di z  = z −1 nello sviluppo (3.34) della f (z) , quindi di un termine della parte “regolare”. Ne segue che, a differenza di quanto avviene per i punti al finito, una funzione pu` o essere olomorfa all’infinito e tuttavia avere R(∞) = 0 . L’esempio pi` u semplice `e dato da f (z) = 1/z . Diamo ora il secondo teorema dei residui, detto anche Teorema esterno dei residui : Sia f (z) una funzione olomorfa in un campo illimitato A e γ una curva chiusa generalmente regolare contenuta in A, tale che al suo esterno la funzione f (z) sia olomorfa ovunque tranne che in un numero finito di punti z1 , z2 , · · · , zp ed eventualmente anche nel punto z = ∞ (nessuna ipotesi sui punti all’interno di γ; nessun punto singolare deve trovarsi su γ). Si ha allora: (  f (z) dz = −2π i Rf (zi ) − 2π i Rf (∞) (3.38) γ

i esterni

dove la somma `e estesa a tutti i punti singolari al finito esterni a γ. Dimostrazione. Sia Γ una curva chiusa tale che f (z) sia olomorfa in tutti i punti esterni a Γ , esclusa l’eventuale singolarit` a presente in z = ∞ . Dal teorema di Cauchy nella forma (a ) e dalla definizione di residuo per punti singolari al finito si ha

3.12 Punti di diramazione. Tagli

(

( f (z) dz =

Γ

f (z) dz + 2π i γ



119

Rf (zi )

i esterni

e quindi la formula voluta (3.38), grazie alla definizione di Rf (∞) .

Se in particolare f (z) `e una funzione olomorfa in tutto il piano complesso tranne che un numero finito di punti, si possono applicare entrambi i teoremi dei residui e se ne ricava cos`ı la notevole relazione  Rf (zi ) + Rf (∞) = 0 (3.39) i

dove ora la somma `e estesa a tutti i punti singolari al finito.

3.12 Punti di diramazione. Tagli Cominciamo col considerare la funzione f (z) =



z

che `e notoriamente una funzione “a due valori”. In realt` a, siamo interessati a funzioni nel senso proprio della parola, cio`e “a un sol valore”. E questo non solo per “ragioni di principio”, √ ma anche – p.es. – perch´e ci interessa studiare la corrispondenza z → w = z che associa a ciascun punto variabile in un dato sottoinsieme del piano z un punto del piano w (v. ad esempio le possibili applicazioni indicate nel § 3.14), oppure perch´e ci serve per il calcolo di qualche residuo (v. pi` u avanti). Possiamo allora, preso un qualsiasi z = 0 , convenire di scegliere una delle due determinazioni della radice. Per esempio, se z = ρ ei θ con 0 ≤ θ < 2π , possiamo scegliere √ √ f (z) = z = ρ ei θ/2 , (3.40) √ dove ρ indica√la radice aritmetica (positiva) del numero reale positivo ρ. In questo modo la z diventa a un sol valore e inoltre olomorfa in un intorno del punto z. Con questa prescrizione, tuttavia, la funzione (3.40) non `e continua ovunque: infatti se si prendono due punti z1 e z2 “vicini”, del tipo z1 = ρ ei  ,

z2 = ρ ei(2π−)

con  “piccolo” e positivo, cio`e due punti vicini al semiasse reale positivo, posti per` o uno nel semipiano complesso superiore e uno in quello inferiore, si √ √ vede subito che i punti w1 = z1 e w2 = z2 , calcolati secondo la (3.40), risultano “lontani” fra loro, trovandosi rispettivamente vicini al semiasse reale positivo e al semiasse reale negativo del piano w. La funzione (3.40) presenta dunque una discontinuit` a lungo l’asse reale positivo: infatti se x `e un punto qualsiasi di tale asse, si ha che

120

Funzioni di una variabile complessa

lim z→x , Im z→0

+

lim z→x , Im z→0



f (z) = f (z) =

lim

z→x , θ→0

lim

f (z) =

z→x , θ→2π



x,

(3.41)

√ f (z) = − x .

Bisogna notare che erano possibili altre prescrizioni invece della (3.40); ad esempio √ √ f (z) = z = ρ ei θ/2 , −π < θ ≤ π . (3.42) √ In tal caso, ad esempio, √ il valore assunto dalla funzione z nel punto z = −i `e e−i π/4 = (1 √ − i)/ 2 ; mentre, con la scelta precedente, il valore assunto √ dalla funzione z nello stesso punto z = −i era e−3 i π/4 = (−1 + i)/ 2 . Con la nuova scelta (3.42) anche la posizione della discontinuit` a cambia: come si verifica subito, la discontinuit` a si trova ora lungo il semiasse reale negativo. Naturalmente, sono ugualmente possibili infinite altre scelte, alle quali verranno a corrispondere altre posizioni della discontinuit` a. Si deve ora osservare che, qualunque prescrizione si adotti, non `e possibile eliminare la presenza di questa discontinuit` a per la funzione. La cosa pu`o esser vista da un’altro punto di vista, nel modo seguente. Si prenda un punto qualsiasi z1 = ρ1 ei θ1 = 0 e si supponga di aver fissato una √ √ delle determinazioni della radice, ad esempio z1 = ρ1 ei θ1 /2 . Si immagini ora di far muovere il punto z1 in senso antiorario lungo una circonferenza centrata nell’origine: la fase θ del punto cresce allora con continuit` a dal valore iniziale θ1 fino al valore θ1 + 2π quando il punto ha percorso un intero giro; se, in corrispondenza, si fa variare con continuit` a la fase θ/2 della radice, essa cresce da θ1 /2 fino a θ1 /2 + π e quindi, quando il punto z1 , compiuto un intero giro, `e tornato nella posizione iniziale, la radice non `e tornata al valore iniziale, ma `e diventata invece √ √ ρ1 ei (θ1 +2π)/2 = − ρ1 ei θ1 /2 , cio`e si `e ottenuta l’altra determinazione della radice. Ci`o significa che non `e possibile in alcun modo estendere con continuit` a la √ funzione z a campi che possono contenere curve chiuse abbraccianti l’origine. Si noti il ruolo particolare, giocato in questo esempio, dal punto z = 0 . Pi` u in generale, data una funzione f (z) , diremo che un punto z0 si chiama punto di diramazione o “branch point ” per la funzione f (z) , se preso comunque un intorno del punto z0 , esistono curve chiuse γ contenute in tale intorno e abbraccianti z0 che godono della seguente propriet` a: considerato un punto z1 su γ ed il corrispondente valore f (z1 ) , facendo muovere la variabile z lungo γ a partire da z1 e facendo variare con continuit` a il corrispondente valore della f (z) , tale valore non assume di nuovo il valore iniziale f (z1 ) quando il punto z `e tornato a coincidere con z1 dopo aver percorso un intero giro su γ . √ Nell’esempio della funzione f (z) = z , il punto z = 0 `e dunque un punto di diramazione. Osservando poi che la propriet` a detta `e verificata, in questo

3.12 Punti di diramazione. Tagli

121

esempio, da qualsiasi linea chiusa grande a piacere (racchiudente l’origine), se ne conclude – ricordando il significato di “intorno dell’infinito” – oppure eseguendo il cambiamento z → z  = 1/z, √ che anche il punto z = ∞ `e un punto di diramazione per la funzione z . Si chiama taglio o “cut ” una qualsiasi linea del piano complesso che congiunga i punti di diramazione. Il taglio `e la linea lungo cui si manifesta la discontinuit` a della funzione; quindi, scegliere una certa linea come taglio equivale a fissare √ una prescrizione nella definizione della funzione. Ad esempio, per la funzione z , la prima scelta (3.40) corrispondeva a fissare il taglio lungo il semiasse reale positivo, e la (3.41) forniva la corrispondente discontinuit` a al taglio ; la seconda scelta (3.42) corrispondeva a fissare il taglio lungo il se` chiaro che i punti di diramazione e i punti del taglio miasse reale negativo. E √ sono punti singolari non isolati per la funzione; nel caso di z tutti gli altri punti del piano sono punti di olomorfia. Un altro esempio importante `e dato dalla funzione logaritmo: f (z) = ln z , che – come `e noto – `e in campo complesso una funzione “a infiniti valori”: ln z = ln ρ + i θ + 2i k π ,

k = 0, ±1, ±2, · · ·

Anche qui, per poter considerare il logaritmo come funzione “a un sol valore”, dobbiamo introdurre un taglio nel piano complesso: poich`e i punti di diramazione sono ancora z = 0 e z = ∞ , si pu` o scegliere ad esempio il semiasse reale positivo e si ottiene in questo modo la cosiddetta determinazione principale del logaritmo, cio`e ln z = ln ρ + i θ ,

0 ≤ θ < 2π .

(3.43)

La discontinuit` a al taglio `e data in questo caso da 2π i in tutti i punti del taglio stesso. Naturalmente, in altri casi, i punti di diramazione possono essere pi` u di due e anche trovarsi tutti al finito. Cos`ı, applicando direttamente la definizione di punto di diramazione, oppure studiando le discontinuit` a che si manifesta no, si vede per esempio che per la funzione f1 (z) = 3 z (z  − 1) i punti z (z − 1) e di diramazione sono in z = 0, 1, ∞ ; mentre per f2 (z) = per f3 (z) = ln z − ln(z − 1) sono in z = 0, 1 ; o ancora che la funzione

√ f4 (z) = cos z non ha alcun taglio v. infatti le (3.41) . Un altro artificio per studiare le funzioni “a pi` u valori” `e quello di introdurre i fogli di Riemann o “Riemann sheets ”. Considerata una funzione f (z) e introdotto in corrispondenza un certo taglio nel piano complesso, si immagina di introdurre un secondo piano complesso (secondo foglio di Riemann) identico al primo, “saldando” uno dei “margini” del taglio del primo piano complesso all’altro margine del taglio del secondo foglio, e di prolungare con continuit` a la funzione f (z) mentre la variabile z passa dal primo al secondo foglio. Dopo che z ha compiuto un intero giro intorno al punto di diramazione nel secondo foglio, se la funzione assume di nuovo lo stesso valore che aveva

122

Funzioni di una variabile complessa

sull’altro margine del taglio del primo foglio, si “salda” a questo il secondo foglio. Se invece il valore `e ancora diverso, si prolunga la variabile su di un √ terzo foglio, e cos`ı via. La funzione z ha, ad esempio, due soli fogli; invece ln z ne ha infiniti. Studieremo ora, su un esempio, un’applicazione di quanto visto. Si debba calcolare l’integrale  ∞ √ x dx . (3.44) 1 + x2 0 Si consideri innanzitutto la corrispondente funzione di z variabile complessa √ z f (z) = 1 + z2 fissando il taglio per questa funzione lungo l’asse reale positivo. Nel piano z

z +i

Γ

I+

γ

I−

−i

Figura 3.5. Percorso di integrazione per l’integrale (3.44).

si consideri ora il percorso indicato in fig. 3.5; siano R ed r i raggi di Γ e γ rispettivamente. Osservando che le uniche singolarit` a isolate della f (z) sono in z = ±i, si ha dal teorema dei residui, se R > 1 , che (    

f (z) dz = f (z) dz+ · · ·+ · · ·+ f (z) dz = 2π i Rf (i)+Rf (−i) . Γ

I−

−γ

I+

√ Ma, ad esempio, Rf (i) = ei π/4 /2i grazie alla scelta (3.40) √ fatta per √z ; quindi il secondo membro della precedente relazione vale 2π i · 2/2i = π 2 . Si prendono ora i limiti R → ∞ e r → 0 in maniera tale che I+ e I− tendono a coincidere rispettivamente con il margine superiore e quello inferiore del taglio; si ha per R → ∞ :  

  f (z) dz  ≤ max |f (z)| · 2π R → 0  Γ

z∈Γ

3.13 Il lemma di Jordan

123

poich´e |f (z)| `e infinitesimo di ordine superiore al primo rispetto a 1/R

confronti con la (3.28) . Analogamente, per r → 0  

   f (z) dz  ≤ max |f (z)| · 2π r → 0



si

z∈γ

γ

e, tenendo conto dei due diversi limiti (3.41) e dei sensi di percorrenza, si ha    ∞ √  0 √  ∞ √ x − x x f (z) dz+ f (z) dz → dx+ dx = 2 dx . 2 2 1 + x 1 + x 1 + x2 I+ I− 0 ∞ 0 Combinando tutti i risultati si ha infine  ∞ √ x π dx = √ · 2 1 + x 2 0 Dal calcolo appena concluso si vede che il procedimento conduce ad eseguire l’integrazione sui due margini del taglio (fig. 3.5), che a sua volta porta ad integrare la discontinuit` a al taglio della funzione f (z), ovvero (con simboli evidenti)    ∞

+ = f+ (x) − f− (x) dx . I+

0

I−

3.13 Il lemma di Jordan Si consideri un integrale del tipo  +∞

f (x) ei ν x dx

(3.45)

−∞

dove ν `e un qualsiasi numero reale. Si supponga, come gi` a fatto nel § 3.9, che si possa estendere la funzione f (x) al piano complesso in modo da ottenere una funzione f (z) olomorfa in tutto il piano complesso con esclusione di un numero finito di punti. Si immagini ora di procedere al calcolo dell’integrale con il metodo seguito nel § 3.9: il termine ei ν x diventa, per valori complessi ei ν z = ei ν x e−ν y e ci si pu`o attendere che, quando si valuta il contributo all’integrale lungo la semicirconferenza Γ , la presenza del fattore e−ν y possa servire (nel caso che sia ν y > 0 ) a “migliorare” la situazione, nel senso che esso possa contribuire a far tendere pi` u rapidamente a zero l’integrando e quindi assicurare che · · · → 0 per R → ∞ . Ci attendiamo anzi che, se ν > 0 e si sceglie la semiΓ circonferenza Γ nel semipiano complesso superiore, si possa anche indebolire la condizione (3.28) sulla funzione f (z) ; mentre se ν < 0 si debba “richiudere” il percorso di integrazione scegliendo Γ nel semipiano inferiore. Tutto

124

Funzioni di una variabile complessa

questo dovrebbe naturalmente essere pi` u rigorosamente provato; ci limitiamo qui ad enunciare il risultato finale che `e noto come Lemma di Jordan : Si consideri l’integrale (3.45) e si supponga che f (z) sia olomorfa in tutto il piano complesso tranne che un numero finito di punti. Sia ν > 0 (risp. ν < 0); allora, se Γ `e una semicirconferenza centrata nell’origine e raggio R posta nel semipiano complesso superiore (Im z > 0 ) (risp. nel semipiano complesso inferiore (Im z < 0 ) e se `e soddisfatta la

condizione pi` u debole della (3.28)

lim max |f (z)| = 0 . (3.46) R→∞

segue che

z∈Γ

 f (z) ei ν z dz = 0 .

lim

R→∞

Γ

Applicando questo risultato si ottiene quindi, se ν > 0  +∞  f (x) ei ν x dx = 2π i RF (zi ) , −∞

ν>0

(3.47)

Imzi >0

dove con F si `e indicata la funzione F (z) = f (z) ei ν z e la somma `e estesa a tutti i punti singolari zi contenuti nel semipiano superiore. Se invece ν < 0 , si ha  +∞  f (x) ei ν x dx = −2π i RF (zi ) , ν 0 . Allora, per R → ∞ , si ha Γ · · · → 0 ; la somma dei residui all’ultimo membro si riduce al solo residuo in z = +i ; infine resta da calcolare il contributo dell’integrale su γ quando r → 0 . A tal fine dimostriamo il seguente risultato generale: Teorema: Sia f (z) una funzione olomorfa in tutti i punti di un campo A escluso un punto z0 ∈ A in cui presenta un polo del primo ordine. Sia γ un arco di circonferenza di centro z0 , raggio r e ampiezza α: si ha  α lim f (z) dz = (3.49) Rf (z0 ) 2π i r→0 γ 2π la curva essendo percorsa in senso antiorario. Dimostrazione. L’ipotesi su f (z) permette di scrivere    α g(z) g(z0 + r ei θ ) f (z) dz = dz = i r ei θ dθ = r ei θ 0 γ γ z − z0

126

Funzioni di una variabile complessa



α

r→0

g(z0 + r ei θ ) i dθ = −→ g(z0 ) i α = i α Rf (z0 )

= 0

dove g(z) `e una funzione olomorfa in z0 e si `e posto z − z0 = r ei θ .



Tornando al nostro esempio, si ha (avendo gi` a eseguito il limite per R → ∞ )  +∞  −r  

1 F (x) dx + F (x) dx = 2π i RF (i)+ 12 RF (0) = π i 1− lim . (3.50) r→0 e −∞ r Prima di concludere, occorre ricordare – a proposito del primo membro di questa relazione – che la funzione F (x) non `e integrabile a causa del suo comportamento in x = 0 . A tale proposito, in analogia con quanto gi` a fatto (v. § 3.9) in relazione all’integrale fra gli estremi ±∞ , si introduce la definizione di integrale in senso principale di Cauchy o parte principale di Cauchy (relativamente al punto di discontinuit` a x0 ):  P



b

 f (x) dx .

b

f (x) dx +

→0+

a



x0 −

f (x) dx = lim

(3.51)

x0 +

a

Anche qui, naturalmente, se una funzione f (x) `e integrabile nel senso usuale (cio`e calcolando i limiti  →0

lim +

,  →0+



x0 −



b

f (x) dx +

f (x) dx

(3.52)

x0 +

a

facendo tendere  e  indipendentemente a zero), allora il suo integrale nel senso principale di Cauchy coincide con il suo integrale usuale, mentre, ad esempio, la funzione f (x) = 1/x non `e integrabile in [−1, 1] e tuttavia  P

1

−1

1 dx = 0 . x

Finalmente, tornando all’ultima relazione trovata (3.50), si ha  P

+∞

−∞

 ei x 1 dx = π i 1 − 2 x (x + 1) e

e quindi, prendendone parte reale e parte immaginaria, si ottiene  +∞  +∞  cos x sin x 1 P dx = 0 , dx = π 1 − 2 2 e −∞ x (x + 1) −∞ x (x + 1) e va notato che nel secondo integrale (ma non nel primo!) si `e potuto togliere il simbolo P, poich´e l’integrando non presenta pi` u la discontinuit` a in x = 0 .

3.14 Funzioni armoniche e trasformazioni conformi

127

3.14 Funzioni armoniche e trasformazioni conformi Nei prossimi capitoli vedremo varie applicazioni della teoria qui svolta; oltre a queste, tuttavia, si deve mettere in evidenza un’altra notevole applicazione fisica delle funzioni di variabile complessa. Innanzitutto si ha che, se f (z) = u + i v `e una funzione olomorfa, allora le due funzioni u = u(x, y) e v = v(x, y) sono funzioni armoniche (piane),

cio`e soddisfano entrambe all’equazione v. (2.23) Δu =

 ∂2 ∂2  u = 0, + ∂x2 ∂y 2

Δv =

 ∂2 ∂2  v = 0. + ∂x2 ∂y 2

(3.53)

Questo risultato si ottiene immediatamente derivando le condizioni di olomorfia nella forma (3.4) (come si `e visto, l’olomorfia di f (z) assicura la possibilit` a di eseguire derivazioni successive). Viceversa, assegnata una funzione armonica u = u(x, y) , si pu` o sempre trovare un’altra funzione v = v(x, y) , anch’essa armonica, tale che la funzione f = u + i v sia una funzione olomorfa: a tale scopo basta imporre alla funzione v di soddisfare alle condizioni (3.4), che la determinano univocamente, a meno di una costante additiva 6 . Le due funzioni u(x, y) e v(x, y) si chiamano armoniche coniugate. In questo senso, quindi, possiamo dire che la ricerca di una funzione armonica piana e di una funzione olomorfa sono problemi equivalenti. Ne segue, in particolare, che ogni funzione armonica `e derivabile quante volte si vuole. Fra le molte grandezze fisiche che sono espresse da funzioni armoniche, possiamo pensare, come gi`a fatto nel § 2.23, che la funzione u(x, y) descriva il potenziale elettrostatico in assenza di cariche. Ovviamente, dobbiamo riferirci a problemi sul piano, in cui il potenziale `e funzione di due sole coordinate x, y, o – comunque – a problemi riconducibili a problemi piani in cui il potenziale `e indipendente dalla terza coordinata nello spazio. In questa situazione, possiamo identificare il potenziale V (x, y) con la parte reale di una funzione olomorfa f (z), che viene detta potenziale complesso. Possiamo ora vedere qualche applicazione dei risultati ottenuti. Consideriamo per cominciare la formula integrale di Cauchy (3.11), applicandola al caso che la parte reale della funzione f (z) sia appunto un potenziale elettrostatico piano V (x, y) : se ad esempio la curva Γ nella (3.11) `e una circonferenza di centro ζ = (x0 , y0 ) e raggio r, e supponiamo che la funzione V sia armonica entro Γ (cio`e che non ci siano cariche entro Γ ), si ha, prendendo la parte reale della (3.11) ( 1 f (ζ + r ei θ ) V (x0 , y0 ) = Re f (ζ) = Re i r ei θ dθ = 2π i Γ rei θ 6

La determinazione esplicita della funzione v equivale per definizione alla ricerca della primitiva della forma differenziale vx dx + vy dy , che, grazie alle condizioni (3.4), `e un differenziale esatto in ogni dominio semplicemente connesso.

128

Funzioni di una variabile complessa

=

1 2π





V (x0 + r cos θ, y0 + r sin θ) dθ = 0

1 2π





V (θ) dθ

(3.54)

0

e si ritrova un risultato ben noto (gi` a ottenuto anche nel § 2.23). Da qui segue pure che le funzioni armoniche non possono avere punti di massimo o di minimo all’interno delle regioni di “armonicit` a”. Per trovare il potenziale negli altri punti all’interno del cerchio (problema di Dirichlet), la formula integrale di Cauchy non `e pi` u applicabile direttamente, ma si pu` o ricorrere alla formula di Poisson (2.85-85 ). Da notare infine che – poich´e V (x, y) `e la parte reale di una funzione olomorfa – si potr` a scrivere V (x, y) = Re

∞  m=0

am z m = α0 +

∞ 

∗ −imφ rm (αm eimφ + αm e )

m=1

essendo z = reiφ , con α0 = Re a0 , αm = am /2, e si ritrova esattamente la (2.82). Prima di illustrare un’altra importante applicazione di queste idee, `e conveniente premettere il seguente risultato: Teorema: Se f (z)=u+i v `e una funzione olomorfa, le linee su cui u = costante sono ortogonali alle linee v = costante (salvo nei punti in cui f  (z) = 0). Dimostrazione. Il vettore ∇ u ≡ (ux , uy ) `e ortogonale alle linee in cui u `e costante, infatti d u = ux dx + uy dy = ∇ u · d s , ma d u = 0 quando d s `e tangente alle linee u = costante. Per provare ora l’ortogonalit` a delle linee u = costante, v = costante basta evidentemente provare l’ortogonalit` a dei vettori ∇ u e ∇ v ; ma per questi si ha ∇ u · ∇ v = ux vx + uy vy = 0

(3.55)

grazie alle condizioni di olomorfia (3.4).

Questo risultato ci permette di concludere che se le linee u = costante rappresentano le linee equipotenziali, allora le linee v = costante rappresentano le linee di forza del campo elettrico. Mostriamo ora l’utilit` a di questa impostazione cominciando con un esempio ovvio. Come `e noto il potenziale prodotto da un piano indefinito uniformemente carico (a potenziale zero), se x = 0 `e l’equazione del piano, `e dato ` chiaro che in questo caso il da V (x) = c x (dove c `e una costante reale). E potenziale complesso `e semplicemente f = c z . Le superfici equipotenziali, che diventano linee nel piano x, y (e che sono rappresentate da linee continue nella fig. 3.7, a sinistra) sono i piani paralleli al piano carico, le linee di forza (linee tratteggiate nella stessa fig. 3.7) sono perpendicolari a tali piani. Supponiamo ora invece di voler trovare il potenziale che si produce nel “quadrante” di spazio racchiuso fra due semipiani uniformemente carichi (a potenziale zero) disposti ad angolo retto. Assumendo gli assi come in fig. 3.7,

3.14 Funzioni armoniche e trasformazioni conformi

129

y

u=cost v=cost

u=cost v=cost x

x

Figura 3.7. Linee equipotenziali (linee continue) e linee di forza (linee tratteggiate) per il piano uniformemente carico a potenziale zero (a sinistra) e per il quadrante (a destra).

si tratta di trovare una funzione olomorfa di z = x + i y la cui parte reale si annulla lungo le semirette θ = ±π/4 (cio`e x = |y| ). Poniamo z  = z 2 ; con questa trasformazione tali semirette vengono portate sull’asse immaginario del piano z  = x + i y  , e il quadrante compreso fra le semirette iniziali viene a corrispondere (in modo biunivoco) al semipiano a destra dell’asse immaginario del piano z  . Il problema che dovevamo risolvere si trasforma quindi, nel piano z  , nel problema semplice che `e stato risolto poco fa. Allora la funzione olomorfa f (z  ) che risolve il problema nel piano z  sar` a f*(z  ) = c z  ; ne segue, tenendo conto della trasformazione z → z  , che la funzione  eseguita

2 che cerchiamo, in termini di z, sar` a f z (z) = c z (si osservi che la composizione di due funzioni olomorfe `e olomorfa). Il potenziale cercato `e allora V (x, y) = Re f (z) = Re c z 2 = c(x2 − y 2 ) mentre le linee di forza del campo elettrico sono date dalle equazioni Im f (z) = c · 2x y = costante . Le linee di forza e le superfici equipotenziali sono quindi date nel piano x, y dalle famiglie di iperboli disposte come in fig. 3.7, a destra. Come questo esempio lascia chiaramente vedere, il procedimento si presta ad ampie generalizzazioni: si tratta di eseguire una opportuna trasformazione Φ : z → z

(3.56)

che sia olomorfa, in modo da conservare le propriet` a di armonicit` a, e che realizzi una corrispondenza biunivoca tra la parte in esame del piano z ed una

130

Funzioni di una variabile complessa

parte del piano “trasformato” z  , in modo da ridurre il problema iniziale ad una forma diversa, possibilmente pi` u semplice o gi`a nota. Detta z  = Φ(z) tale  trasformazione, se f*(z ) `e il potenziale complesso che risolve il problema nel piano z  , allora

f (z) ≡ f* Φ(z) `e il potenziale complesso che risolve il problema iniziale. Le trasformazioni di questo tipo prendono il nome di trasformazioni conformi dirette. Il nome deriva dal fatto che – come si potrebbe dimostrare – una trasformazione z  = Φ(z) olomorfa conserva gli angoli, in valore e segno; cio`e se due linee nel piano z si intersecano formando un certo angolo, esse vengono mutate dalla trasformazione z → z  in altre due linee del piano z  formanti lo stesso angolo (con l’eccezione dei punti in cui dΦ/dz = 0 ). Un altro esempio: si supponga di dover determinare il potenziale elettrostatico presente nella parte di spazio racchiusa da due semipiani formanti un angolo α e posti rispettivamente a potenziali V1 e V2 diversi fra loro. Per risolvere questo problema si osservi che la funzione f (z) che esprime il potenziale complesso dovr`a avere la parte reale costante sulle linee θ = 0 e θ = α (avendo assunto opportunamente l’origine degli angoli): una funzione con tale propriet` a `e i ln z . Ci` o suggerisce di scegliere f (z) = A i ln z + B e di determinare poi le costanti A e B in modo da soddisfare le condizioni al contorno assegnate V (0) = V1 e V (α) = V2 ; quella che si trova V = Re f (z) = V1 + (V2 − V1 ) θ/α `e proprio la soluzione cercata. Un altro modo (equivalente) per ottenere questo risultato `e di osservare che la trasformazione conforme z  = i ln z muta la regione in esame in una striscia compresa fra due rette parallele del piano z  , dove la soluzione del problema `e immediata (`e un condensatore piano!). E ancora, ricordando che il problema di Dirichlet (e quello di Neumann) `e stato completamente risolto nel caso del cerchio (§ 2.23), `e chiaro che lo stesso problema pu` o essere risolto anche per qualunque altra regione del piano che possa essere trasformata nel cerchio da una trasformazione conforme (3.56). Si dovr` a naturalmente trasformare anche la condizione al bordo F (x, y) che `e assegnata nelle variabili x, y nella condizione al bordo espressa nella nuova variabile φ lungo la circonferenza (per esempio di raggio r = 1): a tale scopo occorrer`a invertire la (3.56): z = Ψ (z  ) (3.56 ) e sostituire nella F (x, y) le x, y valutate lungo il bordo rispettivamente con la parte reale e immaginaria di Ψ (z  )|r =1 . Per esempio, la trasformazione z  = Φ(z) =

i−z i+z

da cui z = i

1 − z 1 + z

(3.57)

trasforma il semipiano y ≥ 0 nel cerchio |z  | ≤ 1 , come si verifica facilmente (per esempio |z  | = 1 corrisponde a |z − i| = |z + i| e dunque a z = x ∈ R );

3.14 Funzioni armoniche e trasformazioni conformi

131

la condizione al bordo del semipiano, cio`e lungo l’asse x, u(x, 0) = F (x) si trasforma sulla circonferenza r = 1 in una condizione F*(φ ) , attraverso la  relazione x = tan(φ /2) che viene ponendo r = 1 , ovvero z  = ei φ , nella   seconda delle (3.57). Una volta trovata la soluzione u *(r , φ ) nel cerchio, baster`a tornare alle variabili iniziali x, y utilizzando la prima delle (3.57). Oppure, si pu` o cercare la funzione olomorfa f*(z  ) di cui u *(r , φ ) `e la parte * reale, e – come gi`a detto – la Re f (z) ≡ Re f (Φ(z)) fornisce l’espressione del potenziale richiesto nel piano x, y . Resta da osservare che il problema di Dirichlet ammette soluzione unica se la regione in cui si cerca la soluzione `e limitata; in caso contrario (come nel caso del semipiano), occorre aggiungere per esempio una condizione di regolarit` a all’infinito (le ben note “condizioni normali” all’infinito 7 ). Tramite la trasformazione conforme descritta sopra, la soluzione che si ottiene per il semipiano soddisfa tali condizioni, sotto la (ovvia) ipotesi che F*(φ ) ∈ L2 (0, 2π) , in modo da poter applicare il procedimento visto nel § 2.23.

7

Si pu` o notare che le soluzioni trovate pi` u sopra restano invece individuate dalla prescrizione della distribuzione uniforme di cariche sui piani.

4 Trasformate di Fourier e Laplace

4.1 Ancora sulle serie di Fourier come “analisi in frequenza”. Il fenomeno della risonanza L’interpretazione fisica della serie trigonometrica di Fourier come “analisi in frequenza” `e gi`a stata discussa (§ 2.4, v. anche §§ 2.14, 2.27); ricordiamo ora brevemente questo concetto su un esempio semplice. Si consideri un sistema oscillante, ad esempio una massa m fissata ad una molla di costante elastica k, soggetta ad una forza esterna f (t) : l’equazione del moto `e mx ¨ + k x = f (t) (4.1) dove x `e lo spostamento dalla posizione di equilibrio. Supponiamo che la forza esterna sia periodica con periodo 2T . Anzitutto consideriamo il caso particolare che la forza esterna sia oscillante in modo puramente armonico (cio`e con legge puramente sinusoidale o cosinusoidale), per esempio sia f (t) = F0 sin(n ω t) l’equazione dove F0 `e una costante, n un numero intero e ω = π/T . Integrando  (4.1) si ottiene la soluzione generale ben nota (se Ω = k/m = n ω) 1 x(t) = A sin(Ω t + φ) +

F0 /m sin(n ω t) Ω 2 − (n ω)2

(4.2)

la quale mostra come alla soluzione “libera” (cio`e con f = 0 ), venga a sommarsi un movimento “forzato” sinusoidale di frequenza uguale alla frequenza della forza esterna e di ampiezza Cn = 1

F0 /m · Ω 2 − (n ω)2

(4.3)

Da notare che, nel caso sia n ω = Ω , cio`e in presenza di una risonanza, la soluzione particolare che si ottiene, −(F0 /2Ω m) t cos(Ω t) , non `e periodica.

134

Trasformate di Fourier e Laplace

Se ora consideriamo il caso in cui la forza esterna sia una funzione f (t) periodica generica di periodo 2T , possiamo sviluppare in serie di Fourier la data f (t) (in serie di seni e coseni): allora a ciascun termine di questo sviluppo il sistema risponde con un’oscillazione armonica di ampiezza variabile con la frequenza stessa secondo la (4.3). La “risposta forzata” del sistema si otterr`a dunque “sommando” tutte queste diverse risposte. Se poi si tiene conto di un effetto di smorzamento “viscoso”, la (4.1) va sostituita con mx ¨ + β x˙ + k x = f (t) . (4.4) Naturalmente, tutte le osservazioni precedenti restano inalterate, a parte qualche complicazione nelle formule. P. es., se f (t) = F0 sin(n ω, t), la soluzione forzata `e del tipo Cn sin(n ω t) + Dn cos(n ω t); in questo caso, pu` o essere pi` u conveniente usare il set completo {e−i n ω t }, n = 0, ±1, ±2, . . .; v. anche il prossimo paragrafo.

4.2 Dalla serie di Fourier all’integrale di Fourier Riprendendo in considerazione la situazione vista nel paragrafo precedente, possiamo osservare che se il periodo della forza esterna f (t) `e 2T , le frequenze che contribuiscono nello sviluppo di Fourier della f (t) sono date da ωn = n π/T e quindi nell’analisi in frequenza della f (t) compaiono solo frequenze “discrete”, con ωn+1 − ωn = π/T . Si vede allora che quando si fa crescere T , vengono a contribuire nello sviluppo frequenze sempre pi` u vicine fra loro e ci possiamo attendere intuitivamente che quando T = ∞ , cio`e quando la f (t) non `e pi` u periodica, si debba ricorrere ad una distribuzione “continua” di frequenze. Pertanto ci attendiamo che le somme eseguite sulle frequenze discrete ωn che compaiono nelle serie di Fourier, debbano ora essere sostituite da integrali fatti al variare con continuit` a delle frequenze ω, cio`e – qualitativamente – da integrali del tipo  f (t) ∼ a(ω) sin(ω t) dω . (4.5) Cos`ı come nella serie di Fourier i coefficienti an esprimono l’ampiezza del “contributo” di ogni componente armonica pura di frequenza ωn , ora la funzione a(ω) rappresenter` a nella (4.5) il contributo della frequenza ω (o pi` u esattamente delle frequenze comprese fra ω e ω + dω ). In realt` a, per varie ragioni che saranno via via pi` u chiare, `e pi` u conveniente in questo contesto partire dalle serie di Fourier in forma complessa, cio`e dagli sviluppi in serie di Fourier delle funzioni f (t) ∈ L2 (−T, T ) rispetto al sistema ortonormale completo (2.39) 1 uk = √ e−i ωk t ; 2T

ωk = k

π , T

k = 0, ±1, ±2, · · ·

4.2 Dalla serie di Fourier all’integrale di Fourier

135

cio`e dalle serie +∞ 

f=

k=−∞

+∞  1 ck √ ck e−i ωk t e−i ωk t = 2T k=−∞

(4.6)

dove i coefficienti di Fourier sono quindi dati da  T 1 ck = (uk , f ) = √ f (t) ei ωk t dt . 2T −T

(4.7)

Con questa scelta, tutte le osservazioni precedenti circa l’analisi in frequenza restano valide, con l’avvertenza che ora le “componenti armoniche pure” sono date da e−i ωk t (anzich´e da seni e coseni) e i coefficienti ck rappresentano l’ampiezza del loro contributo nella serie; in questo modo, per` o, vanno prese in considerazione anche “frequenze” ωk negative. Quando poi si considerano funzioni f (t) non periodiche, allora ci si dovr` a attendere che i coefficienti ck vengano sostituiti da una funzione g(ω) della variabile continua ω, e la serie (4.6) da un integrale del tipo  f (t) ∼ g(ω) e−i ω t dω . (4.8) Tornando ancora al problema esaminato nel paragrafo precedente nella forma espressa dalla (4.4) 2 , nel caso che la forza esterna f (t) sia non periodica, potremo ancora pensare di eseguirne una “analisi in frequenza”, cio`e trovare la funzione g(ω) che d` a l’ampiezza con cui compare nella f (t) la “componente armonica pura” e−i ω t . In corrispondenza di ciascuna di queste componenti g(ω) e−i ω t , si pu` o trovare come risponde il sistema: a tal fine cerchiamo una soluzione forzata del tipo x(t) = x0 e−i ω t (cio`e ancora armonica con la medesima frequenza); sostituendo nella (4.4) si trova (−m ω 2 − i β ω + k)x0 = g(ω)

(4.9)

da cui x0 = x0 (ω) =

Ω2

1/m g(ω) , − ω2 − i γ ω

Ω2 =

k , m

γ=

β . m

(4.10)

Infine, per ottenere la risposta x = x(t) del sistema alla forza esterna assegnata f (t) , si dovranno “ricombinare” fra loro tutte queste risposte x0 (ω), ovvero si dovr` a integrare su tutta la distribuzione delle frequenze ω contenute nella f (t) . Il procedimento di ricavare da una assegnata funzione f (t) la corrispondente funzione g(ω) che ne descrive la distribuzione in frequenze, corrisponde ad eseguire la trasformata di Fourier della funzione f (t) ; il procedimento inverso di risalire alla funzione f (t) una volta nota la sua analisi in frequenza g(ω) corrisponde alla antitrasformata di Fourier . Lo scopo dei prossimi paragrafi sar` a quello di definire e analizzare questi procedimenti. 2

Il caso β = 0 `e un po’ pi` u complicato, e potr` a essere studiato molto pi` u avanti: v. § 5.6.

136

Trasformate di Fourier e Laplace

4.3 L’analisi in frequenza e il “principio di indeterminazione” Sulla base di quanto detto nei paragrafi precedenti e in particolare secondo quanto suggerisce la (4.7), possiamo assumere, per definizione, come trasformata di Fourier g(ω) di una funzione f (t) , il seguente integrale  +∞ f (t) ei ω t dt . (4.11) g(ω) = −∞

Per controllare che la funzione g(ω) cos`ı definita possegga effettivamente il significato fisico voluto, come illustrato nel paragrafo precedente, `e utile applicare questo procedimento al caso che f (t) descriva un’onda elettromagnetica. In tal caso le componenti armoniche e−i ω t saranno le componenti “monocromatiche” di frequenza ω del segnale, e ci dobbiamo attendere che la “analisi in frequenza” g(ω) descriva la “distribuzione spettrale” del segnale, cio`e – sostanzialmente – dia “quello che si vede analizzando il segnale allo spettroscopio” (pi` u precisamente: allo spettroscopio si vedr` a qualcosa di proporzionale a |g(ω)|2 ). Se, dunque, questa interpretazione fisica della trasformata di Fourier `e correttamente contenuta nella definizione (4.11), lo possiamo facilmente verificare applicando tale definizione ad un esempio particolare ed intuitivamente chiaro. Sia allora f (t) un segnale “quasi monocromatico”, cio`e −i ω t 0 e per |t| ≤ T f (t) = (4.12) 0 per |t| > T . Evidentemente il segnale sar`a tanto pi` u monocromatico quanto pi` u grande `e T per` o non si pu` o prendere T = ∞ poich´e in tal caso non si potrebbe

eseguire l’integrale (4.11) – vedi per` o pi` u avanti la (4.55 ) . La trasformata di Fourier definita dalla (4.11) di questo segnale `e g(ω) = 2

sin[(ω − ω0 )T ] ω − ω0

(4.13)

e ne concludiamo che – in completo accordo con tutti i precedenti argomenti – questa funzione descrive giustamente la distribuzione spettrale che ci dovevamo attendere per il segnale (4.12); infatti essa indica (v. fig. 4.1) un prevalente contributo delle frequenze vicine ad ω0 (tanto pi` u quanto pi` u T `e grande), insieme alla presenza di altre frequenze che hanno lo scopo di “cancellare” per interferenza il segnale al di fuori dell’intervallo [−T, T ] . Questo risultato ci conferma dunque – almeno qualitativamente – che la definizione (4.11) di trasformata di Fourier possiede le propriet` a di interpretazione fisica desiderate. Possiamo quindi assumere tale definizione (4.11) come punto di partenza. La funzione |g(ω)|2 prende il nome di densit` a spettrale del segnale f (t) . L’esempio del segnale elettromagnetico (4.12) ora considerato contiene un altro notevolissimo risultato: si vede infatti che se si prende T pi` u grande,

4.3 L’analisi in frequenza e il “principio di indeterminazione”

137

|g(ω)|

ω0

|

ω0+π/T

ω

Figura 4.1. Analisi di Fourier dell’onda “quasi monocromatica” (4.12).

cio`e se si allunga l’intervallo entro cui il segnale si mantiene monocromatico, si riduce corrispondentemente l’intervallo centrale ω0 ± π/T delle frequenze che costituiscono il segnale e quindi la riga spettrale centrata alla frequenza ω0 diventa pi` u sottile (oltre che pi` u intensa). Questo fatto non `e casuale, ma si tratta di un risultato ben pi` u generale che – da un punto di vista matematico – dipende solo dalla definizione (4.11). Tale risultato si pu` o enunciare in maniera generale e precisa come segue. Sia data una funzione f (t) , abbastanza “regolare” affinch´e esistano finiti tutti gli integrali che calcoleremo fra poco 3 , e sia g(ω) la sua trasformata di Fourier. Per fissare le idee supporremo che la f (t) rappresenti un treno d’onde elettromagnetiche. Indichiamo con t il cosiddetto baricentro temporale del pacchetto d’onde, definito nel modo seguente  +∞ 1 t= t |f (t)|2 dt (4.14) M −∞ dove



+∞

M= −∞

|f (t)|2 dt

e, come vedremo pi` u avanti, si ha anche  +∞ dω |g(ω)|2 . M= 2π −∞

(4.15)

(4.15 )

Si definisce poi larghezza temporale Δt del pacchetto d’onde la quantit` a  +∞ 1 Δt2 = (t − t )2 = (t − t)2 |f (t)|2 dt . (4.16) M −∞ 3

Per esempio, il segnale (4.12) studiato sopra non soddisfa a questa condizione, poich´e darebbe nella (4.18) Δω = ∞ (il che non `e in contrasto con il risultato generale (4.19)!). In realt` a l’esempio (4.12) `e un po’ troppo semplicistico.

138

Trasformate di Fourier e Laplace

Analogamente vengono definiti il baricentro spettrale (o frequenza media) ω e la larghezza spettrale Δω del segnale nel modo seguente  +∞ dω 1 ω= ω |g(ω)|2 (4.17) M −∞ 2π Δω 2 = (ω − ω )2 =

1 M



+∞

−∞

(ω − ω)2 |g(ω)|2

dω · 2π

(4.18)

Intuitivamente si pu` o pensare che Δt sia all’incirca uguale al periodo di tempo in cui la f (t) `e apprezzabilmente diversa da zero e Δω all’intervallo entro cui cadono le frequenze prevalenti nella corrispondente distribuzione spettrale g(ω) . Come verr`a dimostrato pi` u avanti (§ 4.8), risulta che `e sempre soddisfatta la relazione 1 Δt Δω ≥ · (4.19) 2 Si pu` o anche provare che il segno di uguaglianza nella (4.19) si verifica soltanto quando il pacchetto d’onde `e di tipo “gaussiano”, cio`e 2

f (t) = e−α(t−t0 ) e−i ω0 t

(4.19 )

per il quale si ottiene (v. la parte finale di questo paragrafo per il calcolo della trasformata di Fourier) t = t0 ,

ω = ω0 ,

Δt2 =

1 , 4α

Δω 2 = α ·

Il “principio di indeterminazione” (4.19) costituisce un risultato di importanza fondamentale. Esso implica, per esempio, che dovendo necessariamente qualsiasi treno d’onde avere lunghezza temporale finita, non `e possibile ottenere righe spettrali infinitamente sottili anche se il treno d’onde `e quanto pi` u possibile monocromatico. Viceversa, un treno d’onde assai breve avr` a righe spettrali piuttosto allargate. Se ad esempio ci riferiamo al caso tipico della riga rossa del Cd, osservando che per tale riga si ha Δω/ω  10−6 in corrispondenza a una lunghezza d’onda di riga λ  7000 ˚ A, ne ricaviamo subito, usando la (4.19), che tale riga viene prodotta da treni d’onde la cui lunghezza spaziale Δx = c Δt `e dell’ordine della decina di centimetri. Non `e qui il luogo di soffermarsi su altre implicazioni fisiche della (4.19). Notiamo solo che essa `e valida ogni volta che si `e in presenza di un fenomeno ` chiara allora la sua estensione alla da interpretare in termini ondulatori. E meccanica quantistica: il passaggio `e ottenuto tramite il principio di de Broglie, il quale “associa” ad ogni particella con impulso p un’onda di lunghezza d’onda λ = h/p, cio`e un’onda ei k x

con

k=

2π p = · λ ¯h

4.3 L’analisi in frequenza e il “principio di indeterminazione”

139

In questo modo, la trasformata di Fourier di una generica “funzione d’onda” ψ(x) sar` a data da  +∞  +∞ ψ(x) ei k x dx = ψ(x) ei p x/¯h dx = φ(p) (4.20) −∞

−∞

e la funzione φ(p) – o meglio la |φ(p)|2 – descriver`a la “distribuzione in impulsi” (anzich`e l’analisi in frequenza) della ψ(x) . Inoltre, la (4.19) diventa ora ΔxΔk ≥ 1/2 , e quindi, grazie alla formula di de Broglie, si ottiene il ben noto “principio di indeterminazione” di Heisenberg ΔxΔp ≥ ¯h/2 . Infine, si pu` o introdurre la trasformata di Fourier anche per funzioni di pi` u variabili reali f (x1 , . . . , xn ):  f (x1 , x2 , · · · , xn ) ei (x,k) dn x (4.20 ) g(k1 , k2 , . . . , kn ) = Rn

dove k1 , k2 , . . . , kn sono n variabili reali e (x, k) = x1 k1 +x2 k2 + · · · +xn kn . Se la f dipende da una (o pi` u) variabili spaziali x e dal tempo t, si pu` o definire la trasformata nel modo seguente  g(ω; k) = f (t; x) ei (ω t−k x) dt dx R2

in modo che l’analogo delle “componenti monocromatiche” sia dato qui dalle “onde piane” ei (k x−ω t) . In realt` a la scelta del segno davanti alla “ i ” nell’esponente `e del tutto inessenziale (basta restare coerenti!); per concretezza, nel seguito sceglieremo sempre la definizione (4.11)-(4.20 ). Concludiamo questo paragrafo con il calcolo della F-trasformata della (4.19 ), ovvero (a meno di un cambiamento di variabili t−t0 → t, ω−ω0 → ω ) della gaussiana 2 f (t) = e−α t , α > 0. Il calcolo pu` o essere eseguito facilmente osservando che √ ω 2 ω 2 − · −α t2 + i ω t = − α t − i √ 4α 2 α √ √ Posto z = α t − i ω/2 α (usare anche il teorema di Cauchy per riportare l’integrazione sull’asse reale), ci si riconduce al ben noto integrale  +∞ √ 2 e−x dx = π −∞



e si trova

π −ω2 /4α . e α Da notare che anche questa trasformata `e una gaussiana, che risulter` a tanto pi` u “stretta” quanto pi` u la f (t) `e “larga” e viceversa (in accordo con il “principio di indeterminazione” !). g(ω) =

140

Trasformate di Fourier e Laplace

4.4 La trasformata di Fourier in L1 (R) ` chiaro anzitutto che, affinch´e la definizione di partenza (4.11) della trasforE mata di Fourier sia corretta, basta che la funzione f (t) sia sommabile: 

+∞

−∞

|f (t)| dt < ∞ .

(4.21)

In tal caso infatti, per ogni ω ∈ R, anche f (t) ei ω t ∈ L1 (R) , essendo |f ei ω t | = |f | . Allora, l’integrale (4.11) esiste e definisce una funzione della nuova variabile reale ω che – come gi`a detto – si chiama trasformata di Fourier (o F−trasformata) della f (t) e si indica con uno dei seguenti simboli 

+∞

−∞

f (t) ei ω t dt = g(ω) = f+(ω) = F(f ) .

(4.22)

Vi sono alcune immediate propriet` a della trasformata. Anzitutto, scrivendo eiωt = cos ωt + i sin ωt, si vede immediatamente che la F−trasformata di una funzione reale pari `e una funzione reale pari, e che la F−trasformata di una funzione reale dispari `e una funzione immaginaria pura dispari. Inoltre: (1) La F-trasformazione `e lineare: (si noti che L1 (R) `e uno spazio vettoriale) F(α1 f1 + α2 f2 ) = α1 F(f1 ) + α2 F(f2 ) . (2) La funzione g(ω) `e limitata, infatti  sup |g(ω)| ≤ sup

ω∈R

+∞

−∞

 |f (t) ei ω t | dt =

+∞

−∞

|f (t)| dt = f L1 < ∞

(4.23)

grazie all’ipotesi di sommabilit` a per f (t) . (3) Valgono i seguenti teoremi di traslazione (spesso assai utili in pratica) (i)





F f (t − a) = 

−∞

+∞

= −∞

(ii)



−i a t

F e

+∞

f (t) =

f (t − a) ei ω t dt =



 f (t ) ei ω t ei ω a dt = ei ω a F f (t) 

+∞

−∞

f (t) e−i a t ei ω t dt = f+(ω − a) .

(4.24) (4.25)

(4) Si ha il seguente Teorema di Riemann-Lebesgue (che non dimostriamo): lim f+(ω) = 0 . (4.26) ω→±∞

4.5 Continuit` a della trasformata di Fourier

141

(5) Siano f1 , f2 ∈ L1 (R) ; si definisce il prodotto di convoluzione (o prodotto integrale ) delle f1 , f2 , e si indica con f1 ∗ f2 , la funzione ottenuta mediante il seguente integrale  +∞ (f1 ∗ f2 )(x) = f1 (x − t) f2 (t) dt . (4.27) −∞

Si riesce a provare che, nell’ipotesi detta, tale integrale esiste e che anche la funzione f1 ∗ f2 che esso definisce appartiene a L1 (R) . Si verifica poi facilmente che il prodotto di convoluzione `e commutativo e associativo: f1 ∗ f2 = f2 ∗ f1

f1 ∗ (f2 ∗ f3 ) = (f1 ∗ f2 ) ∗ f3 .

La propriet` a che ora ci interessa `e la seguente: F(f1 ∗ f2 ) = f+1 · f+2 .

(4.28)

Infatti si ha  F(f1 ∗ f2 ) = 



+∞

= −∞

dt f2 (t)

+∞

dx ei ω x

−∞

dxf1 (x−t) ei ω x = 

+∞

= −∞

 dt f1 (x − t) f2 (t) =

+∞

−∞



+∞

−∞



dt f2 (t)

−∞



dt f2 (t) ei ω t



+∞

+∞

−∞

+∞

−∞

dyf1 (y) ei ω y ei ω t =

dxf1 (y) ei ω y = f+2 · f+1

avendo potuto scambiare l’ordine delle integrazioni grazie all’ipotesi di sommabilit` a per f1 ed f2 (teoremi di Fubini e Tonelli).

4.5 Continuit` a della trasformata di Fourier Oltre alle propriet` a viste nel paragrafo precedente, si ha ancora: (6) Se f (t) ∈ L1 (R) , la sua trasformata di Fourier f+(ω) `e una funzione continua della variabile ω. Dimostrazione. Sia  un numero reale; si ha, per ogni ω,   +∞ &  '   |f+(ω + ) − f+(ω)| =  ei (ω+) t − ei ω t f (t) dt ≤ −∞

 ≤

+∞

−∞

  

  i ω t i  t e − 1 f (t) dt = e

+∞

−∞

|ei  t − 1| |f (t)| dt .

Provare la continuit` a di f+(ω) significa evidentemente provare che, quando  → 0 , il primo membro di questa relazione tende a zero. A tal fine, basta

142

Trasformate di Fourier e Laplace

assicurarsi che nell’ultimo membro sia possibile eseguire il limite  → 0 sotto il segno di integrale. Si ha infatti eit → 1, per  → 0, puntualmente per ogni t, e la possibilit` a di eseguire il limite nell’ultimo membro dentro l’integrale `e assicurata dal teorema di Lebesgue (enunciato nel § 2.8), poich´e la funzione integranda `e, per ogni , maggiorata da una funzione sommabile: |ei  t − 1| |f (t)| ≤ 2 |f (t)| .

Se ora indichiamo con C 0 (R) lo spazio vettoriale delle funzioni continue e limitate, possiamo dunque vedere l’operazione “trasformata di Fourier” come una trasformazione lineare F fra gli spazi vettoriali L1 (R) e C 0 (R) : F : L1 (R) → C 0 (R) .

(4.29)

Infatti, se f ∈ L1 (R) , si `e visto che F(f ) = f+ ∈ C 0 (R) . Introducendo ora negli spazi L1 e C 0 le rispettive norme naturali (v. §§ 2.6, 2.7), e cio`e, se f = f (x) ∈ L1 (R) e g = g(x) ∈ C 0 (R) ,  f L1 =

+∞

−∞

|f (x)| dx ,

gC 0 = sup |g(x)|

(4.30)

x∈R

si nota cos`ı che l’operatore lineare F `e un operatore continuo rispetto a tali norme 4 : ci`o significa, per definizione, che se  +∞ L1 f −→φ , ossia f − φL1 = |f − φ| dt → 0 −∞

ne segue che 0

C f+−→φ+ ,

+ C 0 = max |f+(ω) − φ(ω)| + f+ − φ → 0.

ossia

ω∈R

Infatti:   + + + + f − φC 0 = max |f (ω) − φ(ω)| = max  ω∈R

ω∈R

 ≤

+∞

−∞

+∞

−∞

  [f (t) − φ(t)] ei ω t dt ≤

  f (t) − φ(t) dt = f − φL1 → 0 .

In altre parole ci` o significa che se una successione di funzioni fn ∈ L1 (R) converge ad una funzione φ ∈ L1 (R) rispetto alla norma di L1 (R) (cio`e in media di ordine uno), allora la successione f+n delle trasformate di Fourier + converge uniformemente alla funzione φ. 4

Nella (4.30) si pu` o sostituire il sup con il max, grazie al Teorema di RiemannLebesgue (4.26).

4.6 Derivazione e trasformata di Fourier

143

4.6 Derivazione e trasformata di Fourier Nel paragrafo precedente abbiamo visto che, se f ∈ L1 (R) , la sua trasformata di Fourier g(ω) `e una funzione continua. Vediamo ora sotto quali ipotesi la g(ω) `e anche derivabile: a tale scopo scriviamone il rapporto incrementale:  +∞ g(ω + ) − g(ω) ei  t − 1 ei ω t = f (t) dt .   −∞ Ragionando come nel paragrafo precedente, osserviamo che per la funzione integranda nel secondo membro si ha, per ogni ,   ei  t − 1           i ω t ei  t − 1 f (t) =   t f (t) ≤ t f (t) . e  it Quindi, se oltre a f (t) ∈ L1 (R) si ha anche t f (t) ∈ L1 (R) , si pu` o eseguire il limite sotto il segno di integrale, grazie al gi` a citato teorema di Lebesgue, e si conclude  +∞

dg ei ω t i t f (t) dt = F i t f (t) = dω −∞ (in pratica si `e derivato rispetto ad ω dentro l’integrale). Pi` u in generale, ripetendo il ragionamento, si ha che se f, t f, · · · , tk f ∈ 1 L (R) , allora g = F(f ) ∈ C k (R) (avendo indicato con C k l’insieme delle funzioni continue insieme con le loro prime k derivate); inoltre

dh g = F (i t)h f (t) , h dω

h = 1, 2, · · · , k

(4.31)

e queste derivate sono tutte (v. § 4.4) funzioni limitate e infinitesime per ω → ±∞ . Se poi f (t) `e una funzione a decrescenza rapida (sottinteso: all’infinito), cio`e, pi` u precisamente, se per ogni intero k si ha tk f (t) ∈ L1 (R) , allora la sua trasformata di Fourier `e indefinitamente derivabile : F(f ) ∈ C ∞ e tutte le derivate sono limitate. Diamo ora risultati “simmetrici”, validi per il calcolo della trasformata della derivata di una f (t) . Sia allora f (t) ∈ L1 (R) e sia derivabile con derivata f  = df /dt ∈ L1 (R) . Si ha  +∞  +∞



 iωt f (t) e dt = − f (t) i ω ei ω t dt = −i ω F f (t) F f (t) = −∞

−∞

avendo integrato per parti e facendo presente che le ipotesi fatte sulla f assicurano che 5 lim f (t) = 0. t→±∞

Pi` u in generale, ripetendo il procedimento: se f `e derivabile k volte e e inoltre f, f  , · · · , f (k) appartengono a L1 (R) , si ha 5

La sola ipotesi f (t) ∈ L1 (R) non implica che f (t) tenda a zero quando t → ±∞ , potrebbe non ammettere limite all’infinito!

144

Trasformate di Fourier e Laplace

F

 dh f  dth

= (−i ω)h F(f ) ,

h = 1, 2, · · · , k .

(4.32)

Inoltre, per quanto visto nel § 4.4, si ha che |ω k f+(ω)| `e limitata, quindi per ω → ±∞ , f+(ω) = F(f ) tende a zero almeno come 1/ω k . Se infine si ha f ∈ C ∞ (R) e se, per ogni intero k, si ha pure che f (k) ∈ L1 (R) , allora |ω k f+| `e limitata per ogni k, quindi f+(ω) `e una funzione a decrescenza rapida.

4.7 Trasformata di Fourier in L2 (R) Enunciamo intanto la seguente propriet` a che sar`a utile fra poco. Si consideri il sottoinsieme di L1 (R) costituito dalle funzioni che sono anche a quadrato sommabile, cio`e dalle funzioni f ∈ L1 (R) ∩ L2 (R) . Per tali funzioni, oltre alla norma f L1 , si pu` o definire ovviamente anche la f L2 . Si dimostra allora, mediante alcuni calcoli che non riportiamo, il seguente: Teorema : Se f ∈ L1 (R) ∩ L2 (R) , allora f+ ∈ L2 (R) e √ f+L2 = 2π f L2 . (4.33) La (4.33) viene detta uguaglianza di Parseval . Il problema che ora dobbiamo risolvere `e quello di giungere a definire la ` trasformata di Fourier anche per funzioni a quadrato sommabile. E chiaro intanto che, se f ∈ L2 (R) ma f ∈ L1 (R) , la definizione di partenza (4.22) non `e applicabile. D’altronde la necessit` a di introdurre una trasformata di Fourier anche in L2 `e motivata da varie ragioni: ad esempio la trasformata in L2 gode – come vedremo – di particolari propriet` a che, tra l’altro, permettono in modo naturale di definire la trasformazione inversa (e questo `e importante per le applicazioni fisiche, ricordando le considerazioni fatte all’inizio di questo capitolo); inoltre, se la funzione f rappresenta p.es. il campo elettrico di un segnale elettromagnetico, la condizione f ∈ L2 si traduce nella condizione fisicamente ben accettabile che il segnale trasporta una quantit` a finita di energia, etc. L’introduzione della trasformata di Fourier per funzioni f ∈ L2 (R) `e interessante anche da un punto di vista “metodologico” 6 . Il procedimento consiste dei seguenti punti. (i) Provare che ogni funzione f ∈ L2 (R) pu` o essere “approssimata” quanto si vuole (nella norma L2 ) da funzioni contenute in L1 ∩ L2 , cio`e che, per ogni f ∈ L2 , esiste una successione di funzioni fn ∈ L1 ∩ L2 tale che L2

fn −→f ,

ossia

fn − f L2 → 0

(4.34)

(ovvero ancora che L1 ∩ L2 `e denso, rispetto alla norma L2 , in L2 ). 6

Si tratta infatti di un esempio esplicito e concreto di “estensione per continuit` a”, simile a quella gi` a studiata nel § 2.16.

4.7 Trasformata di Fourier in L2 (R)

145

(ii) Detta f+n la successione (f+n ∈ L2 , per il teorema enunciato all’inizio di questo paragrafo) delle trasformate di Fourier delle funzioni fn sopra trovate, verificare che tale successione `e anch’essa convergente (in L2 ). Questo fatto suggerisce allora di assumere come trasformata di Fourier della funzione f il limite di questa successione f+n , cio`e di porre per definizione F(f ) = lim f+n .

(4.35)

n→∞

Affinch´e questa posizione sia completamente lecita resta solo da provare che: (iii) Sia gn un’altra successione ( gn ∈ L1 ∩L2 ) convergente in L2 alla funzione f , cio`e gn − f  → 0 ; allora si ha lim g+n = lim f+n

n→∞

n→∞

cio`e il limite (4.35) non dipende dalla successione scelta per approssimare la f ∈ L2 . Dimostriamo ora i tre punti del procedimento. Dimostrazione. (i) Data f ∈ L2 , si pu` o considerare la successione delle funzioni troncate fn (t) cos`ı definite f (t) per |t| ≤ n fn (t) = (4.36) 0 per |t| > n . Ovviamente fn ∈ L2 (R) , ma anche fn ∈ L1 (R) : infatti l’integrale  +∞  +n |fn (t)| dt = |f (t)| dt −∞

−n

pu` o essere visto come il prodotto scalare fra la |f | e la funzione 1 per |t| ≤ n g(t) = 0 per |t| > n L2

appartenenti entrambe a L2 (R) . Quindi fn ∈ L1 ∩L2 . Infine fn −→f , poich´e  +∞   +∞  +n f −fn 2 = |f −fn |2 dt = |f |2 dt = |f |2 dt− |f |2 dt → 0 −∞

|t|>n

−∞

−n

essendo f ∈ L (R) . (ii) Posto f+n = F(fn ) ∈ L2 , si ha, per l’uguaglianza di Parseval (4.33) √ f+n − f+m L2 = 2π fn − fm L2 → 0 2

poich´e la successione fn `e convergente in L2 . Allora anche la successione f+n `e di Cauchy e quindi, per la completezza dello spazio L2 , converge ad una funzione appartenente a L2 .

146

Trasformate di Fourier e Laplace L2

L2

(iii) Siano fn −→f e gn −→f ; allora, grazie ancora alla (4.33), si ha √ √

f+n − g+n  = 2π fn − gn  ≤ 2π fn − f  + gn − f  → 0 tutte le norme essendo intese in L2 . Quindi lim f+n = lim g+n .

Resta cos`ı provato che la definizione (4.35), che possiamo riscrivere nella forma  +n f (t) ei ω t dt (4.37) f+ = lim f+n = lim n→∞

n→∞

−n

definisce correttamente la trasformata di Fourier per le funzioni f ∈ L2 (R) . Rinviando al § 4.9 per alcune osservazioni concernenti il calcolo pratico di tale trasformata, notiamo intanto, in particolare, che grazie alla definizione stessa (4.35) e all’equazione di Parseval (4.33), si ha per ogni f ∈ L2 (R) , √ f+ = lim f+n  = lim 2π fn  n→∞

n→∞

dove tutte le norme sono intese in L2 , e quindi √ f+ = 2π f 

(4.38)

cio`e l’eguaglianza di Parseval `e valida anche per le funzioni f ∈ L2 (R) . Si deduce anche facilmente la seguente eguaglianza di Parseval generalizzata, valida per ogni f, g ∈ L2 (R) :



f+, g+ = 2π f, g .

(4.39)

Per concludere, riassumendo questo paragrafo, possiamo dire che la trasformata di Fourier risulta definita anche per funzioni f ∈ L2 (R) tramite la (4.37), che pu` o essere anche riscritta in modo pi` u conveniente

F f (t) = f+(ω) = lim

R→∞



+R

−R

 f (t) ei ω t dt = P

+∞

f (t) ei ωt dt

(4.37 )

−∞

con l’introduzione del simbolo P di “parte principale di Cauchy” v. alla fine del § 3.9, in particolare la (3.30 ) . La trasformata di Fourier F risulta dunque un operatore lineare dello spazio L2 (R) in se stesso: F : L2 (R) → L2 (R) .

(4.40) Inoltre, grazie all’eguaglianza di Parseval, esso `e un operatore continuo nel

senso – si intende – della norma L2 (R) , e dunque, in particolare, se fn ∈ L2 e fn → f in senso L2 (R) , anche la successione delle F-trasformate f+n `e convergente in senso L2 (R) alla f+, cio`e anche f+n − fˆL2 → 0 .

4.8 Inversione della trasformata di Fourier

147

4.8 Inversione della trasformata di Fourier Proviamo ora che la trasformata di Fourier in L2 (R) `e un operatore invertibile: intanto la iniettivit` a dell’operatore F : L2 (R) → L2 (R) `e garantita dalla √ (4.38): infatti da F(f1 − f2 ) = 0 si ricava 0 = f+1 − f+2  = 2π f1 − f2  e dunque f1 = f2 ; la surgettivit` a verr` a dimostrata fra poco direttamente, verificando che, data comunque una g ∈ L2 (R) , si pu` o trovare una f ∈ L2 (R) la cui trasformata di Fourier coincide con la g, ossia F(f ) = g . Si pu` o in tal modo introdurre l’operatore inverso F −1 , che si chiamer`a naturalmente antitrasformata di Fourier: F −1 : L2 (R) → L2 (R) .

(4.41)

Precisamente, dimostreremo tra poco che, data la g ∈ L2 (R) , la sua antitrasformata di Fourier f si ottiene mediante la seguente formula f = F −1 (g) =

1 ,∗ ∗ g . 2π

(4.42)

In particolare, se g = g(ω) `e una funzione che appartiene anche a L1 (R) , questa formula, scritta esplicitamente, diventa  +∞

dω F −1 g(ω) = f (t) = g(ω) e−i ω t · (4.43) 2π −∞ a naturalmente sostituito dal limite Se invece g ∈ / L1 (R) , tale integrale andr` eseguito sulle funzioni “troncate”, come nella (4.37) o (4.37 ), che si potr` a scrivere nella forma  +∞

dω F −1 g(ω) = f (t) = P g(ω) e−i ω t · (4.43 ) 2π −∞ Dimostriamo ora la formula (4.42) (Teorema di inversione di Fourier ). Dimostrazione. Si tratta di provare che, assegnata una qualsiasi funzione g∈

L2 (R) , la funzione f definita dalla (4.42) e si noti che f ∈ L2 (R) ha come F-trasformata appunto la g, cio`e che f+ = g , ovvero che f+ − gL2 = 0. Si ha infatti 1 f+−g2 = 2π f 2 +g2 −(f+, g)−(g, f+) = 2π 2 2πg2 +g2 − (f+, g)−(g, f+) 4π avendo usato l’eguaglianza di Parseval e la (4.42); d’altronde, dette fm e gn le funzioni “troncate” rispettivamente di f e di g, si ha (il ricorso alle funzioni troncate – essendo queste sommabili – consente di eseguire il cambiamento nell’ordine di integrazione)   (g, f+) = lim (gn , f+m ) = lim dξ gn∗ (ξ) dη fm (η) ei ξ η = n,m→∞

n,m

148

Trasformate di Fourier e Laplace

  ∗

∗ = lim dη fm (η) dξ gn∗ (ξ) ei ξ η = lim fm , g, n = n,m

n,m

1 +∗ 2 g  = g ∗ 2 = g2 = f ∗ , g,∗ = 2π e osservando infine che (f+, g) = (g, f+)∗ = g2 , si ottiene finalmente quanto volevasi.

* ) = (2π)−1/2 F(f ) , l’operaSi pu` o allora anche concludere che, ponendo F(f * tore F `e un vero isomorfismo dello spazio di Hilbert L2 (R) in se stesso, o – pi` u precisamente – un operatore unitario, e dunque un “cambiamento unitario di base” in L2 (R) . ` ora interessante vedere come si trasforma un generico operatore lineare E T : L2 (R) → L2 (R) per effetto di questo cambiamento: se si ha T f = g , l’operatore trasformato T  sar` a definito da (cfr. il § 1.4) T  f+ = g+

dove

f+ = Ff,

g+ = Fg .

(4.44)

Ad esempio, se T `e l’operatore di traslazione (T f )(x) = g(x) = f (x − a) , si ha T  f+(ω) = ei ω a f+(ω) , e si vede immediatamente che T  `e unitario e che non possiede autofunzioni (infatti . . .), confermando cos`ı – grazie appunto all’isomorfismo realizzato dalla trasformata di Fourier – quanto gi` a noto per l’operatore T (v. § 2.19). E ancora, se `e T f = h ∗ f dove h = h(x) `e una funzione assegnata, si

ha T  f+(ω) = + h(ω) f+(ω) dunque in particolare v. § 2.19) . + . |+ h(ω) f+(ω)|2 dω T f   h(ω)| . = sup / R = sup |+ T  = T  = sup ω∈R |f+(ω)|2 dω + f+ + f

f

R

Se, per esempio, sin x h(x) = , πx

allora + h(ω) =



1 0

per |ω| < 1 per |ω| > 1

dunque T  (e allora anche T ) `e un proiettore, etc. Un’altra applicazione interessante `e la seguente. Se `e T =−

d2 + x2 dx2

si ha T = T  , dunque F T = T F . D’altronde, presa una qualunque autofunzione u = u(x) di T (che `e l’operatore di Hermite: v. § 2.22): T u = λ u , ne segue T (F u) = F T u = λ (F u) e, dato che λ `e non degenere, se ne ricava F u = μ u (cfr. § 2.19), cio`e che u `e anche autofunzione di F. Allora anche l’operatore F possiede un set completo

4.9 Alcune osservazioni sulla trasformata di Fourier

149

di autovettori, cio`e appunto le funzioni di Hermite. Gli autovalori si possono ricavare immediatamente osservando che sussiste l’eguaglianza, che `e facile verificare F* = F*−1 S dove S `e l’operatore di parit` a in L2 (R) , da cui F*4 = I , e dunque gli autovalori di F* sono ±1, ±i. Un’altra semplice osservazione. Dato che l’espressione della trasformata di Fourier `e del tutto simile a quella dell’antitrasformata (4.42,43), molte delle propriet` a dell’una valgono anche per l’altra: per esempio, se la f+(ω) `e una

funzione L1 (R) , allora la f (t) = F −1 f+(ω) `e una funzione continua, etc. Dimostriamo infine la “relazione di indeterminazione” (4.19). Sia f (t) ∈ 2 L (R) e abbastanza regolare si richiedono: t f (t) ∈ L1 (R) ∩ L2 (R), ω f+(ω) ∈

L2 (R) , lim ω |f+(ω)|2 = 0 . Con una eventuale traslazione nel tempo, si pu` o ω→±∞

intanto scegliere per comodit`a t = 0, in tal modo t2 = Δt2 . Si consideri la seguente norma in L2 (R): !ω − ω +!2

1 ! +(ω) + df ! Δω 2 f+(ω)2 + F i t f (t) 2 + 0≤! f ! = 2 4 2Δω dω 4Δω  +∞  + +∗  1 +∗ (ω) df + f+(ω) df dω = (ω − ω) f + (4.45) 2Δω 2 −∞ dω dω 2π 1 = f (t)2 +2π Δt2 f (t)2 − f+(ω)2 = 4Δω 2 2Δω 2  1  = 2π f (t)2 Δt2 − 4Δω 2 (avendo usato l’eguaglianza di Parseval e calcolato per parti l’integrale nella seconda riga), da cui appunto la (4.19). Imponendo infine che la norma nella (4.45) sia zero (e dunque che Δt Δω = 12 ), si ottiene facilmente che f+(ω) deve essere una gaussiana, come gi`a anticipato. Osserviamo infine che la formula per l’antitrasformata di Fourier in pi` u variabili v. la (4.20 ) `e data da  1 f (x1 , x2 , . . . , xn ) = g(k1 , k2 , . . . , kn ) e−i(x,k) dn k (2π)n Rn

4.9 Alcune osservazioni sulla trasformata di Fourier Si pu` o intanto notare come la formula (4.43) della F −1 dia l’espressione precisa della formula che ci si attendeva v. § 4.2 e in particolare la (4.8) sulla base della interpretazione della g(ω) come di “distribuzione spettrale” di “componenti monocromatiche” e−i ω t . Anche la (4.33) pu` o essere confrontata con l’identit` a di Parseval (2.37) valida per una f (t) ∈ L2 (−T, T ): si ha rispettivamente

150

Trasformate di Fourier e Laplace



+∞

−∞

 |f (t)| dt = 2

+∞

−∞

dω |g(ω)| 2π 2



T

, −T

|f (t)|2 dt =

+∞ 

|ck |2

k=−∞

e da queste due identit` a, in particolare dal confronto dei secondi membri, risulta confermata l’analogia che ci ha condotto alla definizione “euristica” (4.11) della g(ω) a partire dalla definizione dei coefficienti ck della serie di Fourier. Tornando al problema esaminato nel § 4.2, `e da notare come il procedimento “empirico” che ci ha condotto a sostituire l’equazione differenziale (4.4) per lo spostamento x(t) con l’equazione algebrica (4.9) per x0 = x0 (ω), acquista un significato semplice e preciso: l’equazione (4.9) si ottiene infatti prendendo la trasformata di Fourier di ambo i membri della (4.4), ove si ponga

x0 (ω) = F x(t) e si tenga conto delle regole (4.32) per la trasformata delle derivate. Per quanto riguarda il calcolo esplicito della antitrasformata di Fourier di una data funzione g(ω), esso pu`o essere molto abbreviato nei casi in cui ci si pu` o ricondurre a trasformate gi` a note. Per esempio, osservando che  

1 0 per t0 −a t e per t>0 a − iω in cui si `e introdotta per comodit` a la funzione “a gradino” detta anche funzione di Heaviside e talvolta indicata con H(t) 0 per t < 0 θ(t) = 1 per t > 0 e osservando anche che, analogamente,

F θ(−t) e+a t =

1 , a + iω

a>0



ne segue direttamente che F −1 1/(ω ± i a) = · · · . E ancora, osservando, grazie alle (4.31), che si ha per esempio d 1 1 F θ(t) t e−a t ) = −i , a>0 = dω a − i ω (a − i ω)2

e dunque F −1 1/(ω + i a)2 = · · · , si conclude facilmente che `e possibile calcolare la antitrasformata di Fourier di ogni funzione razionale (rapporto di polinomi) di L1 (R) oppure di L2 (R) , semplicemente riscrivendo tale funzione come combinazione di “frazioni semplici”. In generale, si potr` a comunque ricorrere al lemma di Jordan (§ 3.13), sia per il calcolo di trasformate che di antitrasformate, come vedremo tra poco su un esempio. Il lemma di Jordan si pu` o usare per calcolare trasformate o antitrasformate anche di funzioni non appartenenti a L1 (R) ma appartenenti

4.10 L’“impedenza” dei circuiti elettrici e la trasformata di Fourier

151

a L2 (R) , e si debbano quindi applicare la formula (4.37 ) o la (4.43 ): basta infatti osservare che il lemma di Jordan prevede appunto l’esecuzione del  +R lim ··· . R→+∞ −R

Sia per esempio f (t) = t/(1 + t2 ); si ha f ∈ L2 (R) ma f ∈ / L1 (R) , e – usando le (3.46,47) del lemma di Jordan –  +∞ i ω t

te per ω > 0 π i e−ω dt = F f (t) = P 2 −π i e+ω per ω < 0 −∞ t + 1 (si noti la discontinuit` a di questa trasformata in ω = 0 ). Naturalmente, le stesse osservazioni valgono anche per il calcolo delle antitrasformate di Fourier

F −1 g(ω) con la formula (4.43) se g ∈ L1 (R), oppure con la (4.43 ) se g∈ / L1 (R) ma g ∈ L2 (R) . Osservando ancora la somiglianza fra le formule della trasformata e della antitrasformata di Fourier (a parte il fattore 2π, basta scambiare t ed ω e cambiare un segno!), si possono abbreviare alcuni calcoli: per esempio, indicata con f (t) la funzione f (t) = θ(t) e−t



sapendo che F f (t) = 1/(1 − i ω) e dunque F −1 1/(1 − i ω) = f (t) , ne segue direttamente, senza fare calcoli, che  1  0 per ω > 0 F = 2π θ(−ω) e+ω = per ω < 0 2π e+ω 1 − it come del resto si pu` o verificare con il calcolo esplicito utilizzando il lemma di Jordan.

4.10 L’“impedenza” dei circuiti elettrici e la trasformata di Fourier Mostreremo ora come la trasformata di Fourier trovi un’altra naturale importante applicazione. A tale scopo ci riferiremo ad un esempio assai semplice, che `e in realt` a un caso particolare di una situazione ben pi` u generale, che verr` a considerata pi` u avanti e che serve ad illustrare bene i vari aspetti della questione. Si consideri dunque il circuito elettrico “serie RL”, descritto dall’equazione dI = V (t) , (4.46) dt dove V (t) `e la tensione applicata in “entrata” ed I(t) la corrente che circola. In analogia a quanto si `e fatto a proposito del problema delle oscillazioni elastiche 7 (v. § 4.2), cominciamo a supporre che la tensione applicata RI +L

7

2

Il circuito “serie RLC” conduce all’equazione L ddt2I + R dI + C1 I = dV dt

dt che `e dello stesso tipo di quella delle oscillazioni elastiche smorzate v. (4.4) .

152

Trasformate di Fourier e Laplace

sia del tipo V (t) = V0 e−i ω t cio`e una tensione alternata di frequenza ω, e cerchiamo una soluzione dello stesso tipo, alternata con la stessa frequenza, cio`e I(t) = I0 e−i ω t . Sostituendo nella (4.46) si ricava la relazione ben nota dall’elettrotecnica elementare (R − i ω L) I0 = V0

(4.47)

la quale mostra come l’ampiezza I0 = I0 (ω) della “risposta” `e collegata a V0 semplicemente da un fattore, dipendente dalla frequenza ω, che esprime l’“impedenza” del circuito. In realt` a si deve notare che in elettrotecnica l’impedenza del circuito “serie RL” `e data normalmente da R+i ω L : la differenza di segno rispetto alla nostra (4.47) `e dovuta alla diversa definizione che viene usata di regola in elettrotecnica della trasformata di Fourier di una funzione f = f (t) ; in elettrotecnica, infatti, si definisce di solito  +∞ + F(f ) = f (ω) = f (t) e−i ω t dt . −∞

Con tale definizione si ha – per esempio – come conseguenza  df  = +i ω F(f ) F dt e il segno opposto rispetto alla nostra formula (4.32) spiega la differenza di segno riscontrata sopra. Naturalmente cambia coerentemente anche l’espressione dell’antitrasformata; non cambiano – come `e ovvio – i risultati fisici. Se dunque indichiamo con ZE (ω) l’impedenza di un circuito nella forma nota dall’elettrotecnica, possiamo porre Y (ω) =

1 ZE (−ω)

(4.48)

e l’equazione precedente (4.47) si pu` o scrivere I0 = Y (ω) V0 . Nel caso poi che la tensione applicata V (t) sia espressa da una funzione generica, ripetendo il ragionamento gi` a fatto nel § 4.2, possiamo immaginare di trovarne le “componenti alternate pure” e−i ω t cio`e di calcolarne la trasformata di Fou

rier V+ (ω) = F V (t) e quindi la corrispondente risposta del circuito. Come gi` a discusso nei §§ 4.2 e 4.9, questo equivale a sostituire l’equazione (4.46) del circuito con la sua trasformata di Fourier, ovvero + I(ω) = Y (ω) V+ (ω)

(4.49)



+ dove I(ω) = F I(t) , e la funzione Y = Y (ω) , definita come nella (4.48), esprime l’“ammettenza” del circuito. In pratica, nota la V (t), e quindi V+ (ω), la corrispondente I(t) si ottiene direttamente calcolando l’antitrasformata della (4.49). Il risultato (4.49) `e particolarmente notevole, perch´e intanto mostra direttamente che, detta G(t) l’antitrasformata di Fourier della Y (ω) , la soluzione

4.11 Propriet` a della funzione di Green

153

I(t) corrispondente ad un dato input V (t) si pu` o scrivere, antitrasformando la (4.49) e grazie alla (4.28) 8

I(t) = G(t) ∗ V (t) , G(t) = F −1 Y (ω) . (4.50) Grazie a questo risultato, si pu` o dire che, in questo senso, le propriet` a fisiche

del circuito sono interamente riassunte dalla funzione G(t) = F −1 Y (ω) . Tale funzione si chiama funzione di Green del sistema. Nel caso del circuito “serie RL”, si ha  1 1 = θ(t) e−(R/L) t . R − iωL L



In modo del tutto analogo, la funzione 1/ m(Ω 2 − ω 2 − i γ ω) v. (4.10) `e la trasformata di Fourier della funzione di Green del sistema elastico considerato nel § 4.2. ` importante notare che – tramite la trasformata di Fourier – si `e ottenuta, E in questi casi, solo una soluzione particolare delle equazioni differenziali in esame – la (4.46) e la (4.4); la soluzione pi` u generale si otterr` a ovviamente sommando le soluzioni delle rispettive equazioni omogenee su questo punto,

e per il caso generale, v. il § 5.6.(ii) . G(t) = F −1



4.11 Propriet` a della funzione di Green Come mostra l’equazione (4.49), la funzione di Green di un sistema pu` o essere vista come la “risposta” del sistema ad un segnale la cui trasformata di Fourier V+ (ω) sia uguale a uno. Evidentemente, per` o, non esiste alcuna funzione la cui trasformata di Fourier sia uguale ad uno; tuttavia si pu` o dare un’interpretazione intuitiva di questo punto con un particolare procedimento di limite, nel modo seguente. Riprendiamo in considerazione il semplice circuito “serie RL” e supponiamo che la tensione V (t) in ingresso sia espressa da una funzione fτ (t) cos`ı definita ⎧ 1 ⎨ fτ (t) = 2τ ⎩ 0

per |t| < τ

(4.51)

per |t| > τ .

Si ha immediatamente sin(ω τ ) , V+ (ω) = F(fτ ) = ωτ 8

+ I(ω) =

sin(ω τ ) · ω τ (R − i ω L)

Pu` o essere utile far presente che – nella pratica – il calcolo esplicito di un prodotto di convoluzione pu` o risultare non agevole; in genere, `e pi` u semplice utilizzare la (4.49) ed eseguire la antitrasformata, anzich`e la (4.50).

154

Trasformate di Fourier e Laplace

Immaginiamo ora di prendere il limite τ → 0 : la funzione fτ (t) tende a zero per ogni t = 0 , mentre non ha limite finito in t = 0 ; corrispondentemente per` o la sua trasformata F(fτ ) tende puntualmente, per ogni ω, proprio ad 1, + e la I(ω) tende alla trasformata Y (ω) della funzione di Green del sistema. Si verifica pure che la risposta I(t) del circuito al segnale fτ ⎧0 ⎪ ⎪ ⎪   ⎪ ⎪ ⎨ 1 −(R/L) (t+τ ) I(t) = 2R τ 1 − e ⎪   ⎪ ⎪ ⎪ ⎪ (R/L) τ −(R/L) τ ⎩ 1 e e−(R/L) t −e 2R τ

t ≤ −τ |t| ≤ τ t≥τ,

ottenibile applicando i procedimenti di calcolo esposti nel § 3.13, tende precisamente, per τ → 0, alla funzione di Green G(t) del circuito “serie RL”. La funzione di Green di un sistema si pu` o dunque vedere come la risposta all’ipotetico segnale che si ottiene prendendo τ → 0 nella fτ (t) (4.51): intuitivamente, un segnale “impulsivo” di durata brevissima e grandissima ampiezza. Il limite per τ → 0 della fτ (t) `e una definizione empirica e alquanto grossolana della delta di Dirac, indicata con δ0 o δ(t), che naturalmente non `e una funzione nel senso usuale del termine (essa viene chiamata distribuzione). Senza soffermarci per ora su una introduzione matematicamente corretta di questo procedimento (v. il Cap. 5), possiamo assumere questa come una definizione “di lavoro” (che verr` a per altro perfettamente giustificata) e utilizzarla per concludere, grazie a quanto appena visto a proposito della

trasformata F fτ (t) e del suo limite per τ → 0 , che



F δ(t) = lim F fτ (t) = 1 (4.52) τ →0

e cos`ı interpretare la funzione di Green G(t) di un sistema come la risposta del sistema stesso alla δ(t) 9 .

+ La funzione di Green G(t) o la sua trasformata G(ω) descrivono dunque completamente il sistema: se si indicano genericamente con a = a(t) il “segnale” e con b = b(t) la “risposta”, si ha, come nelle (4.49-50), b(t) = G(t) ∗ a(t)

+b(ω) = G(ω) + + a(ω) .

Negli esempi considerati qui sopra, il sistema era descritto da una equazione differenziale; ma questo `e solo un caso particolare: assai pi` u in generale, un sistema pu` o essere descritto proprio assegnando direttamente una funzione di 9

Naturalmente, altri tipi di funzioni “approssimanti”, invece delle (4.51), possono essere usati per giungere alla definizione della δ. Per esempio si possono prendere fτ (t) = θ(t) τ −1 e−t/τ e prendere poi τ → 0. Altri importanti esempi saranno presentati e discussi nel § 5.2.

4.12 Alcune propriet` a della delta di Dirac

155

Green o la sua trasformata di Fourier. Giusto per fare un esempio, un “filtro + ideale” su un intervallo di frequenze |ω| < ω0 sar` a descritto da G(ω) = 1 per |ω| < ω0 (e = 0 altrimenti). Questo fa intuire la grande potenzialit` a della nozione di funzione di Green, di cui si vedranno vari esempi nel seguito.

4.12 Alcune propriet` a della delta di Dirac Pur rinviando, come gi` a detto, al Cap. 5 per una trattazione rigorosa e globale, possiamo tuttavia ottenere fin d’ora, usando la nostra definizione “euristica”, altre notevoli propriet` a della delta di Dirac. Anzitutto, partendo da funzioni approssimanti traslate ⎧ 1 ⎨ per |t − a| < τ 2τ fτ, a (t) = (4.53) ⎩ 0 per |t − a| > τ e prendendone il limite τ → 0 , si pu` o introdurre la delta traslata δa = δ(t−a) (intuitivamente, un segnale impulsivo concentrato nell’istante t = a ). Utilizzando ancora la nostra definizione della δ, possiamo anche introdurre la derivata di una funzione discontinua: ad esempio, se si vuole calcolare la derivata della θ(t) , si pu` o anzitutto approssimare la θ(t) con funzioni (continue), per esempio: ⎧ per t ≤ −τ ⎨0 t 1 uτ (t) = 1+ per |t| ≤ τ ⎩2 τ 1 per t ≥ τ ; si ha allora

duτ = fτ dt dove le fτ sono ancora le funzioni definite in (4.51); d’altronde uτ (t) → θ(t) (puntualmente) per τ → 0 , e dunque si pu` o dire che (per una giustificazione completa v. il Cap. 5) dθ = δ(t) . dt Il risultato pu` o essere esteso immediatamente ad altre funzioni discontinue, purch`e con discontinuit` a finita: in generale, in corrispondenza di una discontinuit` a in un punto t0 , la derivata presenter` a un termine addizionale σ δ(t−t0 ) , dove σ `e la discontinuit` a: σ = lim f (t) − lim f (t) . + − t→t0

t→t0

` importante notare che le formule (4.31) e (4.32) continuano ad essere valide E anche in presenza di funzioni discontinue, pur di interpretare la loro derivata

156

Trasformate di Fourier e Laplace

nel senso detto qui sopra (ancora una volta, v. il Cap. 5 per la discussione del caso generale). Per esempio, sia f (t) = θ(t) e−t : si verifica facilmente che la (4.32) con h = 1, ovvero F

 df  dt



= −i ω F f (t)

resta valida con df /dt = δ(t) − θ(t) e−t . La propriet` a caratteristica della delta di Dirac δ(t − a) `e la seguente: sia φ(t) una qualsiasi funzione continua (detta funzione test ) nell’intorno del punto t = a, allora si ha  φ(t) δ(t − a) dt = φ(a) (4.54) I

dove I `e un qualsiasi intervallo contenente il punto a. Infatti, utilizzando ancora le funzioni approssimanti fτ, a (t) (4.53), si ha 



a+τ

a+τ

φ(t) fτ, a (t) dt = φ(t0 ) a−τ

fτ, a (t) dt = φ(t0 ) a−τ

o dove t0 `e un punto contenuto nell’intervallo (a − τ, a + τ ) : da ci` (4.54) quando τ → 0 . Calcolando la trasformata di Fourier delle fτ,a (t) date nella prendendone il limite per τ → 0 come

nel paragrafo precedente anche ponendo φ(t) = ei ω t nella (4.54) si trova

F δ(t − a) = ei ω a

segue la (4.53) e oppure

(4.55)

che generalizza alle δ il teorema di traslazione (4.24). Dalla (4.54) segue anche in particolare t δ(t) = 0 ,

t δ(t − a) = a δ(t − a)

e dunque si potrebbe interpretare la δ(t − a) come un “autovettore” dell’operatore di moltiplicazione per t ovvero la δ(x − a) come un “autovettore”

dell’operatore (2.63) . Infine, possiamo facilmente trovare la antitrasformata di Fourier di δ(ω− a): si pu` o ad esempio approssimare δ(ω − a) con funzioni ⎧ 1 ⎨ per |ω − a| < κ gκ, a (ω) = 2κ ⎩ 0 per |ω − a| > κ ,

u semplicemente – calcolare F −1 gκ, a (ω) e poi prendere κ → 0 , oppure – pi` ricordare la “simmetria” fra trasformata e antitrasformata: si trova cos`ı

4.13 Relazioni di dispersione: introduzione



1 −i a t , e F −1 (δ(ω − a) = 2π da cui anche

F e−i a t = 2π δa = 2π δ(ω − a) ,

157



1 F −1 δ(ω) = 2π

F(1) = 2π δ0 = 2π δ(ω) .

(4.55 )

La prima delle (4.55 ) ha una chiara interpretazione fisica: essa significa infatti che se si esegue l’analisi in frequenza di un segnale perfettamente monocromatico e−i a t di frequenza ω = a , si ottiene – come `e giusto – una distribuzione spettrale interamente concentrata sulla frequenza ω = a e nulla per tutte le frequenze ω = a cio`e una riga spettrale infinitamente sottile: confrontare con la situazione vista nel § 4.3, in particolare a proposito del segnale “quasi

monocromatico” descritto dalla (4.12) .

4.13 Relazioni di dispersione: introduzione I risultati visti nei precedenti paragrafi a proposito della funzione di Green di un circuito elettrico non sono che un caso particolare di una situazione ben pi` u generale che ora esamineremo. Consideriamo dunque un sistema fisico qualsiasi, che sia in grado di fornire una “risposta” alle sollecitazioni che gli vengono applicate: per semplicit` a chiameremo “entrata” (o “in”) queste ultime e “uscita” (o “out”) le risposte. I circuiti elettrici sono infatti un esempio di questa situazione: nei paragrafi precedenti abbiamo posto V (t) = “in” ed I(t) = “out”. Un altro esempio al quale dedicheremo fra poco qualche attenzione `e fornito da un campione di materiale dielettrico soggetto a un campo elettromagnetico esterno: in tal caso si pu`o prendere “in” = E(t) = campo elettrico dell’onda incidente, e “out” = P (t) = polarizzazione del mezzo dielettrico, legata – com’`e noto – alla permeabilit` a dielettrica χ e quindi alla costante dielettrica ε del mezzo, come vedremo meglio fra poco. Supponiamo di non conoscere nulla circa la struttura e le propriet` a interne del sistema fisico che stiamo esaminando; le sole ipotesi che assumiamo, dette a(t) l’“entrata” e b(t) l’“uscita” del sistema, sono le seguenti. (1) L’uscita b(t) `e funzione lineare dell’entrata a(t) , cio`e vale il principio di sovrapposizione. (2) La b(t) dipende causalmente da a(t). Come vedremo meglio tra poco, questa ipotesi `e del tutto naturale e ovvia: essa significa in sostanza che c’`e una connessione di “causa-effetto” fra “in” e “out”. (3) Le propriet` a interne del sistema sono indipendenti dal tempo. Vale la pena di notare che queste ipotesi sono estremamente ampie, e per questa ragione quanto diremo sar` a applicabile alle pi` u diverse categorie di fenomeni. Per esempio, i due casi gi` a citati, cio`e i circuiti elettrici (costituiti di resistenze, condensatori e induttanze) e i mezzi dielettrici, verificano le ipotesi

158

Trasformate di Fourier e Laplace

dette. Naturalmente vi sono pure molti fenomeni che non le soddisfano: un sistema (ad esempio un circuito) che si riscaldi nel tempo avr`a in generale propriet` a interne che cambiano col tempo e quindi non soddisfa l’ipotesi (3); un magnete vicino alla saturazione non obbedisce certo all’ipotesi di linearit` a, ma la soddisfa approssimativamente quando `e lontano dalla saturazione; nemmeno un circuito contenente un diodo “perfetto” dar` a risposte lineari. Le ipotesi (1-3) sopra enunciate possono essere tradotte in linguaggio matematico nel modo seguente. Sia b(t) la risposta ad un certo istante t, e si assuma per un momento che l’input a(t) agisca solo per un breve istante t : l’ipotesi (1) di linearit` a implica che b(t) deve essere proporzionale ad a(t ) :  cio`e b(t) = G(t, t ) a(t ) dove la “costante di proporzionalit` a” G dipender` a in generale da t e t . Dovendo poi “sommare” su tutti gli istanti di tempo t , sar` a  +∞ b(t) = G(t, t ) a(t ) dt (4.56) −∞

(naturalmente, per ora non ci preoccupiamo delle propriet` a della G(t, t ), che in realt` a potr` a anche essere una funzione molto “singolare”, come vedremo meglio in seguito, n´e di dare ipotesi che assicurino l’esistenza di questo integrale). La richiesta (2) di causalit` a implica poi che il valore della risposta all’istante t deve dipendere soltanto dalle sollecitazioni subite negli istanti t precedenti a t, dunque l’integrale (4.56) va eseguito solo sui contributi degli istanti t < t :  t

b(t) =

G(t, t ) a(t ) dt .

(4.56 )

−∞

Infine, l’ipotesi (3) implica, affinch`e il sistema sia “invariante” nel tempo, che la funzione G(t, t ) dipenda solo dall’intervallo di tempo t − t intercorso tra fra l’“in” a(t ) e l’“out” b(t) , e cio`e non dipenda dalla scelta dell’origine dei tempi. Concludendo, le ipotesi (1-3) si riassumono in 

t

b(t) = −∞

G(t − t ) a(t ) dt

che pu` o anche essere riscritta, mediante cambiamento di variabili  ∞ b(t) = G(τ ) a(t − τ ) dτ = G ∗ a

(4.57)

0

dove va notato che la funzione G(τ ) = G(t − t ) `e uguale a zero per t > t (cio`e per τ < 0 ) per l’ipotesi di causalit` a (2), come si `e visto sopra. Prendendo la trasformata di Fourier della (4.57 ) si ha +b(ω) = G(ω) + + a(ω) dove naturalmente

(4.57 )

4.14 Teorema di Titchmarsh. Trasformate di Hilbert

+ G(ω) =





159

ei ω t G(t) dt

(4.58)

0

e si riconosce che la funzione G(t) `e la funzione di Green del sistema (detta anche funzione di correlazione, o di trasferimento, o di memoria). Nel caso che il sistema in esame sia un circuito elettrico, abbiamo gi` a visto nei paragrafi precedenti qual `e l’interpretazione fisica della funzione di Green e della sua trasformata di Fourier; se dunque la struttura del circuito `e nota, la sua funzione di Green pu` o essere scritta e studiata esplicitamente. Viceversa, l’ipotesi da cui – come gi` a detto – ora intendiamo partire `e che non si conosca nulla circa la struttura del sistema salvo che soddisfi le ipotesi (1-3) e quindi le (4.57, 57 ) , e pertanto il nostro scopo `e quello di ricavare da queste sole ipotesi propriet` a del tutto generali (alle quali poi obbediranno certamente i vari casi particolari esplicitamente noti). Il caso in cui il sistema fisico preso in considerazione `e costituito da un mezzo dielettrico qualsiasi sottoposto a un’onda elettromagnetica si presta assai bene a questa discussione, poich´e certamente conosciamo assai poco circa la struttura interna e il meccanismo con cui esso “risponde” al campo incidente (conosciamo, al pi` u, qualche modello pi` u o meno approssimato e realistico). Nel seguito, per concretezza, ci riferiremo a questo problema, anche per ragioni “storiche”, poich´e queste tecniche sono state usate per la prima volta appunto per questo scopo. Porremo quindi nel seguito a(t) = E(t) = campo elettrico incidente, b(t) = P (t) = polarizzazione del mezzo; avremo allora, invece della (4.57 ), + P+(ω) = χ(ω) E(ω) + dove si `e usata la notazione χ(ω) = G(ω) , che generalizza la relazione “statica” P = χ E . La dipendenza dalla frequenza della χ = χ(ω) , e quindi di ε = ε(ω) = 1 + 4π χ(ω) si chiama legge di dispersione .

4.14 Teorema di Titchmarsh. Trasformate di Hilbert Se, nelle ipotesi viste, E(t) e P (t) , e quindi anche G(t) , sono funzioni reali, + si ha subito dalla (4.58), posto G(ω) = χ(ω) = χ  + i χ  , χ  (ω) = χ  (−ω) ,

χ  (ω) = −χ  (−ω) .

(4.59)

Infatti χ(−ω) = χ∗ (ω) . Se poi nella stessa (4.58) si suppone che la variabile ω sia una variabile complessa, si ottiene χ(−ω ∗ ) = χ∗ (ω)

(4.59 )

che fornisce una prima precisa restrizione sulla funzione χ(ω) . Supponiamo ora che la funzione di Green G(t) sia una funzione a quadrato sommabile:

160

Trasformate di Fourier e Laplace

G(t) ∈ L2 (ipotesi in generale ben accettabile da un punto di vista fisico 10 ); possiamo allora provare che la sua trasformata di Fourier χ(ω) , vista come funzione della variabile complessa ω, `e una funzione olomorfa nel semipiano complesso superiore Im ω > 0 . Infatti, posto ω = ω  + i ω  e detto  un qualsiasi numero complesso, si ha  ∞ it   χ(ω + ) − χ(ω) e −1 = i t ei ω t e−ω t G(t) dt ;  i  t 0 



ma anche t e−ω t ∈ L2 (0, ∞) se ω  = Im ω > 0 , allora t e−ω t G(t) `e sommabile e si pu` o quindi prendere il limite per  → 0 sotto il segno di integrale (usando ancora una volta il teorema di Lebesgue), e cos`ı provare che la χ(ω) `e derivabile nel semipiano complesso ω  > 0 . La χ(ω) , per ω reale, `e allora una funzione (di L2 ) che si ottiene come “valore al contorno” (cio`e per ω  → 0+ ) di una funzione olomorfa. Applicando ora il teorema di Cauchy, si ha che ( χ(ν) dν = 0 ν−ω se il percorso di integrazione `e contenuto nel campo di olomorfia di χ(ω) e non racchiude il punto ν = ω . Scegliendo ω reale e il percorso di integrazione come in fig. 4.2, si ottiene, con i simboli indicati in figura

ν

γ

I1

I2

|

ω Figura 4.2. Percorso di integrazione per il Teorema di Titchmarsh.

 I1

χ(ν) dν + ν−ω



 ··· + I2

−γ

 ··· + Γ

χ(ν) dν = 0 . ν−ω

Supponiamo ora di poter far coincidere I1 e I2 con l’asse reale (questa possibilit` a non `e ovvia, poich´e sappiamo soltanto che χ(ω) `e olomorfa per ω  > 0 10

Questa ipotesi esclude tuttavia alcuni casi importanti: ad esempio, il pi` u banale dei sistemi, cio`e quello in cui output ≡ input, `e descritto dalla funzione di Green G(t) = δ(t) . Il teorema dato in questo paragrafo richiede effettivamente l’ipotesi o modificare opportunamente il risultato (e il proceG(t) ∈ L2 . Non `e difficile per` dimento) in molti casi in cui tale ipotesi non `e verificata. Qualche esempio verr` a accennato nel seguito.

4.15 Relazioni di dispersione di Kramers e Kronig

161

e quindi l’asse reale pu` o non essere interno al campo di olomorfia), e insieme che quando R (= raggio di Γ ) tende all’infinito l’ultimo integrale tenda a zero; allora, quando r (= raggio di γ ) tende a zero, si pu` o concludere  +∞ χ(ν) 1 P dν = 2π i χ(ω) (4.60) 2 −∞ ν − ω avendo indicato con P la parte principale di Cauchy e ricordando quanto visto nel § 3.13. Prendendo la parte reale e la parte immaginaria di questa equazione si ha, dette χ  (ω) = Re χ(ω) e χ  (ω) = Im χ(ω) :  +∞   +∞  χ (ν) χ (ν) 1 1   χ (ω) = P dν , χ (ω) = − P dν (4.61) π ν − ω π ν −ω −∞ −∞ e si dice allora che χ  (ω) e χ  (ω) sono le trasformate di Hilbert l’una dell’altra 11 . Abbiamo cos`ı dato una dimostrazione (molto parziale) del Teorema di Titchmarsh, il quale, oltre a garantire la legittimit` a dei passaggi al limite sopra eseguiti, assicura precisamente quanto segue: Teorema di Titchmarsh: Per la funzione di Green di un sistema lineare indipendente dal tempo le tre seguenti propriet` a sono equivalenti: (i) G(t) = 0 per t < 0 (che `e l’ipotesi di causalit` a), inoltre G(t) ∈ L2 e

ammette quindi F-trasformata χ(ω) = F G(t) . (ii) χ(ω  ) ∈ L2 , con ω  reale, ed `e il limite per ω  = Im ω → 0+ di una funzione χ(ω  + i ω  ) olomorfa in ω  > 0 , tale inoltre che esiste finito 12 il  +∞ |χ(ω  + i ω  )|2 dω  sup ω  >0

−∞

 (iii) χ  (ω) e χ di Hilbert l’una dell’altra cio`e

(ω) sono le trasformate valgono le (4.61) , ed appartengono a L2 .

4.15 Relazioni di dispersione di Kramers e Kronig Le relazioni (4.61) per la permeabilit` a dielettrica χ(ω) sono state ottenute per la prima volta da Kramers e Kronig. Esse sono note sotto il nome di 11

12

Esistono varie generalizzazioni di questo procedimento. Ad esempio, in certi casi, `e noto – per altra via – che la χ(ω) presenta un taglio lungo l’asse reale ed ha un buon andamento all’infinito: si pu` o allora ottenere un collegamento come nella (4.60) utilizzando percorsi di integrazione del tipo di fig. 3.4. Questo esprime in sostanza una propriet` a della χ(ω) di “buon andamento” all’infinito nel semipiano ω  > 0; si verifica infatti facilmente che la sola ipotesi a: di olomorfia in ω  > 0 non `e sufficiente in generale a garantire la causalit` considerare ad esempio le funzioni e±i ω /(1 − i ω).

162

Trasformate di Fourier e Laplace

relazioni di dispersione e sono una conseguenza del principio di causalit` a, oltre che, naturalmente, delle altre ipotesi (linearit` a, indipendenza dal tempo) viste nel § 4.13, ed anzi ne esprimono, grazie al Teorema di Titchmarsh, una formulazione equivalente. Il loro uso pi` u tipico `e legato al fatto che esse collegano strettamente fra loro due quantit` a fisicamente significative e misurabili, cio`e la parte reale χ  della permeabilit` a dielettrica, che `e legata all’indice di rifrazione del mezzo, e la parte immaginaria χ  , che `e proporzionale all’in√ √ dice di assorbimento. Infatti, come `e noto, si ha n = ε μ  ε e, posto    ε = ε  + i ε  , n = n + i n , si ha ε  = √ 1 + 4π χ , ε = 4π χ , e, se   l’assorbimento non `e troppo forte, n  ε , n  ε /2 n . D’altronde, l’andamento di un’onda piana di lunghezza d’onda λ0 (nel vuoto) che si propaga nel dielettrico lungo l’asse x `e del tipo ei k0 (x−v t) dove k0 = 2π/λ0 e   v = c/n  c/n − i c n /n 2 ; quindi si ha ei k0 (x−c t/n ) e−n α t , con α > 0 . Il Teorema di Titchmarsh pu`o anche servire, ad esempio, per controllare se un modello teorico obbedisce al principio di causalit` a. Vediamo ora alcune conseguenze che si possono trarre dalla (4.61). (1) Intanto, grazie alle (4.59), le (4.61) diventano anche χ  (ω) =

1 P π

 0

+∞

··· +

1 P π

χ  (ω) = −



2 P π

0

−∞

 0

··· =

+∞

ν2

2 P π

 0

+∞

ν χ  (ν) dν ν 2 − ω2 (4.61 )

ω χ  (ν) dν − ω2

che hanno il vantaggio, rispetto alle (4.61), di contenere integrali estesi alle sole frequenze “fisiche” ν ≥ 0 . (2) Un mezzo, trasparente in un certo intervallo di frequenze nel quale presenta il fenomeno della dispersione (cio`e il suo indice di rifrazione dipende dalla frequenza), `e necessariamente assorbente ( χ  = 0 ) in qualche altro intervallo di frequenza. Viceversa, tale assorbimento influenza l’andamento della dispersione anche fuori delle regioni di assorbimento.

χ (ω) χ (ω)

ω ω

Figura 4.3. Curve tipiche per la χ(ω) in presenza di un assorbimento.

4.15 Relazioni di dispersione di Kramers e Kronig

163

(3) Una curva tipica per χ  (ω) in vicinanza di una frequenza di assorbimento `e data in fig. 4.3 a sinistra. Usando la prima delle (4.61) – o delle (4.61 ) – si pu` o ricavare, almeno qualitativamente, l’andamento della χ  (ω) in corrispondenza della stessa regione di frequenze. Mediante semplici considerazioni sul segno dell’integrando nelle equazioni dette, si vede facilmente che il conseguente andamento della χ  (ω) `e del tipo indicato dalla fig. 4.3 a destra, che mostra la curva tipica della dispersione anomala . (4) Nelle regioni di trasparenza si ha χ  (ω)  0 , quindi nella prima delle (4.61) e delle (4.61 ) si pu` o togliere la P di Cauchy, poich´e il punto ν = ω cade appunto nella regione in cui χ  non contribuisce all’integrale. Derivando la prima delle (4.61 ) per ω reale positivo e ammettendo, come capita di regola, che χ  (ω) > 0 (infatti χ  `e proporzionale all’energia dissipata, che si manifesta come calore emesso, in accordo col secondo principio della termodinamica), si vede che dχ  >0 (4.62) dω cio`e nelle regioni di trasparenza l’indice di rifrazione cresce con la frequenza (dispersione normale ). (5) Ancora nelle regioni di trasparenza, con procedimento analogo a quello seguito sopra, si ottiene d (ω 2 χ  ) > 0 dω ma, essendo n 2  ε = 1 + 4π χ  , tale disuguaglianza diventa, per ω reali positivi dn 1 n + ω > · dω n Detta ora vg la velocit` a di gruppo dell’onda trasmessa, si ha 1 dk 1 d 

= = ω n (ω) vg dω c dω

da cui

vg < c n .

Analogamente la disuguaglianza (4.62) d` a vg
1  oppure n < 1; in ogni caso si conclude vg < c il che, come `e noto, `e un’altra espressione del principio di causalit` a. (6) Si supponga una zona di trasparenza compresa fra due frequenze ω1 e ω2 : se ω1 ! ω ! ω2 , si ha dalla prima delle (4.61 )  ∞  ω1 2 1 2 dν B   ν χ (ν) dν + χ  (ν) χ (ω)  − =A− 2 π ω2 0 π ω2 ν ω

164

Trasformate di Fourier e Laplace

con A, B positive. Questo risultato precisa il precedente (4.62). Se infine ω `e molto maggiore di tutte le frequenze di assorbimento, si ottiene χ  −

C , ω2

ossia

ε  1 −

4π C ω2

che `e l’andamento tipico che si ritrova nel caso dei gas fortemente ionizzati (plasmi).

4.16 Presenza di singolarit` a nella χ(ω) . Mezzi conduttori Vedremo ora un esempio fisicamente significativo in cui la funzione χ(ω) presenta una singolarit` a in ω = 0 per cui χ(ω) ∈ / L2 . Si supponga che il mezzo considerato sia anche conduttore: allora, quando `e sottoposto ad un campo elettrico E, esso viene percorso da una densit` a di corrente totale Jtot = σ E +

dP dPeff ≡ dt dt

dove si `e introdotta una grandezza efficace Peff per tener conto di entrambi gli effetti fisicamente inseparabili. Ne segue + σ E(ω) − i ω P+(ω) = −i ω P+eff (ω) e ponendo

+ P+eff (ω) = χ *(ω) E(ω)

si ricava

σ · ω In luogo di χ(ω) si pu` o quindi usare χ *(ω) , la quale presenta appunto un polo in ω = 0 . Per tale χ *(ω) , si pu` o ripetere il ragionamento fatto per ottenere la (4.61) con la differenza che ora bisogna modificare il percorso di integrazione introducendo un’altra semicirconferenza intorno al polo ω = 0 . Facendo tendere a zero il raggio di tale semicirconferenza si ottiene  +∞ 1 iσ πσ P χ *(ν) dν = π i +πi χ *(ω) = + iπ χ *(ω) −ω ω −∞ ν − ω χ *(ω) = χ(ω) + i

che `e l’analoga della (4.60). Questa tecnica di “isolare” dalla funzione le parti singolari si presta a varie generalizzazioni: “relazioni di dispersione sottratte”. Per esempio, quando la funzione non ha un “buon comportamento” all’infinito, si pu` o provare a sottrarne un termine (ad esempio una costante, oppure un polinomio).

4.17 Modello dell’elettrone legato elasticamente

165

4.17 Modello dell’elettrone legato elasticamente Uno dei pi` u semplici modelli microscopici per un dielettrico `e dato dal cosiddetto modello classico dell’elettrone legato elasticamente, nel quale si suppone che ogni elettrone (massa m, carica e) sia legato tramite una forza elastica al suo nucleo e sia pure soggetto ad un effetto di smorzamento (comprensivo di tutti gli effetti smorzanti: urti, irraggiamento etc.) semplicemente proporzionale alla velocit` a dell’elettrone stesso. Detto x(t) lo spostamento dell’elettrone dalla sua posizione di riposo, l’equazione di moto dell’elettrone sottoposto al campo elettrico E(t) di un’onda elettromagnetica incidente `e allora mx ¨ + β x˙ + k x = e E(t) del tutto simile all’equazione (4.4) studiata nei primi paragrafi di questo capitolo. Ne segue allora che la polarizzazione totale del mezzo in considerazione, se N `e il numero di elettroni contenuti nell’unit` a di volume, `e P (t) = N e x(t) e quindi, eseguita la trasformata di Fourier, se ne ricava per la χ(ω) la seguente espressione N e2 /m χ(ω) = 2 (4.63) ω0 − ω 2 − i γ ω ` assai dove ω02 = k/m `e la “frequenza propria” dell’elettrone e γ = β/m . E interessante ritrovare nella (4.63), come caso particolare, le propriet` a generali viste precedentemente, ivi comprese – per esempio – le relazioni (4.61), il comportamento della χ  (ω) nella zona di assorbimento (che `e situata intorno alla frequenza ω0 e che ha larghezza dell’ordine di γ ) e lontano da questa zona. Si noti pure che la funzione χ(ω) ora ottenuta presenta due poli nel semipiano complesso inferiore, conformemente al principio di causalit` a: se ω02 − γ 2 /4 ≡ a2 > 0 , i poli sono situati in ω± = ±a − i γ/2 e – come si verifica facilmente – la corrispondente funzione di Green ha andamento oscillante smorzato esponenzialmente; se invece ω02 − γ 2 /4 ≡ −α2 < 0 , i poli sono situati in ω± = −i (γ/2 ± α) e la funzione di Green ha andamento smorzato non oscillante. Pure smorzata non oscillante `e la funzione di Green nel caso ω0 = γ/2 , in cui la χ(ω) presenta un polo doppio in ω = −i γ/2 . Infine, nel caso limite in cui l’elettrone `e non legato (k = 0), si ha ω0 = 0 e quindi la χ(ω) data dalla (4.63) presenta un polo per ω = 0 (tipico dei conduttori, come si `e visto) ed uno per ω = −i γ ; se anche γ  0 (elettrone libero, come avviene nei plasmi) si riottiene per la χ(ω) l’andamento previsto per questa situazione nel § 4.15. Terminiamo questo paragrafo indicando un altro esempio semplice di modello per la polarizzazione di un dielettrico: si tratta del cosiddetto “modello viscoso” che `e per`o di natura diversa dal precedente, in quanto non microscopico. Si parte infatti assegnando la funzione di Green nella forma G(t) =

χ0 −t/τ θ(t) e τ

166

Trasformate di Fourier e Laplace

dove χ0 e τ sono costanti, il che corrisponde ad un andamento della polarizzazione che si avvicina esponenzialmente al suo valore asintotico P0 = χ0 E0 “statico”. Anche qui `e facile ritrovare nuovamente le propriet` a generali previste dalla teoria sopra esposta.

4.18 Trasformata di Laplace: prime propriet` a Passiamo ora a definire la trasformata di Laplace : si tratta di una tecnica che, per certi aspetti, generalizza la trasformata di Fourier ed `e assai interessante sia per le sue propriet` a intrinseche che per le sue applicazioni anche elementari (per esempio alla risoluzione dei circuiti elettrici). Applicheremo la trasformata di Laplace soltanto alle funzioni f (x) che sono localmente sommabili, cio`e sommabili su ogni intervallo finito, e inoltre tali che f (x) = 0 per x < 0. (4.64) Quindi, parlando di trasformata di Laplace, sottintenderemo sempre che queste ipotesi siano soddisfatte. Anzi, per semplificare e chiarire fin d’ora le notazioni, precisiamo che quando nel seguito scriveremo – per esempio – f (x) = cos x , intenderemo sempre riferirci alla funzione cos`ı definita 0 per x 0. Indichiamo con s una variabile complessa e consideriamo la funzione f (x) e−s x

(4.65)

dove f (x) soddisfa alle ipotesi indicate. Per tutti i valori di s per i quali la (4.65) risulta sommabile rispetto a x, l’integrale  ∞ f (x) e−s x dx 0

definisce quindi una funzione della variabile s che si chiama trasformata di Laplace della funzione f (x) e si indica con  ∞

L f (x) = F (s) ≡ f (x) e−s x dx = f*(s) . (4.66) 0 

Anzitutto, essendo |f (x) e−s x | = |f | e−s x , dove si `e posto s = Re s , si nota che la sommabilit` a della (4.65) dipende solo dalla parte reale di s. Inoltre, se la (4.65) `e sommabile per un certo valore di s, essa `e sommabile per ogni s1 tale che Re s1 > Re s ; infatti |f (x) e−s1 x | = |f | e−(Re s1 ) x ≤ |f | e−(Re s) x

4.18 Trasformata di Laplace: prime propriet` a

167

e la sommabilit` a di f (x) e−s1 x segue da una propriet` a ricordata nel § 2.8. Ne viene di conseguenza che esister`a un numero reale λ0 con la propriet` a che quando s `e tale che Re s > λ0 la (4.65) `e sommabile, e quando invece Re s < λ0 non `e sommabile. Tale numero λ0 si chiama ascissa di sommabilit` a o ascissa di convergenza della trasformata di Laplace della funzione f (x) . Il semipiano formato dai numeri s tali che Re s > λ0 si chiama semipiano di convergenza della trasformata. L’ascissa di convergenza λ0 dipende ovviamente dalla funzione f e pu` o essere espressa da un qualsiasi numero reale, eventualmente uguale a +∞ , nel qual caso la f non ammette trasformata di Laplace, o a −∞ , nel qual caso l’intero piano complesso s `e piano di convergenza per la trasformata (4.66). ` molto utile, per determinare la trasformabilit` E a di una funzione f (x) e il relativo semipiano di convergenza, il seguente Criterio di trasformabilit` a: Data f (x), se esistono tre costanti reali x0 ≥ 0, M > 0, k tali che |f (x)| ≤ M ek x

per ogni

x ≥ x0

(4.67)

allora la trasformata di Laplace della f esiste certamente in tutto il semipiano complesso tale che Re s > k (cio`e si ha λ0 ≤ k ). Dimostrazione. Scrivendo  ∞  x0  ∞ |f (x) e−s x | dx = ··· + ··· 0

0

x0

il primo degli integrali al secondo membro esiste grazie all’ipotesi di sommabilit` a locale; per quanto riguarda il secondo, si ha, grazie all’ipotesi, |f (x) e−s x | = |f | e−s



x



≤ M e−(s −k) x

e l’ultimo termine, per s = Re s > k , `e chiaramente sommabile tra x0 e ∞ ; quindi `e sommabile anche il primo membro, grazie a una propriet` a gi` a ricordata.

Da quanto detto, si ricava facilmente, p.es., che le funzioni xα (α > −1) ammettono trasformata di Laplace con ascissa λ0 = 0. Diamo ora alcune propriet` a della trasformata di Laplace. (1) La trasformata di Laplace `e una trasformazione lineare. (2) Indichiamo qui con 0 per xa la “funzione gradino” o funzione di Heaviside (gi` a introdotta nel § 4.9 con il simbolo θ(x − a) pi` u spesso usato in fisica). Si ha subito  ∞

e−s x ∞ e−a s L H(x − a) = e−s x dx =  = −s a s a

168

Trasformate di Fourier e Laplace

dove l’ultimo passaggio `e lecito solo se Re s > 0 , e quindi si ha λ0 = 0 . In particolare si ha L H(x) = 1/s . (3) Teoremi di traslazione

(i) Sia L f (x) = f*(s) con ascissa di convergenza λ0 ; allora  ∞



L ec x f (x) = f (x) e−(s−c) x dx = Ls−c f (x) = f*(s − c) 0



inoltre, dovendo essere Re (s − c) > λ0 , ne segue che l’ascissa di L ec x f (x) `e data da λ0 + Re c . Per esempio L(ec x ) =

1 s−c

con

λ0 = Re c



1  1 1  ω L sin(ω x) = con − = 2 2i s − i ω s + i ω s + ω2  ∞

f (x − a) e−s x dx = (ii) L f (x − a) H(x − a) = a  ∞

 f (x ) e−s x e−s a dx = e−s a L f (x) . =

λ0 = 0 .

a

Per esempio, sia f (x) =

sin x 0

per 0≤x≤π altrove ,

allora si pu` o scrivere



L f (x) = L sin x − H(x − π) sin x =

1 + e−π s = L sin x + H(x − π) sin(x − π) = 1 + s2 e l’ascissa di questa trasformata `e λ0 = −∞ , poich´e se una funzione f (x) `e diversa da zero soltanto in un intervallo finito, allora evidentemente f (x) e−s x risulta sommabile per ogni valore di s. Questo risultato `e d’altronde in accordo col criterio (4.67). (4) Ricordando la definizione (4.27) di prodotto di convoluzione f1 ∗f2 di due funzioni, si vede che se le due funzioni soddisfano alla (4.64), tale prodotto diventa  +∞  +∞ (f1 ∗ f2 )(x) = f1 (x − y) f2 (y) dy = f1 (x − y) f2 (y) dy = −∞



0



x

f1 (x − y) f2 (y) dy =

= 0

x

f1 (t) f2 (x − t) dt 0

poich´e f2 (y) = 0 per y < 0 e f1 (x − y) = 0 per x − y < 0 . Naturalmente si pone f1 ∗ f2 = 0 per x < 0 . Si verifica immediatamente che si ha

4.19 Olomorfia della trasformata di Laplace

L(f1 ∗ f2 ) = L(f1 ) L(f2 ) = f*1 (s) f*2 (s)

169

(4.68)

che in particolare permette di estendere alla trasformata di Laplace il formalismo e l’interpretazione fisica delle funzioni di Green v. anche il seguente

punto (6) . Una utile conseguenza della (4.58) `e la seguente:  L 0

x

 1 f (t) dt = L(f ∗ H) = L(f ) . s

(4.69)

(5) Si potrebbe pure dimostrare che lim

Re s→+∞

L(f ) = 0 .

(4.70)

` anche possibile definire la trasformata di Laplace della distribuzione (6) E δ(x − a), (a ≥ 0): utilizzando p.es. un procedimento simile a quello che ha condotto alla sua trasformata di Fourier (4.52) e (4.55), si ottiene

L δ(x) = 1 (4.71)

e pi` u in generale L δ(x − a) = e−sa .

4.19 Olomorfia della trasformata di Laplace Sia f (x) una funzione e sia λ0 l’ascissa di convergenza della sua trasformata ` assai notevole il seguente: di Laplace F (s) . E Teorema: La trasformata di Laplace F (s) `e una funzione olomorfa nel suo semipiano di convergenza Re s > λ0 . Dimostrazione. Proviamo intanto che per ogni numero intero n = 1, 2, · · · , anche la funzione xn f (x) `e trasformabile per ogni s con Re s > λ0 . Fissato infatti un intero n e preso comunque un  > 0 , si ha xn < e x per ogni x ≥ x0 , dove x0 `e sufficientemente grande. Nell’intervallo [0, x0 ] la funzione xn f (x) e−s x `e sommabile grazie alla solita ipotesi di sommabilit` a locale della f , mentre per x ≥ x0 si ha |xn f (x) e−s x | ≤ |e−(s−) x f (x)| e quindi la stessa funzione `e certamente sommabile per ogni s tale che Re (s − ) > λ0 , cio`e Re s > λ0 +  ; d’altronde  pu` o essere preso arbitrariamente piccolo. Esattamente come si `fatto altre volte, calcoliamo ora il rapporto incrementale di F (s)  ∞ −σ x F (s + σ) − F (s) e − 1 −s x f (x) dx = e σ σ 0

170

Trasformate di Fourier e Laplace

dove σ `e un incremento complesso della variabile s, ed eseguiamo il limite σ → 0 . Tale limite esiste certamente ed anzi si pu`o dimostrare che esso pu`o essere calcolato eseguendo la derivazione sotto il segno di integrale, se s `e un qualsiasi punto all’interno del semipiano di convergenza della F (s) : in tal caso infatti, per quanto visto sopra, la funzione xn f (x) e−s x risulta sommabile. Ne risulta quindi che la funzione F (s) `e olomorfa in tutto il semipiano di convergenza, essendo ivi derivabile. Si ha inoltre  ∞



dF − x f (x) e−s x dx = L − x f (x) = ds 0 e pi` u in generale, iterando il ragionamento,

dn F = (−1)n L xn f (x) . dsn



(4.72)

Pi` u esattamente, `e proprio la singolarit` a nel piano complesso s con la parte reale pi` u grande a fissare l’ascissa di convergenza λ0 . Una immediata conseguenza della (4.75) `e, ad esempio,

n! L(xn ) = L xn H(x) = n+1 · s da cui anche L(xn ec x ) =

(4.73)

n! (s − c)n+1

(4.74)

` facile ricavare anche le formule “simmetriche” della (4.75) per ottenere E la trasformata di Laplace delle derivate di una funzione f (x) . Supponiamo infatti che la funzione f (x) sia derivabile e che anche la sua derivata f  (x) sia localmente sommabile; supponiamo inoltre che, per un certo valore di s, entrambe le funzioni e−s x f (x) e e−s x f  (x) siano sommabili; si ha allora  ∞ 



L f (x) = f  (x) e−s x dx = −f (0) + s L f (x) (4.75) 0

avendo integrato per parti e dove, naturalmente, si intende f (0) = lim+ f (x) . x→0

Pi` u in generale



L f (n) (x) = sn L f (x) − sn−1 f (0) − sn−2 f  (0) − · · · − f (n−1) (0) . (4.76) Dall’espressione della trasformata della derivata prima, ricordando la propriet` a (5) del precedente paragrafo, si ha il cosiddetto Teorema del valore iniziale : f (0+ ) = lim f (x) = + x→0

lim s L(f )

Re s→∞

che permette di ottenere direttamente f (0+ ) dalla L(f ) .

(4.77)

4.20 Inversione della trasformata di Laplace

171

4.20 Inversione della trasformata di Laplace Come si `e gi`a visto nel caso della trasformata di Fourier, affinch´e un problema concreto possa essere completamente risolto tramite la trasformata di Laplace, `e necessario anche saper “invertire” la trasformata, cio`

e, assegnata una funzione F (s) , trovare la funzione f (x) tale che L f (x) = F (s) . Prima di dare la formula generale, notiamo che – come gi` a visto in occasione della trasformata di Fourier – in molti casi abbastanza comuni il calcolo della antitrasformata di Laplace si pu` o effettuare immediatamente: se infatti la funzione F (s) da antitrasformare `e un rapporto di polinomi F (s) = P (s)/Q(s), basta trasformare tale rapporto in una combinazione di “frazioni semplici” 1/(s − k)m e tener conto della (4.74) si ricordi che, grazie alla (4.70), il grado di P (s) deve essere inferiore al grado di Q(s); se questo non avviene, significa che la F (s) contiene anche la trasformata di qualche distribuzione come la δ(x): v. infatti la (4.71) e anche il § 5.6 (vi) . Se poi compaiono nella F (s) anche fattori della forma e−as , baster` a ricordarsi del teorema di traslazione visto nel § 4.18. Una formula generale per l’antitrasformata di Laplace pu` o essere ottenuta utilizzando le formule note per le trasformate di Fourier nel modo seguente. Data una funzione f (x) , la sua trasformata di Laplace pu` o essere scritta – avendo posto s = s + i s , con s > λ0 – nella forma  ∞

   F (s) = f (x) e−s x e−i s x dx = F(−s ) e−s x f (x) 0

dove F(−s ) indica la trasformata di Fourier, nella variabile ω = −s , della  funzione e−s x f (x) . Dalla formula per l’antitrasformata di Fourier se ne ricava  +∞  1 −s x e f (x) = F (s , s ) ei s x ds 2π −∞ da cui anche, essendo s = s + i s , f (x) =

1 2π i



a+i ∞

F (s) es x ds

(4.78)

a−i ∞

dove l’integrale `e eseguito lungo una retta “verticale” di ascissa a > λ0 (il risultato non dipende dalla scelta di a, per l’olomorfia di F (s) nel semipiano s > λ0 ). L’integrale stesso pu` o essere poi calcolato esplicitamente utilizzando i vari risultati noti per l’integrazione nel piano complesso. In particolare, per x < 0 , un’ovvia generalizzazione del lemma di Jordan mostra che richiudendo il cammino di integrazione con una semicirconferenza di raggio R nel semipiano Re s > 0 il contributo dell’integrale su questa semicirconferenza tende a zero quando R → ∞ ; di conseguenza si ottiene che f (x) = 0 per x < 0 , come doveva essere.

172

Trasformate di Fourier e Laplace

4.21 Alcune osservazioni sulla trasformata di Laplace Osserviamo innanzitutto che, se una funzione f (x) soddisfa alla (4.64) e inoltre appartiene ad L1 , `e possibile calcolarne sia la trasformata di Fourier f+(ω) mediante l’integrale (4.22) 13 , che la trasformata di Laplace f*(s) mediante l’integrale (4.66). Ma si nota che in tal caso questi due integrali sono del tutto simili, l’unica differenza essendo la sostituzione della variabile complessa s nel secondo con la variabile puramente immaginaria −i ω nel primo. Pertanto, se l’ascissa di convergenza λ0 della L-trasformata `e negativa e quindi il semipiano di convergenza contiene l’asse immaginario, la trasformata di Fourier f+(ω) `e ottenuta da quella di Laplace f*(s) semplicemente sostituendo in quest’ultima la variabile s con −i ω, cio`e F(f ) = f+(ω) = L(s=−i ω) (f ) = f*(−iω) . Reciprocamente, sempre nel caso che f (x) soddisfi la (4.64), la sua F- trasformata f+(ω) , quando si consideri ω come variabile complessa, si pu` o naturalmente intendere come trasformata di Laplace: ne viene allora che f+(ω) sar` a una funzione olomorfa nel semipiano di convergenza Re (−i ω) > λ0 cio`e nel semipiano Im ω = ω  > λ0 . Per esempio, nel § 4.14 abbiamo provato che se la funzione di Green G(t) di un sistema lineare causale soddisfa la condizione + G(t) ∈ L2 , allora G(ω) `e olomorfa in tutto il semipiano complesso superiore,

* dunque G(s) = L G(t) avr` a in tal caso λ0 ≤ 0 ; alla stessa conclusione si giunge se si fa l’ipotesi che la G(t) per t → +∞ sia “meno divergente di

qualsiasi esponenziale e|k|t ” nel senso preciso del criterio (4.67) . In pratica, l’uso della L-trasformata in luogo della F-trasformata risulter` a ovviamente utile quando la funzione in esame non ammette F-trasformata (nemmeno nell’ambito delle distribuzioni, v. il Cap. 5), ma pu` o essere anche conveniente nei casi in cui la F-trasformata risulta complicata e semprech´e

la (4.64) sia soddisfatta . Ad esempio, possiamo facilmente trovare come il “modello viscoso” di un dielettrico, presentato alla fine del § 4.17, risponde ad un campo elettrico “a scalino” E(t) = E0 θ(t) : si trova facilmente che la risposta `e P (t) = χ0 E0 θ(t) (1 − e−t/τ ) , il che conferma per questo modello una polarizzazione che tende asintoticamente al suo valore statico P0 = χ0 E0 . Un altro esempio significativo `e il seguente: sia f (x) una

funzione periodica nel senso che, per ogni x ≥ 0 , si ha f (x + T ) = f (x) . Detta  F0 (s) =

T

f (x) e−s x dx ,

0

la L-trasformata della funzione ristretta all’intervallo [0, T ] , le L-trasformate delle funzioni ristrette ai successivi intervalli, grazie al secondo teorema di 13

Si intende naturalmente che, se f ∈ L2 ma f ∈ / L1 , l’integrale (4.22) va inteso nel senso (4.44).

4.21 Alcune osservazioni sulla trasformata di Laplace

173

` facile concludere che traslazione, risultano e−s T F0 (s), e−2s T F0 (s), · · · . E la trasformata di Laplace di una qualsiasi funzione periodica f (x) ha la seguente particolare espressione L(f ) = F (s) =

1 F0 (s) , 1 − e−s T

Re s > 0 ,

λ0 = 0

dove F0 (s) `e definita nella formula precedente. Ricordiamo l’applicazione allo studio dei circuiti elettrici: ad esempio l’equazione del circuito “serie RLC”  dI 1 t   R I(t) + L I(t ) dt = V (t) + dt C 0 diventa mediante trasformata di Laplace, se I(0) = 0, e grazie anche alle (4.69,72), 



1  R + sL + L I(t) = L V (t) Cs e quindi



L V (t) 1 , Z(s) = R + s L + L I(t) = Z(s) Cs che riconduce la ricerca della risposta I(t) ad una data tensione V (t) al calcolo * di un’antitrasformata di Laplace. Posto G(s) = 1/Z(s), si ottiene * * V* (s) ovvero I(t) = G(t) ∗ V (t) I(s) = G(s) (4.79)

* , che chiaramente mostra l’applicazione della nozione con G(t) = L−1 G(s) di funzione di Green alla trasformata di Laplace. Pi` u in generale, la trasformata di Laplace pu` o risultare utile nella risoluzione di equazioni differenziali lineari a coefficienti costanti, omogenee o non, cio`e del tipo an y (n) + an−1 y (n−1) + · · · + a1 y  + a0 y = f (x)

(4.80)

in cui f (x) `e una funzione assegnata soddisfacente la (4.64) e sono inoltre assegnate le condizioni iniziali y(0), y  (0), · · · , y (n−1) (0) (si tratta quindi di un tipico “problema di Cauchy”). Calcolando la trasformta di Laplace di entrambi i membri dell’equazione differenziale data (4.80) e tenendo conto della (4.76), l’equazione stessa

si trasforma in un’equazione algebrica per la trasformata Y (s) = L y(x) della soluzione cercata y = y(x) : (an sn + an−1 sn−1 + · · · + a0 ) Y (s) + − an sn−1 y(0) − an−1 sn−2 y  (0) − · · · − a1 y(0) = f*(s) .

(4.81)

Il problema di calcolare y = y(x) `e dunque anche qui ricondotto al calcolo di un’antitrasformata di Laplace. Un vantaggio di questo procedimento

174

Trasformate di Fourier e Laplace

sta nel fatto che la soluzione y(x) che si trova in questo modo soddisfa automaticamente alle condizioni iniziali y(0), y  (0), · · · , y (n−1) (0) assegnate. Un’altra propriet` a dei procedimenti basati sull’uso della trasformata di Laplace `e che essi sono applicabili anche se la funzione f (x) a secondo membro della (4.80) `e una funzione non continua (purch`e – ovviamente – L-trasformabile). Si pu` o notare, a questo proposito, che se la funzione f (x) `e discontinua, per esempio nel punto x0 , allora l’esistenza ed unicit` a della soluzione `e in realt` a garantita dai teoremi dell’analisi elementare solo localmente. Un esempio semplicissimo illustra la situazione. Sia  1 per 0 0, l’integrale, certamente convergente  ∞ Γ (z) = tz−1 e−t dt (4.83) 0

che definisce dunque una funzione, detta Gamma di Eulero, olomorfa almeno nel semipiano Re z > 0 , come si verifica con i soliti procedimenti (limite del rapporto incrementale, etc.). Si osservi intanto che Γ (n + 1) = n! per ogni numero intero n ≥ 0; inoltre, mediante integrazione per parti, si ottiene dalla (4.83) Γ (z + 1) = z Γ (z) che dunque generalizza la propriet` a caratteristica del fattoriale n!. Ne segue in particolare che deve essere per ogni n ≥ 0, z(z + 1) · · · (z + n) Γ (z) = Γ (z + n + 1) e dunque Γ (z) (o meglio il suo prolungamento analitico al semipiano Re z ≤ 0) deve presentare un polo di ordine uno in ciascun punto z = −n con residuo dato da (−1)n /n! . Si potrebbe poi provare che la funzione Γ (z) non ha altre singolarit` a al finito e che non ha zeri. Fra le altre numerose e importanti propriet` a della Γ di Eulero, segnaliamo le seguenti, che si ottengono facilmente mediante cambiamenti di variabile nella definizione (4.83): √ Γ 12 = π e la trasformata di Laplace valida per qualsiasi numero reale α > −1 L(xα ) =

Γ (α + 1) sα+1

che generalizza la (4.73); dunque in particolare

176

Trasformate di Fourier e Laplace

 1  π = L √ , s x

√ 1 L( x) = 2s



π · s

(2) Se si applica la trasformata di Laplace

all’equazione di Bessel (2.79) nel caso m = 0 , ponendo Y0 (s) = L J0 (x) , e si utilizzano insieme le formule (4.72) e (4.76), si ottiene per Y0 (s) un’equazione differenziale di primo grado con soluzione immediata la costante arbitraria si determina facilmente

ricordando il teorema del valore iniziale (4.77) e che J0 (0) = 1, v. § 2.22, (4) :

1 · Y0 (s) = L J0 (x) = √ s2 + 1 Pi` u in generale, si trovano le seguenti trasformate di Laplace per le funzioni di Bessel Jm (x) :

1 1 √

m · L Jm (x) = √ s2 + 1 s + s2 + 1

4.23 Applicazioni alle equazioni alle derivate parziali Utilizzando le trasformate di Fourier e/o di Laplace si possono studiare e risolvere importanti problemi riguardanti equazioni alle derivate parziali, come gli esempi seguenti mostrano chiaramente. (a) Utilizzando la trasformata di Fourier, si possono trattare, fra gli altri, problemi di propagazione del calore riguardanti l’intera retta, cio`e casi in cui nell’equazione del calore (§ 2.5) la variabile x si muove su tutto R . Se, per esempio, si vuole risolvere il classico “problema di Cauchy”, cio`e, conoscendo la distribuzione delle temperature all’istante iniziale t = 0: u(x, 0) = f (x) ,

x∈R

si vuole ricavare l’evoluzione temporale u(x, t) delle temperature, si pu` o introdurre la seguente trasformata di Fourier rispetto alla variabile x, in cui ora t viene trattato come parametro:  +∞ u +(k, t) = u(x, t) ei k x dx . (4.84) −∞

Allora (ammettendo lecita la derivazione sotto l’integrale – questa possibilit` a pu` o essere provata rigorosamente) l’equazione del calore diventa un’equazione differenziale ordinaria d+ u + = −C k 2 u dt che, risolta con la condizione iniziale assegnata, d` a 2 u +(k, t) = f+(k) e−C k t .

(4.85)

4.23 Applicazioni alle equazioni alle derivate parziali

177

` importante sottolineare che la soluzione u(x, t) del problema pu` E o essere messa nella forma di prodotto di convoluzione 2

u(x, t) = f (x) ∗ G(x, t)

dove

G(x, t) =

e−x /4C t √ 2 πCt

(4.86)

oppure (pi` u semplicemente, almeno per quanto riguarda in genere i calcoli necessari) ricavata direttamente dalla (4.85) mediante antitrasformata di Fourier. Naturalmente, la funzione G(x, t) nella (4.86), che pu` o essere vista come la funzione di Green del problema, descrive la distribuzione delle temperature lungo la retta se la condizione iniziale `e f (x) = δ(x) 14 . Dalla (4.85) si ricava per esempio che, se f (x) ∈ L2 (R) , la u(x, t) `e – come gi`a avviene nel caso di propagazione su intervalli finiti (v. § 2.14) – una funzione limitata e C ∞ , sia rispetto ad x che rispetto a t, per ogni t > 0 : basta osservare che, per 2 ogni n, si ha f+(k) k n e−C k t ∈ L1 (R), infatti . . . (ma la stessa conclusione `e valida anche assai pi` u in generale, ad esempio basta che f+(k) sia limitata, oppure maggiorata da un polinomio). (b) In questo esempio la trasformata di Fourier viene applicata all’equazione di Laplace bidimensionale (cf. § 2.23) Δu = 0 ,

u = u(x, y)

(4.87)

nel semipiano y > 0 con la condizione al bordo assegnata u(x, 0) = F (x) . Eseguendo la trasformata di Fourier rispetto alla variabile x, l’equazione alle derivate parziali (4.87) diventa anche in questo caso un’equazione differenziale ordinaria: + d2 u −k 2 u +(k, y) + 2 = 0 dy la cui soluzione si pu` o scrivere nel seguente modo pi` u conveniente u +(k, y) = A(k) e|k| y + B(k) e−|k| y . La condizione di limitatezza per la soluzione nel semipiano y > 0 impone

che sia A(k) = 0 , mentre la condizione al bordo implica B(k) = F F (x) = F+(k) . Si recupera cos`ı l’unicit` a della soluzione e il problema `e ricondotto al calcolo dell’antitrasformata di u +(k, y) = F+(k) e−|k|y . 14

Si noti che, essendo tali temperature diverse da zero in ogni punto x ∈ R anche per tempi t vicini quanto si vuole all’istante iniziale t = 0 , ne risulta che l’equazione del calore prevede una propagazione “istantanea” (certamente non realistica) del calore lungo la retta.

178

Trasformate di Fourier e Laplace

Si ritrova dunque, come nel caso (a), che la soluzione u(x, y) si presenta nella forma di un prodotto di convoluzione. In questo modo si `e risolto il problema di Dirichlet per il semipiano (cf. § 2.23 e v. anche i §§ 3.14, 5.10, specie per quanto riguarda la unicit` a o non unicit` a della soluzione). Naturalmente, utilizzando la tecnica delle trasformazioni (§ 3.14), `e possibile risolvere il problema di Dirichlet per ogni regione che sia trasformabile nel semipiano tramite una trasformazione conforme. Ricordando che la trasformazione (3.57) trasforma il cerchio nel semipiano e viceversa, `e un utile esercizio confrontare le soluzioni ottenute con il metodo della trasformata di Fourier esposto qui sopra con il metodo visto nel § 2.23. (c) Infine una applicazione della trasformata di Laplace ad un’equazione alle derivate parziali. Si consideri l’equazione di d’Alembert per la corda elastica in 0 ≤ x ≤ L (con v = 1) ∂2u ∂2u − 2 + f (x, t) = 0 (4.88) ∂x2 ∂t in cui si `e aggiunto un termine non omogeneo che descrive la possibile presenza di una forza esterna assegnata f = f (x, t) . Ponendo  ∞ u *(x, s) = u(x, t) e−s t dt (4.89) 0

cio`e eseguendo questa volta la trasformata di Laplace rispetto alla variabile t, si ha, ricordando le (4.76) * d2 u − s2 u * = −s u(x, 0) − ut (x, 0) − f*(x, s) (4.90) dx2 dove u(x, 0), ut (x, 0) sono le funzioni che descrivono la configurazione iniziale della corda (v. § 2.4) ed f*(x, s) `e la L-trasformata della f (x, t) . Ancora una volta si ottiene una equazione differenziale ordinaria, in cui ora s compare come un parametro. La soluzione sar` a dunque della forma u *(x, s) = A(s) ex s + B(s) e−x s + Φ(x, s) . Per determinare le funzioni A(s) e B(s) occorre dare le condizioni agli estremi x = 0 e x = L. Oltre alla condizione pi` u semplice u *(0, s) = u *(L, s) = 0 corrispondente alla corda con estremi fissi, si pu` o pi` u in generale ammettere che uno o entrambi gli estremi siano sottoposti ad un movimento assegnato: u(0, t) = φ0 (t) , In tal caso si dovr` a porre

u *(0, s) = L φ0 (t) = φ*0 (s) ,

u(L, t) = φ1 (t) .

u *(L, s) = L φ1 (t) = φ*1 (s) .

Il metodo si pu` o generalizzare facilmente al caso in cui, ad esempio, la corda sia illimitata, con un estremo in x = 0 e l’altro all’infinito: in questo caso occorrer`a imporre qualche condizione al secondo estremo, per esempio che la soluzione u(x, t) si mantenga limitata, per ogni t, per x → +∞.

5 Elementi di teoria delle distribuzioni

5.1 Distribuzioni temperate Ci limiteremo per il momento a considerare funzioni di una sola variabile reale x; tutte le definizioni e i risultati che vedremo si possono immediatamente estendere a funzioni di pi` u variabili. Si indica con S lo spazio vettoriale costituito dalle funzioni ϕ = ϕ(x) che sono infinitamente derivabili e che sono inoltre a decrescenza rapida con tutte le loro derivate, cio`e tali che, per ogni h, k numeri interi fissati, si ha  dk ϕ   sup xh  < +∞ . dxk x∈R Sia {ϕn } una successione di funzioni di S; si introduce la seguente nozione di convergenza in S: si dice che {ϕn } → 0 in S se, per ogni h, k fissati, si ha che xh

d k ϕn →0 dxk

per

n → ∞,

uniformemente .

Si dir` a naturalmente che ϕn → ϕ in S se (ϕn − ϕ) → 0 in S 1 . Le funzioni ϕ ∈ S si chiamano funzioni test o funzioni di prova. Si dicono distribuzioni temperate i funzionali lineari e continui di S in C, cio`e le applicazioni T : S → C dello spazio S nello spazio dei numeri complessi, che sono lineari rispetto alla struttura di spazio vettoriale in S e continue rispetto alla convergenza appena introdotta in S, ovvero tali che T (ϕn ) → T (ϕ)

se

ϕn → ϕ

in S .

L’insieme delle distribuzioni temperate viene indicato con S  ed `e lo spazio duale di S. Mentre il duale di uno spazio di Hilbert `e isomorfo allo spazio 1

Con questa “topologia”, cio`e con questa nozione di convergenza, lo spazio S risulta completo.

180

Teoria delle distribuzioni

stesso (v. il § 2.25), lo spazio S  `e uno spazio assai “esteso”, come vedremo subito. In luogo di T (ϕ) , useremo spesso la notazione  T , ϕ  , che apparir` a presto pi` u comoda. Esempi di distribuzioni (1) Sia u = u(x) una qualsiasi funzione localmente sommabile u ∈ L1loc (R) (cio`e sommabile su ogni compatto), e limitata: l’integrale  +∞ u(x) ϕ(x) dx −∞

esiste per ogni ϕ ∈ S ed `e un funzionale lineare di S in C. Inoltre, se ϕn → ϕ in S, si ha certamente  +∞   +∞    

  ϕn (x) − ϕ(x) dx → 0 . u(x) ϕn (x) − ϕ(x) dx ≤ sup u(x)  −∞

x∈R

−∞

Infatti |ϕn (x) − ϕ(x)| possono sicuramente essere maggiorate da una funzione sommabile, grazie alla loro decrescenza rapida dunque ϕn (x) risultano

convergenti a ϕ(x) anche in senso L2 (R) , allora tale funzionale `e continuo e definisce una distribuzione temperata che possiamo indicare con Tu ∈ S  :  +∞ u(x) ϕ(x) dx =  Tu , ϕ  (5.1) Tu (ϕ) = −∞

e chiamare distribuzione associata alla funzione u(x) , o distribuzione con densit` a u(x) . La stessa conclusione vale se u(x) ∈ L1 (R) , grazie ancora al teorema di Lebesgue; vale anche se u(x) ∈ L2 (R) , poich´e in tal caso  Tu , ϕ  diventa proprio un prodotto scalare in L2 e la convergenza in S implica certamente la convergenza debole in L2 . E ancora, `e facile vedere che anche se u(x) `e un polinomio, la (5.1) definisce correttamente una distribuzione. In questo senso, possiamo dire che le funzioni limitate localmente sommabili, le funzioni L1 o L2 e i polinomi formano un “sottoinsieme” delle distribuzioni S  . Con un piccolo abuso di notazione, invece di  Tu , ϕ  nella (5.1), si usa anche scrivere  u , ϕ , “confondendo” la funzione u(x) con la distribuzione Tu ad essa associata. (2) Si indica con δx0 o con δ(x − x0 ) e si chiama delta di Dirac (nel punto

x0 ) la distribuzione cos`ı definita v. i §§ 4.11,12 e in particolare la (4.54)  δx0 , ϕ  = ϕ(x0 )

(5.2)

che `e evidentemente un funzionale lineare e continuo 2 . In base all’analogia con la (5.1), si scrive usualmente la (5.2) nel modo improprio ma espressivo 2

Come si spiega che il funzionale Φ(f ) = f (a) non `e continuo, n`e chiuso, in L2 (v. i §§ 2.25, 2.27) mentre la δ `e un funzionale continuo in S  ?

5.2 Convergenza “debole” fra distribuzioni

  δx0 , ϕ  =

+∞

−∞

δ(x − x0 ) ϕ(x) dx = ϕ(x0 )

181

(5.2 )

La δx0 `e una distribuzione “singolare”, cio`e non `e associata a nessuna funzione u(x). (3) Sia T ∈ S  una qualsiasi distribuzione e P (x) un polinomio: allora si vede subito che anche P (x) T ∈ S  ; infatti basta porre, grazie al fatto che pure P (x) ϕ(x) ∈ S ,  P (x) T , ϕ  =  T , P (x) ϕ  .

5.2 Convergenza “debole” fra distribuzioni Sia Tn una successione di distribuzioni di S  . Si dice che Tn converge a T ∈ S  se  Tn , ϕ  →  T , ϕ  ∀ϕ ∈ S . (5.3) Questa (fondamentale) nozione di convergenza “ in S  ” (chiamata anche “convergenza debole”) “include” come caso particolare molte altre nozioni di convergenza: per esempio, se un (x) `e una successione di funzioni di L2 convergente ad u(x) nel senso della norma L2 , oppure anche nel senso della convergenza debole in L2 , `e immediato verificare che la successione delle distribuzioni associate Tun `e anche S  -convergente a Tu . Ovviamente la stessa conclusione sussiste se un (x) ∈ L1 e un (x) → u(x) puntualmente quasi ovunque ed `e soddisfatta la condizione di “convergenza dominata” di Lebesgue (2.27). Anche pi` u importante `e osservare che si ha ancora Tun → Tu in senso S  se le un (x) convergono puntualmente quasi ovunque ad u(x), sono localmente sommabili e sono limitate: |un (x)|, |u(x)| < M (in realt` a basta siano “non troppo divergenti” per |x| → ∞ , cio`e siano maggiorate da un polinomio): infatti, per ogni funzione test ϕ ∈ S , si ha     Tu (ϕ) − Tu (ϕ) =  n

+∞

−∞

  (un − u) ϕ dx → 0

dato che, certamente, in queste ipotesi, |(un − u) ϕ| pu` o essere maggiorato da una funzione in L1 . Ma la convergenza in S  si verifica anche in situazioni “nuove”: per esempio, le funzioni fτ (x) definite nei §§ 4.11,12, pur non essendo convergenti puntualmente in tutti i punti x ∈ R (n´e in senso L1 , n´e L2 ), tuttavia individuano delle distribuzioni Tfτ che convergono in senso S  alla δ(x) ovvero

` da alla δ(x − a) , come si vede applicando precisamente la definizione (5.3). E sottolineare che in questo modo si ripete esattamente il procedimento seguito nei §§ 4.11,12: questo `e dunque il significato preciso del modo “empirico” usato per “definire” la δ. Si verifica anche facilmente che, p.es.,

182

Teoria delle distribuzioni

un (x) =

2 1 uε (x) = √ e−x /ε πε

1 n , π (1 + n2 x2 )

tendono entrambe, rispettivamente per n → ∞ e per ε → 0, alla δ(x) per le un (x) basta scrivere esplicitamente un , ϕ, eseguire il cambiamento di variabile y = nx ed applicare il teorema di Lebesgue; analogo procedimento per le uε (x) . Ovviamente l’affermazione “le funzioni un (x) tendono alla δ(x)” `e un modo abbreviato per dire “le funzioni un (x) individuano delle distribuzioni che tendono in senso S  alla δ(x)”. Pi` u in generale, si dimostra senza difficolt`a (usando ancora il teorema di +∞ Lebesgue) che se h(x) ∈ L1 (R) e −∞ h(x) dx = 0 , allora la successione un (x) =

n h(n x) +∞ −∞

h(x) dx

tende a δ(x) per n → ∞. Ancora: si ha pure che, in senso S  , un = einx → 0: infatti  einx , ϕ = ϕ(n) + → 0 grazie (p.es.) al Teorema di Riemann-Lebesgue. Si pu` o dimostrare infine che S  , rispetto a questa nozione di convergenza, `e uno spazio completo.

5.3 Derivazione delle distribuzioni Per definire la derivata, che potremo scrivere T  oppure D T , di una distribuzione T , si parte, com’`e naturale, con la richiesta che se T `e associata ad una funzione derivabile u = u(x) , cio`e se `e T = Tu , allora la derivata di T coincida con la distribuzione associata alla funzione derivata u (x) , cio`e che sia D Tu = Tu . Osservando allora che, in questa ipotesi, si ha, per ogni ϕ∈S   +∞

Tu (ϕ) =

−∞

u ϕ dx = −

+∞

−∞

u ϕ dx = − Tu (ϕ )

si definisce per analogia, T  , ϕ = −T , ϕ  e, pi` u in generale Dk T , ϕ = (−1)k T , Dk ϕ .

(5.4)

Si noti che Dk T `e ovviamente un funzionale lineare e continuo, grazie a come sono definite le funzioni test ϕ, quindi Dk T `e una distribuzione temperata per ogni k = 1, 2, · · · . Si ha cos`ı l’importante risultato che le distribuzioni sono sempre infinitamente derivabili. Questo fatto pu` o apparire sorprendente, dato che anche funzioni discontinue – come gi` a visto – individuano delle distribuzioni, ma si

5.4 Trasformata di Fourier per distribuzioni temperate

183

spiega facilmente poich´e – come gi`a visto nel § 4.12 e si ritrover` a nell’esempio (1) qui sotto – la derivata di una distribuzione associata ad una funzione discontinua `e una distribuzione “singolare”. Se poi si considerano funzioni test di pi` u variabili reali, cio`e ϕ = ϕ(x) ∈ S(Rn ) , le corrispondenti distribuzioni S  risultano derivabili parzialmente quante volte si vuole e si pu` o sempre invertire l’ordine di derivazione (infatti questo `e possibile per le funzioni test ϕ). Esempi (1) Considerata la funzione “a scalino” o di Heaviside θ(x) , si ha  +∞ D θ , ϕ = −θ , ϕ  = − θ(x) ϕ (x) dx = −∞

 =−

+∞

0 1 ϕ (x) dx = ϕ(0) = δ0 (ϕ) = δ(x) , ϕ

0

quindi si ritrova il risultato gi` a anticipato nel § 4.12: D θ(x) = δ(x) . (2) Pi` u in generale, sia u = u(x) una funzione derivabile in ogni punto salvo che in un punto x0 , dove presenta una discontinuit` a finita, cio`e con limite destro e sinistro esistenti e finiti: σ = lim+ u(x) − lim− u(x) x→x0

con

x→x0

|σ| < +∞

mentre negli altri punti la derivata u (x) `e generalmente continua e limitata. Procedendo come nell’esempio precedente, si prova facilmente la seguente

formula che generalizza quanto ottenuto sopra e nel § 4.12 D Tu = σ δ(x − x0 ) + Tu

(5.4 )

dove naturalmente u (x) `e la derivata della funzione u(x) da intendersi “a tratti”, cio`e eseguita separatamente in x < x0 e in x > x0 , “saltando” il punto di discontinuit` a x0 . (3) Direttamente dalla definizione, si ha Dk δx0 , ϕ = (−1)k ϕ(k) (x0 ) . Da questa, segue, per esempio, x2 δ  (x) = 0 e x δ  (x) = −δ(x) (infatti . . .).

5.4 Trasformata di Fourier per distribuzioni temperate Si deve anzitutto premettere il seguente lemma (la cui dimostrazione segue dalle propriet` a della trasformata di Fourier per le funzioni, v. in particolare il § 4.6):

184

Teoria delle distribuzioni

Lemma : La trasformata di Fourier F e la sua inversa F −1 sono trasformazioni lineari dello spazio delle funzioni test S in s`e, e sono continue rispetto alla convergenza introdotta in S. Per definire ora la trasformata di Fourier F T = T+ di una distribuzione T ∈ S  si segue un criterio simile a quello usato per definire la derivata di una distribuzione. Se cio`e u(x) ∈ L1 (R) , si richiede – come `e naturale – che F (Tu ) = TF u , ovvero  +∞  +∞  +∞ , ϕ = u +(ξ) ϕ(ξ) dξ = dξ ϕ(ξ) u(x) ei ξ x dx = F Tu , ϕ = T+ u −∞



−∞



+∞

=

+∞

dx u(x) −∞

−∞

−∞

0 1 dξ ϕ(x) ei ξ x = Tu , F (ϕ) .

Si pone allora, per definizione: F T , ϕ = T , F ϕ

(5.5)

e tale definizione `e lecita, grazie al Lemma precedente (in particolare, F ϕ ∈ S), e inoltre la F T `e ancora una distribuzione temperata. Ad esempio, si ottiene immediatamente dalla (5.5)  +∞  +∞ 2 3 F δ0 , ϕ = δ0 , ϕ + = δ(x) , ϕ(ξ) ei ξ x dξ = ϕ(0) + = ϕ(ξ) dξ = 1 , ϕ −∞

−∞

u avanti). cio`e F δ0 = 1 , come ci si attendeva (v. § 4.11, e vedi anche pi` Analogamente si definisce  F −1 T , ϕ  =  T , F −1 ϕ  .

(5.5 )

Si ricava subito, anche in S  , F (Dh T ) = (−i ω)h F(T ) ,



F (i x)k T = Dk (F T )

(5.6)

(e analoghe per la F −1 ) 3 ; in particolare si ottiene



F δ (h) (x) = (−i ω)h , F xk = (−i)k 2π δ (k) (ω) . In particolare, se `e T = Tu , dove u = u(x) `e una funzione discontinua, con le propriet` a richieste nell’esempio (2) del § 5.3, la prima delle (5.6) d` a indicando con u la derivata intesa in senso “elementare”, come nella (5.4 )

F (D Tu ) = F Tu + σ δ(x − x0 ) = F (u ) + σ ei ω x0 = −i ω F (u) . 3

Le (5.6) si possono ottenere anche ragionando cos`ı: le (5.6) sono certamente valide o essere approssiper le funzioni ∈ S, ma `e possibile provare che ogni T ∈ S  pu` mata quanto si vuole (in senso S  ) da funzioni ∈ S. D’altronde le operazioni D ed F sono continue in S  , dunque . . .

5.4 Trasformata di Fourier per distribuzioni temperate

185

` da notare che anche la (4.72) per la trasformata di Laplace della derivata si E pu` o scrivere nella forma L(D Tf ) = s L(f ) se si intende la derivata DTf nel senso delle distribuzioni, cio`e tenendo conto della discontinuit` a in x = 0. In modo simile, la seconda delle (5.6) estende le propriet` a della Ftrasformata al caso in cui `e, per esempio, u(x) ∈ L1 (R) , ma x u(x) ∈ / L1 (R)  (v. § 4.6): resta infatti vero (essendo x Tu ∈ S ) F (x u) ≡ F (x Tu ) = −i D(F Tu ) = −iD(T+ ) u dove l’ultima derivata si pu` o anche scrivere −i d+ u/dω ma va coerentemente intesa “come distribuzione”, dato che u + = F (u) risulter` a in generale non derivabile “come funzione”. Il risultato si estende ovviamente a xk u(x). ` ovvio che risultati di questo tipo sono assai utili anche per il calcolo di E F-trasformate di funzioni e di distribuzioni. ` pure assai importante, e segue immediatamente dalla stessa definizione, E il seguente Teorema : La trasformata di Fourier F `e un operatore continuo in S  , cio`e: se Tn → T , allora anche T+n → T+ . Questo teorema pu`o essere utile proprio per calcolare trasformate di Fourier di distribuzioni: infatti la (5.5) serve soprattutto come definizione (e come prova della esistenza) della F−trasformata di una distribuzione, ma non `e molto pratica in generale per il calcolo esplicito della trasformata (a parte il caso della F δ0 visto sopra). Possiamo, p.es., trovare di nuovo la F δ0 utilizzando questo teorema: basta ricordare, p.es., come si `e visto nel § 5.2, che δ(x) `e il limite (ovviamente in senso S  ) per τ → 0 delle funzioni fτ (x) considerate nei §§ 4.11,12, e osservare che sin(ω τ ) f+τ (ω) = →1 ωτ dove il limite `e ora correttamente inteso nel senso S  , ancora grazie a quanto visto nel § 5.2. Resta dunque perfettamente il procedimento se

giustificato guito nei §§ 4.11,12 per calcolare F δ(x) ed F δ(x − a) (nonch´e le F −1 , naturalmente). Questo stesso teorema pu`o essere utile anche per il calcolo di limiti  in S . Per +n (ω) di un (x) =

esempio, osservando che la F-trasformata u sin(n x) /(π x) `e . . . , e che `e immediato vedere che u +n (ω) → 1 anche in senso S  (utilizzando ancora le osservazioni fatte nel § 5.2), se ne deduce che un (x) → δ(x) . Si noti che il risultato F (1) = 2π δ(ω) si usa scrivere (impropriamente!) nella forma  +∞ ei ω t dt = 2π δ(ω) −∞

186

Teoria delle distribuzioni

e con questa si pu` o dare una dimostrazione “empirica” della formula di inversione (4.43): si ha infatti 

+∞

g(ω) e−i ω t dω =

−∞



+∞

dω e−i ω t

−∞



+∞



f (t ) ei ω t dt = . . .

−∞

a questo punto gli integrali non si possono scambiare, poich´e ovviamente ei ω t non `e sommabile, tuttavia, usando la formula precedente, si ha  +∞  +∞  +∞  ... = dt f (t ) dω ei ω(t −t) = dt f (t ) 2π δ(t − t) = 2πf (t) . −∞

−∞

−∞

Un’altra notevole propriet` a della δ si ricava osservando che l’equazione xT = 0 nella quale l’incognita `e la distribuzione T , `e certamente risolta da T = δ(x) (v. anche § 4.12); si potrebbe anzi dimostrare che la soluzione pi` u generale `e proprio T = c δ(x) , dove c `e una costante arbitraria 4 . Analogamente, l’equazione x T = a T , dove a `e una costante, `e risolta da T = c δ(x − a) . Questa equazione pu` o essere impropriamente vista come una “equazione agli autovalori” per l’operatore x: come gi`a noto, tale operatore non ha autofunzioni nello spazio L2 ; si pu` o allora dire che le sue “autofunzioni” sono le δ(x − a) 5 . Un importante esempio di distribuzione temperata `e dato dal seguente funzionale  +∞  +∞   −σ 1  2 1 3 1 1 P ϕ(x) dx = lim ϕ(x) dx + ϕ(x) dx = P , ϕ σ→0 x x −∞ x −∞ x +σ (con σ > 0) e dove P `e la parte principale di Cauchy. Questa distribuzione, indicata con P(1/x) , si pu` o chiaramente vedere (per definizione!) come limite per σ → 0 delle distribuzioni Tσ associate alla funzione uσ (x) cos`ı definita 0 per |x| < σ uσ (x) = 1/x per |x| > σ . Tenendo conto di questo, si pu` o calcolare la trasformata di Fourier della distribuzione P(1/x): la funzione uσ (x),

σ > 0 , ammette infatti F-trasformata anche come funzione uσ (x) ∈ L2 (R) , e quindi – ricordando i procedimenti di calcolo visti nel § 3.13 – ed eseguendo il limite σ → 0 , si conclude facilmente 4

5

Vedi anche pi` u avanti, § 5.5. Prendendo la F -trasformata di questa equazione si trova D T+ = 0 , dunque questo `e equivalente ad affermare che le uniche distribuzioni con derivata nulla sono proprio le costanti: T+ = c e T = c δ(x) . In meccanica quantistica questo si interpreta dicendo che le “autofunzioni” dell’operatore “posizione” x sono pacchetti d’onda “localizzati” infinitamente stretti.

5.4 Trasformata di Fourier per distribuzioni temperate

 1 −π i = π i sgn(ω) = F P +π i x

per per

ω0

187

(5.7)

dove si `e introdotta la funzione (e

anche distribuzione) “segno di x” sgn(x) talvolta indicata anche con (x) definita da −1 per x 0. Vengono spesso usate in fisica le due distribuzioni δ± (x) =

1 1 1 δ(x) ± P 2 2π i x

le cui trasformate di Fourier sono, grazie alle (5.7) e (4.55),



F δ+ (x) = θ(ω) , F δ− (x) = θ(−ω) . In modo analogo, si ottiene  1 1 F −1 P = sgn(x) ω 2i da cui

1 F sgn(x) = 2i P , ω



1 F θ(±x) = ± i P + π δ(ω) = 2π δ∓ (ω) . ω

Osservando poi che (verificare!) x P(1/x) = 1 , si ha che la pi` u generale soluzione dell’equazione xT = 1 (5.7 ) `e data da

1 + c δ(x) , c = costante arbitraria . x Un altro risultato utile `e il seguente “limite notevole” (nel senso S  ): T =P

lim+

→0

1 1 = P ∓ i π δ(x) , x ± i x

>0

che si dimostra facilmente osservando, per esempio, che

1 = F −1 u (ω) x − i

dove

u (ω) = 2π i θ(ω) e− ω ,

 > 0,

eseguendo poi il lim u (ω) e tenendo ben presenti le osservazioni fatte nel →0+

§ 5.2 e le trasformate di Fourier riportate qui sopra.

188

Teoria delle distribuzioni

5.5 Distribuzioni di Schwartz e distribuzioni a supporto compatto Si indica con E (oppure con C ∞ ) lo spazio vettoriale delle funzioni infinitamente derivabili. In E si introduce la seguente nozione di convergenza: se {ϕn } `e una successione di funzioni di E, si dice che ϕn → 0 in E se in ogni insieme compatto K ⊂ R e per ogni numero intero fissato h, si ha che d h ϕn →0 dxh

per

n → ∞,

uniformemente in K .

Si indica invece con D (oppure con C0∞ ) lo spazio vettoriale delle funzioni che hanno supporto compatto e che sono infinitamente derivabili. In D si introduce la seguente convergenza: se {ϕn } `e una successione di funzioni di D, si dice che ϕn → 0 in D se esiste un insieme compatto K0 che contiene i supporti di tutte le ϕn (x) della successione considerata, e se per ogni numero intero fissato h, si ha che d h ϕn →0 dxh

per

n → ∞,

uniformemente in K0 .

Si ha evidentemente D ⊂ S⊂ E e questa relazione “rispetta” anche la topologia introdotta ora in ciascuno dei tre spazi, nel senso che, se {ϕn } `e una successione di D (e dunque anche di S e di E), e si ha che ϕn → 0 in D (cio`e secondo la nozione di convergenza assegnata in D), allora si vede facilmente che ϕn → 0 anche in senso S. E analogamente le successioni ϕn → 0 in S risultano convergenti anche in E. Si indicano con D e con E  gli spazi “duali” di D e di E, cio`e gli spazi dei funzionali lineari e continui di D e, rispettivamente, di E, in C; naturalmente la continuit` a va intesa rispetto alle corrispondenti nozioni di convergenza appena introdotte, cio`e sar`a T ∈ D se si verifica che T (ϕn ) → 0 ogni volta che ϕn → 0 in D (e analogo per T ∈ E  ). Accanto alle distribuzioni temperate S  , abbiamo quindi altri due tipi di distribuzioni: D ed E  . Si ha immediatamente D ⊃ S  ⊃ E  . Infatti, per esempio, se T ∈ E  , cio`e T `e un funzionale definito sulle funzioni test di E, allora sar` a definito anche sulle funzioni test ϕ ∈ S, che `e un sottoinsieme di E, e sar`a anche continuo in S  per quanto detto sopra, e dunque T ∈ S . Le distribuzioni D si chiamano distribuzioni di Schwartz. Ad ogni funzione u = u(x) localmente sommabile `e associata una distribuzione di Schwartz Tu nel modo usuale, v. (5.1):

5.5 Distribuzioni di Schwartz e distribuzioni a supporto compatto

189

 Tu (ϕ) =

u(x) ϕ(x) dx Supp ϕ

avendo indicato con Supp ϕ il supporto (compatto) della funzione ϕ(x) , infatti `e ovvia la linearit` a di Tu , mentre per provarne la continuit` a basta osservare che, se ϕn = ϕn (x) → 0 in D, preso un insieme compatto K0 che contenga tutti i supporti delle ϕn (x) , si ha         u ϕn dx ≤ max |ϕn (x)|  u(x) dx → 0 . |Tu (ϕn )| =  x∈K0

K0

K0

Ad ogni funzione u = u(x) ∈ `e quindi associata una distribuzione di Schwartz Tu , ma in generale non una distribuzione temperata (per esempio, u = ex individua una distribuzione in D , ma non in S  ). Si dice che una distribuzione qualsiasi T `e uguale a zero in un insieme aperto Ω se, per ogni funzione test ϕ(x) con supporto contenuto in Ω si ha T (ϕ) = 0 . Si consideri “il pi` u grande” di tali insiemi Ω: il suo complementare si chiama supporto della distribuzione T e si indica con Supp T . Si vede immediatamente che se T = Tu , cio`e se T `e associata ad una funzione u(x) , allora si ha Supp Tu = Supp u . L1loc

Si potrebbe dimostrare che le distribuzioni T ∈ E  sono tutte e sole le distribuzioni a supporto compatto. Quindi, ad esempio, la distribuzione θ appartiene a S  ma non a E  , mentre δ(x − x0 ) ∈ E  , poich´e il supporto di δ(x − x0 ) `e costituito dal solo punto x0 . A questo proposito, si potrebbe anche dimostrare che le uniche distribuzioni aventi supporto in un solo punto sono le delta e le loro derivate. Questo fatto `e importante quando, per esempio, si devono cercare tutte le distribuzioni T che risolvono equazioni del tipo h(x) T = 0, dove h(x) `e una funzione “regolare” (ad esempio un polinomio, o comunque una funzione con zeri isolati sull’asse reale). Per mettere ancor pi` u in evidenza il ruolo – sia concettuale che pratico – delle distribuzioni, `e utile darne la seguente propriet` a. Osservando in particolare che ogni funzione ϕ(x) ∈ D individua certamente una distribuzione Tϕ ∈ D , si pu` o anzitutto affermare che – in questo senso – D `e un sottoinsieme di D ; ma il fatto pi` u importante `e che si pu` o provare che D `e denso in D . Questo significa che ogni distribuzione pu` o essere ottenuta come limite (si intende ovviamente nel senso “debole” della convergenza delle distribuzioni) da una successione di funzioni di D, ovvero che pu` o essere “approssimata” quanto si vuole da funzioni infinitamente derivabili e a supporto compatto. In termini ancora diversi – dato che anche lo spazio D `e completo – si pu`o dire che ogni successione (debolmente) convergente di funzioni di D ha per limite una distribuzione di D . Propriet` a analoghe valgono per le distribuzioni S  ed E  6 . 6

Per maggiori dettagli, v. ad esempio i testi di Schwartz [19]-[38], di Vladimirov [39], o di Gilardi [9].

190

Teoria delle distribuzioni

Le definizioni e i risultati dati fin qui per le distribuzioni temperate e riguardanti in particolare la derivazione delle distribuzioni, restano validi anche per le distribuzioni di Schwartz D . Invece, come risulta chiaro dalla discussione fatta nel § 5.4 – e anzi dalla sua stessa definizione (5.5) – la trasformata di Fourier non pu` o essere introdotta per le distribuzioni di Schwartz perch´e se ϕ ∈ D si ha F (ϕ) ∈ / D, infatti . . . , ma soltanto per le distribuzioni temperate (e dunque anche per le distribuzioni E  ). Per questo motivo, continueremo nel seguito a considerare soltanto le distribuzioni temperate S  .

5.6 Propriet` a e applicazioni delle distribuzioni Una conseguenza importante ed immediata delle definizioni stesse `e il seguente Teorema : Se Tn → T , si ha anche D Tn → D T e cos`ı pure naturalmente per le derivate successive: cio`e l’operatore di derivata `e continuo in S  . Infatti, per qualsiasi funzione test ϕ, si ha D Tn , ϕ = −Tn , ϕ  → −T , ϕ  = D T , ϕ . In questo modo resta giustificato il procedimento seguito nel § 4.12 per calcolare la derivata della θ: si `e infatti approssimata la θ con funzioni derivabili (in senso elementare) e . . . . Per vedere l’importanza di questo teorema, si consideri la successione un = sin(n x)/n , x ∈ R: essa converge uniformemente (ed anche S  ) a zero; la successione delle derivate un (x) = cos(n x) non converge nemmeno puntualmente (n`e – ovviamente! – L1 o L2 ), e tuttavia `e S  -convergente a zero (v. § 5.2), in accordo con il teorema appena enunciato. Altre importanti propriet` a che ne seguono sono elencate qui di seguito. ` (i) E possibile derivare quante volte si vuole lo sviluppo in serie di Fourier di una qualunque funzione u(x) ∈ L2 (dato che tale sviluppo `e convergente L2 e dunque anche S  ): si intende che la serie delle derivate potr` a essere non convergente in senso L2 (la derivata non `e un operatore continuo in L2 !), ma converger`a comunque (nel senso S  ) ad una distribuzione. Per esempio, considerando il problema della corda elastica visto nel § 2.4, `e immediato vedere che la derivata seconda della configurazione iniziale u(x, 0) = f (x) di fig. 2.4 `e – restringendosi all’intervallo [0, L] – proporzionale alla δ(x − L/2) ; pi` u esattamente, tenendo conto del necessario prolungamento “dispari” all’intervallo [−L, 0] e della periodicit` a 2L del problema, tale derivata `e data dalla serie (che risulta convergente in S  : perch´e?), dove ora si `e posto L = 1, d = 1/2, +∞  m=−∞

+∞ 



δ x − 2m + 23 − δ x − 2m + 12 · m=−∞

5.6 Propriet` a e applicazioni delle distribuzioni

191

Analogamente, derivando lo sviluppo dell’onda quadra in serie di sin(n x) (v. §§ 2.3,2.4) in L2 (−π, +π) , e ricordando di nuovo la periodicit` a di tale serie, si trova +∞ +∞ +∞   2  cos(nd x) = δ(x − mp π) − δ(x − md π) π n =1 m =−∞ m =−∞ p

d

d

(nd , md = interi dispari, mp = interi pari). Ancora, calcolando lo sviluppo in serie di Fourier in L2 (−π, +π) rispetto al set {ei n x } delle funzioni fτ (x) approssimanti la δ(x) definite in (4.51), e poi eseguendo il limite τ → 0 (`e lecito?), si trova il seguente “sviluppo in serie di Fourier” rispetto al set {ei n x } della δ(x) , che naturalmente va ripetuta periodicamente, ottenendo dunque 2π

+∞ 

+∞ 

δ(x − 2m π) =

m=−∞

ei n x .

n=−∞

(ii) Si supponga di voler trovare la funzione di Green G(t) dell’equazione y˙ = f (t)

+ procedendo tramite trasformata di Fourier: si ha che G(ω) = F G(t) risolve + l’equazione ω G(ω) = i , identica alla (5.7 ). Si trova cos`ı, antitrasformando: G(t) =

1 sgn(t) + c = θ(t) + c1 2

come si poteva ottenere anche direttamente, dovendo essere G˙ = δ(t) . + Con calcoli simili, si trova facilmente che la F-trasformata G(ω) della funzione di Green dell’equazione y¨ + y = f (t) deve soddisfare + (−ω 2 + 1)G(ω) =1

da cui

+ G(ω) = ··· .

Antitrasformando, si trova la pi` u generale funzione di Green: G(t) = c1 cos t + c2 sin t + θ(t) sin t (si noti che scegliendo c1 = c2 = 0 si trova la (unica) funzione di Green causale del problema). Si giunge allo stesso risultato risolvendo direttamente (cio`e senza ricorrere alla F-trasformata) l’equazione ¨ + G = δ(t) G

(5.8)

192

Teoria delle distribuzioni

Tale equazione pu` o infatti essere risolta nel modo seguente: per t < 0 e rispettivamente per t > 0 la soluzione pi` u generale dovr` a essere del tipo G− (t) = A− cos t + B− sin t

e

G+ (t) = A+ cos t + B+ sin t ;

si deve poi imporre che per t = 0 la soluzione sia continua, mentre la derivata presenti una discontinuit` a G˙ + (0) − G˙ − (0) = 1 in modo che sia soddisfatta la (5.8) si ricordi la (5.4 ) ; si ottiene cos`ı A+ = A− , B+ = B− + 1 , cio`e esattamente la G(t) trovata sopra. Da notare in entrambi i precedenti esempi la presenza di costanti arbitrarie (corrispondenti alla soluzione delle equazioni omogenee). Considerando invece, per esempio, l’equazione y˙ + y = f (t) (che `e l’equazione del circuito RL, v. §§ 4.10,11), si vede che, se si procede tramite F-trasformata, non si riscontra la presenza di alcuna costante arbitraria (la soluzione dell’equazione omogenea ∈ D , ma ∈ / S  . . .), e si trova la −t funzione di Green causale gi` a ben nota G(t) = θ(t) e . Tenendo conto delle soluzioni dell’equazione omogenea, oppure procedendo direttamente in modo simile alla (5.8), si trova allora che la pi` u generale funzione di Green sar` a G(t) = c e−t + θ(t) e−t . Si possono studiare, con queste stesse tecniche, le equazioni 7 y˙ − y = f (t),

y¨ + y˙ = f (t),

y¨ − y = f (t),

y¨ = f (t) ,

...

y = f (t)

e pi` u in generale qualsiasi equazione differenziale lineare a coefficienti costanti non omogenea L[y] = f (t) . (iii) Come altra applicazione, calcoliamo la trasformata di Fourier della distribuzione, in 3 variabili, associata alla funzione (che `e localmente sommabile in R3 ) 1 1 = 2· u = u(x, y, z) = 2 x + y2 + z2 r Si ha infatti, utilizzando coordinate sferiche,   1 i k·x 3 1 i |k| r cos θ 2 e d x = e r dr dΩ = 2 2 |x| r |x| x che nei punti x < x . Un importante (e ben noto!) esempio `e fornito dal problema (in R3 ) di trovare il potenziale coulombiano V = V (x), x ∈ R3 , prodotto da una distribuzione assegnata di cariche ρ = ρ(x) : l’equazione differenziale `e l’equazione di Poisson ΔV = −4πρ (5.12) la cui soluzione `e ben conosciuta:

5.8 Funzioni di Green. Il potenziale coulombiano

 V (x) = R3

197

ρ(x  ) dx  . |x − x  |

Come si vede, questa pu` o essere scritta V =

1 1 ∗ ρ= ∗ ρ. |x| r

Dunque 1 1 = (5.13) |x| r `e la funzione di Green del problema (5.12). Infatti, tale G(x, x  ) = G(x − x  ) d` a precisamente il potenziale coulombiano prodotto nel punto x da una carica puntiforme localizzata nel punto x , cio`e appunto dalla “distribuzione” di cariche ρ(x) = δ(x − x  ). ` possibile dare una dimostrazione rigorosa di quanto detto, cio`e che E G=

Δ

1 = −4π δ(x) |x|

(5.12 )

ma si pu`o verificarla usando la trasformata di Fourier (in 3 variabili): si ha infatti 1 1 2π 2 1 F −1 2 = = k (2π)3 r 4π r utilizzando gli stessi calcoli eseguiti in § 5.6(iii), con k = |k|, r = |x| , da cui  1  4π (5.14) = 2 F r k che `e esattamente la F-trasformata della (5.12 ) ovvero −k 2 F (1/r) = −4π . Nel caso del potenziale sul piano, la funzione di Green che soddisfa l’equazione Δ2 G(x) = −δ(x) , x ∈ R2 (5.15) `e data da

1 log(|x|) (5.16) 2π infatti, interpretata in R3 , `e il potenziale prodotto da un filo carico. Se poi si considera la F-trasformata (in 2 variabili) dell’equazione Δ2 u = 0 per le funzioni armoniche u = u(x, y), si trova G(x) =

−(k12 + k22 ) u +(k1 , k2 ) = 0 .

(5.17)

Calcoliamo, come esempio, la F-trasformata della funzione armonica u = x2 − y 2 : si ha



F u(x, y) = u +(k1 , k2 ) = 2π − δ  (k1 )δ(k2 ) + δ(k1 )δ  (k2 ) e si verifica facilmente che questa u +(k1 , k2 ) soddisfa la (5.17), come doveva

(si noti bene che, in 2 variabili, si ha F f (x) g(y) = f+(k1 ) g+(k2 ) e dunque

F f (x) = f+(k1 ) 2πδ(k2 ) !).

198

Teoria delle distribuzioni

5.9 Funzioni di Green con condizioni al contorno Come si `e visto, il significato intuitivo della funzione di Green G(x − x ) `e quello di fornire il valore della soluzione prodotta nel punto x da un termine “concentrato” nel punto x . Il fatto che questo dipenda solo dalla distanza fra i due punti si traduce naturalmente nella propriet` a della funzione di Green di dipendere solo dalla differenza x − x . A sua volta, questa propriet` a (cio`e la invarianza per traslazioni : `e chiara l’analogia con quanto visto nel § 4.13) comporta che la soluzione prodotta da un termine non omogeneo generico w(x) `e esprimibile proprio come prodotto di convoluzione v = G ∗ w. Ma `e possibile generalizzare: p.es. in presenza di condizioni al contorno in punti fissati x = α e x = β, la funzione di Green dipender` a separatamente da entrambe le coordinate x e x (e non solo dalla loro distanza x − x ). La G(x, x ) dovr` a dunque soddisfare (5.18) L[ G(x, x ) ] = δ(x − x )

con le notazioni della (5.11) , pi` u le condizioni al contorno, e la soluzione del problema & ' L v(x) = w(x) (5.18 ) con le stesse condizioni al contorno, si potr`a scrivere nella forma  v(x) = G(x, x ) w(x ) dx

(5.19)

come del resto si pu`o verificare direttamente applicando ad entrambi i membri l’operatore differenziale L e tenendo conto della (5.18) (supponendo come di consueto di poter eseguire le derivazioni dentro l’integrale). Come primo esempio di questo procedimento (il secondo sar`a oggetto del

prossimo paragrafo), consideriamo l’equazione di Sturm-Liouville v. (2.64) nella forma non omogenea e (per esempio) con condizioni di annullamento agli estremi α, β: 



 d  d  p(x) + q(x) − λ ρ(x) v(x) = w(x) , dx dx

v(α) = v(β) = 0

dove p, q, ρ (e ovviamente w) sono funzioni assegnate, e inoltre con l’ipotesi che λ non sia un autovalore dell’operatore di Sturm-Liouville 9 . L’equazione per la funzione di Green si ottiene sostituendo δ(x − x ) al posto di w(x) , come nella (5.18). Tale equazione implica che la G(x, x ) deve soddisfare alla 



9

 d  d  p(x) + q(x) − λ ρ(x) G(x, x ) = 0 dx dx

per x < x e per x > x

Infatti, se λ `e un autovalore, l’equazione non ha soluzione unica, potendosi sempre aggiungere un termine proporzionale all’autofunzione corrispondente (che infatti risolve l’equazione omogenea).

5.9 Funzioni di Green con condizioni al contorno

199

mentre, per tenere conto della δ(x − x ) a secondo membro, si dovr` a imporre che la G(x, x ) sia continua in x = x e presenti una discontinuit` a nella sua derivata prima data da dG − dx

lim

x→x+

lim

x→x−

dG 1 =− dx p(x)

ricordare infatti la (5.4 ) e confrontare anche il caso particolare (5.8) . Si pu` o verificare che, con queste condizioni, insieme con le condizioni al bordo, la funzione G(x, x ) risulta univocamente determinata. Come esempio semplice del procedimento indicato sopra, si scelga il caso

p = 1,

q = λ = 0;

α = 0,

β=1

insieme con le condizioni di annullamento agli estremi. Si ottiene facilmente per tale problema, che diventa −v  = w

v(0) = v(1) = 0

(5.20)

ovvero, per la sua funzione di Green, −

d2 G(x, x ) = δ(x − x ) , dx2

la soluzione 



G(x, x ) =

x(1 − x ) x (1 − x)

G(0, x ) = G(1, x ) = 0 ,

per per

0 ≤ x ≤ x x ≤ x ≤ 1 .

G(x, x )

0

|

x

x

1

Figura 5.1. Funzione di Green per l’equazione (5.20).

Tale risultato conferma (v. fig. 5.1) il consueto significato fisico della funzione di Green: in questo esempio si pu` o vedere come l’effetto prodotto da una pressione “puntiforme” δ(x − x ) concentrata nel punto x = x su una corda elastica di lunghezza L = 1 ad estremi fissi. Infatti la precedente equazione per v(x) si pu` o ottenere se si considera l’equazione di d’Alembert

utt − uxx = f (x) in presenza di una forza esterna f = w(x) v. § 4.23(c) e si cerca una sua soluzione u = v(x) indipendente dal tempo.

200

Teoria delle distribuzioni

5.10 Funzione di Green per il potenziale nel semipiano Un altro esempio interessante di calcolo della funzione di Green per un problema con condizioni al contorno assegnate riguarda l’equazione bidimensionale di Laplace non omogenea Δ2 u = −w ,

u = u(x, y)

(5.21)

nel semipiano y > 0 con la condizione che sul bordo sia u(x, 0) = 0 . Fisicamente, la ricerca della funzione di Green significa in questo caso trovare il potenziale elettrostatico nel piano prodotto da una carica puntiforme, o meglio (interpretando il problema in R3 , v. § 3.14), il potenziale prodotto da un filo carico posto nel semipiano y > 0 di fronte ad un piano mantenuto a potenziale nullo. Tramite questa funzione di Green, mediante una formula analoga alla (5.19) in due dimensioni, si potr` a poi trovare il potenziale prodotto da qualsiasi distribuzione di cariche w(x, y) nel semipiano.    l’equazione da risolvere Sia dunque x ≡ (x , y ) la posizione della carica:

`e dove x ≡ (x, y) `e un punto generico in y > 0 Δx G(x; x  ) ≡

 ∂2 ∂2  + 2 G(x; x  ) = δ(x − x  ) , 2 ∂x ∂y

G(x, 0; x  ) = 0 .

Come `e noto, il problema si risolve con il metodo delle immagini: il potenziale cercato G si al potenziale prodotto dal filo considerato ottiene sommando

posto in x  v. la (5.16) quello prodotto da un secondo filo con carica opposta situato nella posizione speculare x  ≡ (x , −y  ) rispetto al piano a potenziale nullo. Si trova dunque, con la condizione di annullamento all’infinito, G(x; x  ) =

1 | x − x | log · 2π |x − x  |

(5.22)

Naturalmente, questo risultato si pu` o trasferire a qualunque altro problema che possa essere ottenuto a partire da questo mediante una trasformazione conforme: per esempio al problema di trovare il potenziale prodotto all’interno di un cerchio da una data distribuzione di cariche sapendo che sulla circonferenza il potenziale `e nullo. A tale scopo occorrer` a trovare il potenziale complesso per la (5.22), cio`e la funzione olomorfa della variabile z ≡ (x, y) ≡ x di cui la (5.22) `e la parte reale: tale funzione `e evidentemente G(z, z  ) =

1 z − z log 2π z − z 

dove

z  = z ∗

e poi eseguire la necessaria trasformazione z → ζ = Φ(z) , come indicato nel § 3.14. ` opportuno infine ridiscutere la (non) unicit` E a della soluzione in tutti i casi in cui `e coinvolta l’equazione di Laplace bidimensionale nel semipiano y > 0: ` ovvio infatti che a ciascuna delle v. i §§ 3.14, 4.23 (b) e il presente paragrafo. E

5.10 Funzione di Green per il potenziale nel semipiano

201

soluzioni, che qui indicheremo con U = U (x, y), trovate in questi paragrafi, si pu` o sempre aggiungere una qualsiasi funzione armonica u(x, y) che si annulli sull’asse x, cio`e tale che u(x, 0) = 0 (p.es. u = xy); in tal modo U +u soddisfa lo stesso problema, inclusa la condizione al bordo e/o il termine non omogeneo. Questa arbitrariet` a si ritrova anche introducendo la trasformata di Fourier u +(k, y) (rispetto alla variabile x) della u(x, y): scrivendo infatti la soluzione della F-trasformata dell’equazione Δu = 0, cio`e −k 2 u + + d2 u +/dy 2 = 0 nella forma

u +(k, y) = C(k)eky + D(k)e−ky

(5.23)

e imponendo la condizione di annullamento su y = 0, ovvero u +(k, 0) = 0 = C + D, si trova

u +(k, y) = C(k) eky − e−ky . Ma questa u +(k, y) pu` o stare in S  soltanto se C(k) ha supporto nel solo punto k = 0, cio`e se C(k) `e una combinazione della δ(k) e delle sue derivate δ (h) (k) (come si ritrova la soluzione u = xy ?). L’unicit` a della soluzione si recupera imponendo condizioni di regolarit` a (non divergenza) all’infinito: cfr. il § 3.14. A questo proposito, v. anche il § 4.14, da cui

si ricava, fra le altre cose, il seguente risultato v. in particolare la (4.61) : se una funzione armonica u(x, y) si annulla sull’asse x ed `e regolare all’infinito, allora anche la sua armonica coniugata v(x, y) si annulla sull’asse x; ne segue che la funzione olomorfa f = u + iv `e nulla ovunque (per le propriet` a degli zeri delle funzioni olomorfe) e dunque anche u(x, y) ≡ 0.

A APPENDICE. Introduzione alla teoria dei gruppi e alle propriet` a di simmetria

A.1 Alcune definizioni generali Un insieme G di elementi si dice che costituisce un gruppo se sono verificati i seguenti fatti: (i) `e definita una legge di composizione interna G × G → G , cio`e una legge che ad ogni coppia di elementi g1 , g2 ∈ G associa un elemento g ∈ G : si scrive g = g1 · g2 , o anche semplicemente g = g1 g2 ; (ii) la legge di composizione `e associativa, cio`e g1 (g2 g3 ) = (g1 g2 ) g3 ; (iii) esiste in G un elemento e (talvolta indicato con I) detto elemento neutro o identit` a, tale che per ogni g ∈ G si ha e g = g e = g ; (iv) per ogni g ∈ G esiste un elemento g  tale che g g  = g  g = e . Tale elemento g  viene detto inverso di g e si indica con g −1 . Per esempio, l’insieme R(0) dei numeri reali diversi da zero forma un gruppo prendendo come legge di composizione il prodotto; l’insieme R di tutti i numeri reali forma un gruppo prendendo come legge di composizione la somma: in questo caso l’elemento neutro `e lo zero e l’inverso del numero x `e il suo opposto −x. L’insieme Z degli interi relativi `e un gruppo rispetto alla somma, ma ovviamente non rispetto al prodotto. L’insieme delle matrici n × n non singolari (cio`e con determinante non nullo) forma un gruppo rispetto all’usuale prodotto righe per colonne; tale gruppo viene indicato con GLn (C) o con GLn (R) se gli elementi delle matrici si prendono rispettivamente complessi o reali (v. § 1.10). Un gruppo si dice abeliano o commutativo se la sua legge di composizione `e commutativa: g1 g2 = g2 g1 , ∀ g1 , g2 ∈ G . I primi esempi dati qui sopra sono gruppi commutativi, l’ultimo no. Forma pure un gruppo non abeliano l’insieme Sn costituito dalle n! permutazioni di n elementi fra loro. Numerosi esempi di gruppi sono stati dati nei §§ 1.9,10, e molti altri verranno incontrati e studiati nel seguito. Un sottoinsieme H di un gruppo G `e un sottogruppo di G se, per ogni h ∈ H , anche h−1 ∈ H e se per ogni h1 , h2 ∈ H anche h1 h2 ∈ H . L’insieme

204

Appendice. Teoria dei gruppi

delle rotazioni intorno ad un asse fissato in R3 `e ovviamente un sottogruppo del gruppo SO3 formato da tutte le rotazioni in R3 . A sua volta, SO3 `e un sottogruppo delle trasformazioni ortogonali O3 . L’insieme dei multipli interi di un numero fissato p ∈ Z `e un sottogruppo di Z, che si indica con pZ : pZ = {np , n ∈ Z} = {0, ±p, ±2p, . . .} . In qualsiasi gruppo, fissato un g ∈ G , il sottoinsieme degli elementi o essere g m (m ∈ Z) `e un sottogruppo (detto sottogruppo ciclico), che pu` costituito di un insieme finito o infinito di elementi, ed eventualmente coincidere con l’intero gruppo (si pensi al gruppo formato dai numeri complessi α di modulo 1 con la legge di moltiplicazione). Preso un gruppo G, due suoi elementi g1 , g2 si dicono coniugati se esiste ` facile vedere che in questo un elemento g  ∈ G tale che g2 = g  g1 g −1 . E modo si individua una relazione di equivalenza fra gli elementi del gruppo, che quindi realizza una partizione del gruppo in classi di coniugazione : in altre parole, il gruppo risulta formato dall’unione di vari sottoinsiemi disgiunti, ciascuno costituito dagli elementi fra loro coniugati. Per esempio, in SO3 ciascuna classe `e formata dalle rotazioni del medesimo angolo (intorno a tutti i possibili assi). Siano G un gruppo ed S un insieme qualsiasi. Si dice che G “opera su S”, se G `e un insieme di trasformazioni (invertibili) di S in s´e: g : x → x = g x ∈ S . Si chiama allora orbita di un elemento x ∈ S l’insieme {g x , g ∈ G} , cio`e l’insieme dei punti raggiunti dalle trasformazioni g ∈ G partendo da x. Il gruppo si dice transitivo se ∀ x1 , x2 ∈ S c’`e qualche g ∈ G tale che x2 = g x1 . Fissato un x ∈ S , il suo gruppo di stabilit` a `e il sottoinsieme Gx ⊂ G degli elementi g* che “lasciano fisso” x, cio`e tali che g* x = x a ed `e facile vedere che Gx `e un sottogruppo di G. Se Gx `e il gruppo di stabilit` di x ∈ S e x = g  x , allora il gruppo di stabilit` a Gx di x `e costituito dalle trasformazioni della forma g  g* g −1 , dove g* ∈ Gx (e si dice allora che i due sottogruppi di stabilit` a Gx e Gx sono coniugati ). Semplici esempi si trovano pensando al gruppo delle rotazioni e/o delle traslazioni in S = R2 (o R3 ). Si pu` o far operare G su se stesso, cio`e prendere S = G, mediante – per esempio – moltiplicazione a sinistra, g : h → g h, e si vede subito che tale operazione `e transitiva.

A.2 Omomorfismi tra gruppi. Gruppi quoziente Dati due gruppi G e G , si dice che `e stabilito un omomorfismo fra essi se `e stabilita una corrispondenza, non necessariamente biunivoca, Φ : G → G fra gli elementi di G e quelli di G che “conserva le operazioni”, cio`e tale che se

A.2 Omomorfismi tra gruppi. Gruppi quoziente

g3 = g1 · g2

allora anche

205

Φ(g3 ) = Φ(g1 ) · Φ(g2 )

e inoltre Φ(e) = e = identit` a di G . Un omomorfismo che, in particolare, `e anche biunivoco, si dice isomorfismo ; in tal caso si scrive usualmente G  G per indicare che G e G sono isomorfi. Per esempio, detto C0 il gruppo moltiplicativo dei numeri complessi diversi da zero, la corrispondenza Φ : GLn (C) → C0 definita da Φ(M ) = det M , dove M ∈ GLn (C) , `e un omomorfismo, grazie alla nota propriet` a del determinante. La corrispondenza fra il gruppo additivo dei numeri reali x e il gruppo moltiplicativo dei reali strettamente positivi definita da Φ(x) = ex `e un isomorfismo, infatti Φ(x1 + x2 ) = ex1 +x2 = ex1 ex2 = Φ(x1 ) Φ(x2 ) e la corrispondenza `e biunivoca. Si vede anche facilmente che il gruppo di simmetria del triangolo equilatero (v. § 1.10) `e costituito da 6 elementi ed `e isomorfo al gruppo delle permutazioni S3 ; invece, il gruppo di simmetria del quadrato non `e isomorfo ad S4 ma soltanto ad un suo sottogruppo. Il gruppo SO2 `e isomorfo al gruppo moltiplicativo dei numeri complessi di modulo 1. Un sottogruppo H di G si dice invariante (o normale) se ∀h ∈ H,

∀g ∈ G

si ha

g h g −1 ∈ H

(A.1)

(in breve si scrive g H g −1 = H , oppure g H = H g). Per esempio il sottogruppo SO2 delle rotazioni intorno ad un asse fissato in R3 non `e sottogruppo invariante in SO3 . Nel § 1.9 `e stato introdotto il gruppo euclideo delle trasformazioni rigide nel piano R2 ; in modo del tutto simile si pu` o introdurre il gruppo euclideo E3 delle rotazioni, riflessioni e traslazioni in R3 , o – ancora pi` u in generale – il gruppo En in Rn . Il sottogruppo delle traslazioni `e sottogruppo invariante del gruppo euclideo, il sottogruppo On delle rotazioni e riflessioni

non lo `e per verificarlo, basta utilizzare la regola di composizione (1.37) . Ovviamente, se un gruppo `e abeliano, ogni suo sottogruppo `e automaticamente invariante. Un gruppo si dice semplice se non possiede sottogruppi invarianti (a parte ovviamente l’identit` a e se stesso); per esempio, il gruppo SO3 `e un gruppo semplice. Si dice semisemplice un gruppo se non possiede sottogruppi invarianti abeliani; per esempio, il gruppo euclideo En non `e semisemplice. ` facile quanto importante verificare che il nucleo di ogni omomorfismo E Φ : G → G , cio`e l’insieme degli elementi g0 ∈ G tali che Φ(g0 ) = e , `e un sottogruppo invariante di G. Dunque, per esempio, SUn `e sottogruppo invariante in Un , essendo nucleo dell’omomorfismo Φ = det, e cos`ı SOn in On . Si indica con Zp l’insieme dei p numeri interi {0, 1, . . . , p − 1} prendendo come legge di composizione la “somma modulo p”: per esempio, se p = 7, si intende 2 + 3 = 5, 2 + 6 = 1, 3 + 4 = 0, etc. Si stabilisce un omomorfismo Φ di Z in Zp mediante la relazione Φ(n) = resto della divisione n/p; per

206

Appendice. Teoria dei gruppi

esempio, ancora con p = 7, la corrispondenza `e Φ(1) = 1, Φ(7) = 0, Φ(8) = 1, etc. Il nucleo di tale omomorfismo `e il gruppo pZ. Il gruppo Zp `e isomorfo al gruppo moltiplicativo dei numeri complessi e2i m π/p (m = 0, 1, · · · , p − 1); spesso si usa lo stesso simbolo Zp per indicare entrambi i gruppi: in particolare Z2 = {1, −1}. Se H `e un sottogruppo qualsiasi in G, si pu` o eseguire una partizione di G (ben diversa da quella introdotta nel paragrafo precedente!) in sottoinsiemi disgiunti in questo modo: per ogni g ∈ G , si inseriscono nella stessa classe tutti gli elementi della forma g h, con h ∈ H . Ovviamente, una classe sar`a ` facile verificare che si ottengono classi disgiunte, formata dal sottogruppo H. E che potremo indicare con g H, che ricoprono tutto G, e inoltre che queste classi contengono tutte lo stesso numero di elementi, o – pi` u esattamente – possono essere messe in corrispondenza biunivoca fra loro, e in particolare con H (infatti, se g h1 = g h2 ne segue h1 = h2 ). Dunque, se G ha un numero finito N di elementi, allora il numero m di elementi che costituiscono il sottogruppo H deve essere un divisore di N . Ma il fatto rilevante `e che se, in particolare, il sottogruppo H `e un sottogruppo invariante, allora l’insieme di queste classi ha la struttura di gruppo: infatti, se g1 h e g2 h sono due elementi contenuti nelle classi g1 H e g2 H, si ha g1 h · g2 h = g1 g2 g2−1 h g2 h = g1 g2 h h = g1 g2 h ∈ (g1 g2 ) H grazie appunto alla propriet` a (A.1) caratterizzante il sottogruppo invariante H. Il gruppo cos`ı ottenuto si chiama gruppo quoziente di G rispetto ad H e si indica con Q = G/H . In questo gruppo l’elemento neutro `e H. Non si pu` o tuttavia dire che G `e il ‘prodotto’ di Q per H, a causa del diverso ruolo svolto dal sottogruppo H e dal quoziente Q (anzitutto, in generale, Q non `e isomorfo ad alcun sottogruppo invariante di G). Per esempio, se G `e il gruppo euclideo En e H `e il sottogruppo invariante delle traslazioni, il gruppo quoziente `e isomorfo al sottogruppo delle rotazioni e riflessioni, che – come gi`a detto – non `e sottogruppo invariante in En . Si dice che G `e il prodotto diretto di due suoi sottogruppi H1 e H2 se h1 h2 = h2 h1 (∀ h1 ∈ H1 , h2 ∈ H2 ) e se si pu`o scrivere ogni g ∈ G come prodotto (in modo unico) g = h 1 h2

con

h1 ∈ H1 , h2 ∈ H2 .

Si scrive in tal caso G = H 1 ⊗ H2 . Per esempio, O3 = SO3 ⊗ Z2 ; si noti che O3 /SO3  {1, −1}, ma anche il sottogruppo di O3 costituito dalle matrici {I, −I}  Z2 `e sottogruppo invariante in O3 e O3 /Z2  SO3 (si osservi infatti che, in O3 , si ha det(−I) = −1).

A.3 Rappresentazioni di un gruppo

207

Pi` u in generale, si possono considerare due gruppi qualsiasi H1 e H2 , anche con leggi di composizione diverse, e osservare che l’insieme delle coppie (h1 , h2 ), con h1 ∈ H1 , h2 ∈ H2 , forma evidentemente un nuovo gruppo G con la legge di composizione ovvia (h1 , h2 ) · (h1 , h2 ) = (h1 h1 , h2 h2 ) . In questo gruppo i due insiemi della forma (h1 , e2 ) e (e1 , h2 ) sono sottogruppi isomorfi a H1 e rispettivamente a H2 , e si pu` o dunque dire che G `e il prodotto diretto G = H1 ⊗ H2 . ` chiaro che quando G `e un prodotto diretto G = H1 ⊗ H2 , sia H1 che E H2 sono sottogruppi invarianti, e si ha G/H1  H2 e G/H2  H1 .

A.3 Rappresentazioni di un gruppo Dato un gruppo G, si dice rappresentazione di G e si indica generalmente con D oppure con R, un omomorfismo di G nel gruppo delle trasformazioni lineari invertibili di uno spazio vettoriale V in se stesso. Lo spazio V si chiama spazio base della rappresentazione e la sua dimensione n si chiama dimensione della rappresentazione. In altre parole, una rappresentazione D `e un omomorfismo di G nel gruppo delle matrici: D : G → GLn (C) . Se l’omomorfismo `e iniettivo, la rappresentazione si dice fedele; in tal caso, la rappresentazione `e in realt` a un isomorfismo fra G e un gruppo di matrici, sottogruppo di GLn (C) . Nei gruppi semplici, ogni rappresentazione `e necessariamente fedele, esclusa ovviamente la rappresentazione “banale” D0 che trasforma ogni g ∈ G nel numero 1 (anche questa `e una rappresentazione !). Una rappresentazione R si dice unitaria se per ogni g ∈ G la matrice R(g) `e una matrice unitaria. Due rappresentazioni R e R si dicono equivalenti se esiste una matrice non singolare X (la stessa per tutti i g ∈ G ) tale che R (g) = X R(g) X −1 . L’equivalenza di due rappresentazioni corrisponde dunque semplicemente ad una diversa scelta della base dello spazio V . Un concetto particolarmente importante nella teoria delle rappresentazioni e delle loro applicazioni (come vedremo) `e quello della riducibilit` a : data una rappresentazione D di un gruppo G operante su uno spazio V , se esiste un sottospazio vettoriale V  ⊂ V tale che D(g) V  ⊆ V 

∀g ∈ G

208

Appendice. Teoria dei gruppi

cio`e se V  `e lasciato invariante (nel suo insieme, non vettore per vettore !), allora si dice che D `e riducibile. Si dir` a invece irriducibile se non c’`e alcun sottospazio invariante. Se V  `e invariante e si sceglie la base in V in modo che e1 , . . . , en1 sia una base per V  (dove n1 `e la sua dimensione), la rappresentazione D assumer`a la forma   R1 S · D(g) = 0 R2 Se poi avviene che S = 0, cio`e che V  = sottospazio complementare, di dimensione n2 = n − n1 `e anch’esso invariante sotto l’azione di D, allora D risulta (equivalente a) una rappresentazione fatta con matrici “a blocchi”, e in tal caso si dice che D `e completamente riducibile. Per esempio, dimostreremo presto che ogni rappresentazione unitaria `e completamente riducibile (oppure ` evidente che le matrici R1 e R2 di ciascun blocco costituiscoirriducibile). E no altre due rappresentazioni R1 e R2 di G, operanti sugli spazi V  e V  rispettivamente: R1 : V  → V  ,

R2 : V  → V 

di dimensioni n1 e n2 . Si scrive allora D = R1 ⊕ R2 e si dice che D `e somma diretta delle due rappresentazioni R1 e R2 . Esempi Ecco alcuni esempi semplici (altri importanti esempi verranno discussi pi` u oltre). (a) Sia G il gruppo delle rotazioni in R3 : ogni suo elemento si pu` o individuare assegnando per esempio il versore dell’asse di rotazione e l’angolo di rotazione. Fissata una base ortonormale in R3 , ogni rotazione `e rappresentata da una matrice ortogonale 3×3 a determinante uguale a uno, come ben noto. Il gruppo delle matrici SO3 pu` o dunque essere visto come una rappresentazione di G. Oltrech`e ovviamente irriducibile, tale rappresentazione `e un isomorfismo, tanto che in genere si identifica il gruppo “astratto” delle rotazioni con il gruppo di matrici SO3 , che potr` a essere chiamato la “rappresentazione naturale” (o “fondamentale”) del gruppo. Come vedremo, tale gruppo possiede infinite altre rappresentazioni irriducibili fedeli, non equivalenti fra loro. (b) Se G `e il gruppo (abeliano) delle rotazioni eseguite intorno ad un asse fissato in R3 , la rappresentazione considerata in (a) diventa completamente riducibile e si decompone nella somma diretta della rappresentazione bidimensionale (equivalente ad SO2 ) operante sullo spazio ortogonale all’asse di rotazione e nella rappresentazione “banale” R(g) = 1 . (c) Se G `e il gruppo di simmetria del quadrato (v. § 1.10), e si sceglie una base ortonormale in R2 , le otto operazioni di simmetria possono essere rappresentate scrivendole nel modo consueto come altrettante matrici ortogonali

A.4 Rappresentazioni dei gruppi finiti. Caratteri

209

2 × 2 (e ottenendo cos`ı una rappresentazione fedele). Altre tre rappresentazioni, tutte unidimensionali, si ottengono assegnando il valore −1 alle due riflessioni rispetto alle diagonali e alle rotazioni di ±90o e il valore 1 alle altre operazioni, oppure assegnando il valore −1 alle riflessioni parallele ai lati e alle rotazioni di ±90o e il valore 1 alle altre operazioni, oppure infine assegnando −1 a tutte le riflessioni e 1 alle rotazioni. Applicando un risultato che verr` a dato nel prossimo paragrafo, si vede che, insieme alla rappresentazione banale D(g) = 1, ∀g ∈ G, queste esauriscono tutte le possibili rappresentazioni irriducibili inequivalenti del gruppo del quadrato, nel senso che ogni altra rappresentazione `e equivalente ad una di esse o ad una somma diretta di due o pi` u fra esse. (d) Con notazioni analoghe a quelle usate nel § 1.9 per il gruppo euclideo in R2 , ogni elemento del gruppo euclideo En (o pi` u in generale del gruppo affine) in Rn pu` o essere individuato assegnando una coppia (A, b), con legge di composizione come nella (1.37). Una sua rappresentazione (fedele) si pu` o ottenere nello spazio Rn+1 ponendo   A b (A, b) → 0 1 come si verifica facilmente. Questa rappresentazione `e dunque riducibile, ma non completamente riducibile.

A.4 Rappresentazioni dei gruppi finiti. Caratteri Un gruppo si dice finito se `e costituito da un numero finito N di elementi (N `e anche detto ordine del gruppo). Sussiste il seguente Teorema : Ogni rappresentazione R di un gruppo finito `e equivalente ad una * unitaria. rappresentazione R Dimostrazione. Si costruisca la matrice  A= R+ (g)R(g) g∈G

dove R(g) `e la matrice (della data rappresentazione R) che rappresenta l’elemento g del gruppo e la somma `e estesa a tutti gli elementi del gruppo. Per ogni fissata R(g  ) , si ha   R+ (g  ) R+ (g) R(g) R(g  ) = R+ (g g  ) R(g g  ) = R+ (g  ) A R(g  ) = g

=

 γ

g

R+ (γ)R(γ) = A .

210

Appendice. Teoria dei gruppi

Infatti R+ (g g  ) = [R(g) R(g  )]+ = R+ (g  ) R+ (g) e γ = g g  ripercorre nella somma l’intero G (l’azione di G su se stesso `e transitiva). Inoltre si ha che A = A+ , dunque esiste una matrice unitaria M che diagonalizza A: Ad = M A M +

ovvero

A = M + Ad M

e gli autovalori di A sono reali e positivi, come `e facile verificare. Si pone ora 1/2

Q = Ad

M

Q+ Q = M + Ad M = A

dunque

* e le matrici R(g) = Q R(g) Q−1 sono unitarie, infatti * * + R(g) = (Q−1 )+ R+ (g) Q+ Q R(g) Q−1 = (Q−1 )+ R+ (g) A R(g) Q−1 = R(g) = (Q−1 )+ A Q−1 = I .



Questo fatto `e particolarmente importante perch´e ogni rappresentazione unitaria `e irriducibile oppure completamente riducibile. Infatti, se V1 `e un sottospazio invariante per una rappresentazione unitaria R, detto V2 il suo complemento ortogonale, presa una qualsiasi matrice R(g) della rappresentazione, si ha, ∀ v1 ∈ V1 , v2 ∈ V2 ,







v1 , R(g) v2 = R+ (g) v1 , v2 = R−1 (g) v1 , v2 = R(g −1 ) v1 , v2 = (v1 , v2 ) = 0 poich´e, grazie all’ipotesi, R(g −1 ) v1 = v1 ∈ V1 . Dunque R(g)v2 ∈ V2 , ∀ g ∈ G e allora anche V2 `e invariante sotto R. Si pu` o inoltre dimostrare che, presa una qualsiasi rappresentazione irriducibile Rα di un gruppo G di ordine N e fissata una posizione ij (riga e colonna) nelle matrici Rα (g), il vettore ad N componenti (ottenuto al variare di g in G) [ Rα (g) ]ij `e ortogonale a tutti gli altri analoghi vettori ottenuti prendendo gli altri indici e le altre rappresentazioni irriducibili. Pi` u precisamente, dette Rα e Rβ due rappresentazioni irriducibili inequivalenti, dα e dβ le loro dimensioni, ij e kl due posizioni nelle rispettive matrici, si dimostra la seguente “relazione di ortogonalit` a”:   dα [ Rα (g) ]∗ij dβ [ Rβ (g) ]kl = N δα β δik δjl . (A.2) g∈G

Si ha inoltre il seguente risultato (che vale anche per gruppi molto pi` u generali, v. pi` u avanti, §§ A.10,11): Teorema (di Peter-Weyl ): Le rappresentazioni irriducibili inequivalenti R1 , R2 , · · · , Rs di un gruppo di ordine N sono in numero finito s uguale al numero delle classi di coniugazione (v. § A.1) in cui il gruppo `e suddiviso, e sono tali che l’insieme dei vettori ad N componenti

A.4 Rappresentazioni dei gruppi finiti. Caratteri



211

dα [ Rα (g) ]ij N

che si ottiene al variare di α = 1, · · · , s e per 1 ≤ i, j ≤ dα = dimensione di Rα , formano un set ortonormale completo in CN . Osservando ora che le matrici della rappresentazione Rα sono matrici dα × dα , ne segue che dovr`a essere (Teorema di Burnside): d21 + d22 + . . . + d2s = N . Si pu` o anche dimostrare che le dimensioni dα delle rappresentazioni irriducibili sono divisori dell’ordine N del gruppo G. Questi risultati consentono quindi di individuare le rappresentazioni irriducibili di un gruppo finito e danno anche un’idea di come decomporre una rappresentazione riducibile nelle sue componenti irriducibili utilizzando la completezza delle rappresentazioni irriducibili garantita dal teorema di Peter-Weyl e della (A.2). Il procedimento si pu` o formalizzare e anche semplificare introducendo la nozione di carattere di una rappresentazione: si definisce carattere di una rappresentazione R (anche se riducibile) il vettore ad N componenti  χ(g) = [ R(g) ]ii i

cio`e la traccia della matrice R(g) , per ogni g ∈ G . Usando la (A.2), si ricava per i caratteri di due rappresentazioni irriducibili Rα , Rβ la relazione di ortogonalit` a   N χ∗α (g) χβ (g) = δα β δii = N δα β . (A.3) dα g i Dunque i caratteri di due rappresentazioni irriducibili inequivalenti sono vettori ortogonali fra loro in CN . Ne segue anche – dato che la traccia di una matrice non cambia sotto trasformazioni di similitudine R → R = S R S −1 – che due rappresentazioni con caratteri diversi sono necessariamente inequivalenti. Ma si pu` o dimostrare che `e vero anche il viceversa: due rappresentazioni irriducibili sono equivalenti se e solo se hanno gli stessi caratteri. Data una qualunque rappresentazione (unitaria) R del gruppo G, risulta ora facile trovarne la decomposizione nella somma diretta delle sue componenti irriducibili: detta R = n1 R1 ⊕ · · · ⊕ ns Rs tale decomposizione, dove nα `e il numero di volte (incognito) con cui la rappresentazione Rα compare nella rappresentazione R, il vettore dei caratteri χR (g) della R sar` a dato da χR (g) = n1 χ1 (g) + · · · + ns χs (g)

212

Appendice. Teoria dei gruppi

(questo risulta evidente nella base in cui R `e nella forma “a blocchi”, v. § A.3, ma i caratteri non cambiano sotto cambiamento di base, come gi` a notato). Allora i coefficienti nα si trovano semplicemente calcolando i prodotti scalari (χR , χα ) in CN , grazie alla (A.3): nα =

1  ∗ χ (g)χα (g) . N g R

Da notare ancora che le matrici che rappresentano gli elementi contenuti nella stessa classe di coniugazione del gruppo hanno lo stesso carattere, poich´e tali elementi differiscono solo per una similitudine, dunque il vettore χα dei caratteri di una rappresentazione irriducibile Rα pu` o essere visto come un vettore a sole s componenti, una per ciascuna delle s classi di coniugazione del gruppo G. Allora, la precedente formula per il calcolo dei coefficienti nα pu` o essere semplificata eseguendo la somma solo sulle s classi: nα =

s 1  gκ χ∗R (κ) χα (κ) N κ=1

dove χα (κ) `e il carattere della rappresentazione sulla κ-esima classe e gκ `e il numero degli elementi presenti nella classe stessa.

A.5 Lemma di Schur. Le simmetrie nella fisica Uno dei fatti fondamentali su cui si appoggiano – direttamente o indirettamente – molte delle applicazioni della teoria dei gruppi alla fisica `e fornito dal Lemma di Schur. Esso vale per qualsiasi tipo di gruppo (finito o infinito, discreto o continuo) e, nella sua forma pi` u semplice si pu`o enunciare nel modo seguente. Teorema (Lemma di Schur): Sia G un gruppo qualsiasi ed R una sua rappresentazione irriducibile operante su uno spazio vettoriale V definito sul campo complesso C. Se T `e un operatore lineare di V in s`e tale che T R(g) = R(g) T

∀g ∈ G

allora deve essere T = λI . Cio`e, in breve, ogni operatore che commuta con tutte le matrici di una rappresentazione irriducibile `e necessariamente un multiplo dell’identit` a. Dimostrazione. Sia v un autovettore di T con autovalore λ (qualsiasi matrice T ammette almeno un autovettore), e sia Vλ il sottospazio degli autovettori di T con autovalore λ. Dunque Vλ = {0} ; preso un qualsiasi w ∈ Vλ , si ha



T R(g) w = R(g) T w = λ R(g) w

A.5 Lemma di Schur. Le simmetrie nella fisica

213

dunque anche R(g) w ∈ Vλ , ∀g ∈ G ; ma questo significa che Vλ `e un sottospazio invariante sotto R. Poich`e d’altronde R `e irriducibile, ne segue che Vλ deve coincidere con l’intero spazio base della rappresentazione, ovvero che T − λ I = 0 su tutto lo spazio, cio`e T = λ I.

Una prima conseguenza del lemma di Schur `e che ogni rappresentazione irriducibile di un gruppo abeliano `e unidimensionale (basta prendere come matrice T le matrici stesse della rappresentazione). Si deve naturalmente ricordare che questo fatto `e vero solo se si considerano rappresentazioni complesse: per esempio, la rappresentazione reale su R2 che definisce SO2 diventa riducibile solo se “estesa” a vettori complessi, dove assume la forma diagonale  iϕ  e 0 0 e−i ϕ come somma diretta di due rappresentazioni unidimensionali. Sono possibili varie generalizzazioni del lemma di Schur: per esempio, `e facile verificare che, se la rappresentazione R `e somma diretta di due o pi` u rappresentazioni irriducibili fra loro inequivalenti R = R1 ⊕ R2 ⊕ · · ·

(A.4)

e T `e una matrice che commuta con R, allora se ne deduce che: (i) T commuta con tutti i proiettori P1 , P2 , · · · che proiettano sui sottospazi base V1 , V2 , · · · delle varie componenti irriducibili R1 , R2 , · · · ; (ii) T `e del tipo T = λ1 P1 + λ2 P2 + · · · cio`e `e multiplo dell’identit` a su ciascun sottospazio V1 , V2 , · · · . Se poi nella (A.4) compaiono anche rappresentazioni Rα irriducibili equivalenti fra loro, la forma di T pu` o essere pi` u complicata, ma comunque la degenerazione dei suoi autovalori `e uguale alla dimensione delle rappresentazioni irriducibili contenute nella (A.4). L’utilit` a di questi risultati `e facilmente compresa se si osserva che la propriet` a di commutazione di T con la rappresentazione R si pu` o scrivere T = R (g) T R−1 (g)

(A.5)

per ogni g ∈ G , il che significa che ogni cambiamento di base prodotto dalle trasformazioni R(g) non muta l’operatore T , ovvero che T `e invariante sotto

le operazioni R(g) v. la (1.17) . D’altronde se si considera un sistema fisico dotato di qualche propriet` a di simmetria descritta da un gruppo G, e T `e un qualsiasi operatore che descrive tale sistema, l’operatore T non deve variare se viene eseguita una trasformazione del gruppo di simmetria G (il sistema infatti viene trasformato in un sistema identico a quello iniziale), dunque T deve soddisfare proprio la condizione (A.5). Il lemma di Schur ci dice allora che dobbiamo attenderci per gli autovalori di T , cos`ı come di qualsiasi operatore

214

Appendice. Teoria dei gruppi

che “descriva la fisica del problema”, degenerazioni ben precise, uguali alle dimensioni delle rappresentazioni irriducibili contenute in R, e gli autovettori dovranno essere cercati nei sottospazi base di tali rappresentazioni. Nel prossimo paragrafo sar` a accennato un esempio esplicito in cui si applicano queste idee. Un esempio semplice in cui le stesse idee vengono estese ad un problema in dimensione infinita, `e fornito dal problema di d’Alembert bidimensionale per una superficie elastica a contorno quadrato fisso (v. § 2.20): posto T = −Δ, il problema diventa −Δ w = λ w e presenta la simmetria del quadrato. Il gruppo di simmetria del quadrato ha rappresentazioni uni- e bi-dimensionali (v. § A.3), ed effettivamente gli autovalori di Δ hanno in questo caso degenerazione 1 e 2, come ben noto (v. § 2.20). La situazione descritta qui sopra `e assai comune in meccanica quantistica: tipicamente, T `e l’Hamiltoniana di un sistema dotato di qualche propriet` a di simmetria, e – anche se non si conosce l’espressione esplicita di tale Hamiltoniana – la sola presenza della simmetria fornisce informazioni precise sulla distribuzione di livelli energetici con la loro degenerazione. Qualche situazione tipica verr` a accennata pi` u avanti. Va comunque precisato che non si pu` o escludere che gli autovalori di un operatore T relativi a due sottospazi diversi nella decomposizione (A.4) possano anche risultare fra loro uguali: si parla in tal caso di degenerazione accidentale; ovviamente in tal caso la degenerazione di questo autovalore sar` a la somma delle dimensioni delle rappresentazioni coinvolte. Da notare ancora che una naturale – e del tutto generale – propriet` a `e che se `e data una soluzione di un problema dotato di una certa simmetria, allora applicando a tale soluzione una trasformazione del gruppo di simmetria, si ottiene ancora una soluzione del problema stesso.

A.6 Livelli vibrazionali di sistemi con simmetria Un’altra tipica applicazione di quanto detto riguarda lo studio dei modi normali di vibrazione e delle autofrequenze di sistemi oscillanti dotati di propriet` a di simmetria. Un problema di questo tipo `e gi`a stato risolto nel § 1.7.b, ma `e chiaro che quel procedimento diventa sempre pi` u complicato aumentando la complessit`a del sistema. Consideriamo – come esempio del procedimento – il caso semplice di tre particelle uguali legate elasticamente fra loro con tre molle uguali. Si supponga che all’equilibrio le tre masse siano poste ai vertici di un triangolo equilatero e che siano vincolate a muoversi sul piano individuato da tale triangolo. La simmetria del problema `e dunque descritta dal gruppo di simmetria del triangolo

A.6 Livelli vibrazionali di sistemi con simmetria

215

equilatero. Per descrivere i possibili spostamenti dalla posizione di equilibrio delle tre particelle servir`a allora un vettore bidimensionale per ciascuna di esse, e operando sull’insieme di questi vettori mediante le trasformazioni del gruppo di simmetria se ne otterr` a cos`ı una rappresentazione R di dimensione 6, certamente riducibile, dato che le rappresentazioni irriducibili del gruppo del triangolo equilatero hanno dimensione 1 e 2, come si verifica facilmente (v. § A.4). Sia dunque x ∈ R6 il vettore che descrive tutti gli spostamenti nel piano delle tre particelle, dove x1 , x2 descrivono gli spostamenti di una particella, x3 , x4 quelli della seconda, e x5 , x6 quelli dell’ultima. Se T `e la matrice che descrive le loro mutue interazioni, l’equazione del moto sar` a ¨ = T x. x

Cercando soluzioni (modi normali) della forma v. § 1.7b) x = c sin(ω t + δ)

si trova come nella 1.27 ) −ω 2 c = T c dunque gli autovalori di T sono le frequenze proprie del sistema. Allora, anche senza conoscere l’espressione esplicita di T , possiamo affermare che T “per ragioni di simmetria” dovr` a necessariamente soddisfare la propriet` a (A.5) e dunque obbedire al lemma di Schur. Per avere informazioni sugli autovalori di T e sui modi normali del sistema, occorrer` a dunque decomporre nelle sue componenti irriducibili la rappresentazione a dimensione 6 del gruppo del triangolo operante sullo spazio R6 sopra introdotto. Si pu` o ricorrere alla tecnica dei caratteri, come indicato nel § A.4, ma in questo caso `e anche semplice individuare direttamente alcuni sottospazi invarianti sotto l’azione del gruppo del triangolo. Si riconosce subito, per esempio, la presenza di un sottospazio bidimensionale, invariante sotto le trasformazioni di simmetria del triangolo, costituito dai vettori della forma (c1 , c2 , c1 , c2 , c1 , c2 ), corrispondente a moti rigidi di traslazione, e dunque con autovalore ω = 0 e degenerazione 2; si trova pure un altro autovalore ω = 0 corrispondente al moto rigido di rotazione, con degenerazione 1. E si trovano finalmente due altri sottospazi corrispondenti ai moti vibrazionali del sistema, con autovalori ω = 0 che hanno degenerazione 1 e 2. Questo procedimento – eventualmente con l’ausilio tecnico della teoria dei caratteri – trova applicazione per esempio nella spettroscopia molecolare e nello studio di sistemi complessi dotati di propriet` a di simmetria.

216

Appendice. Teoria dei gruppi

A.7 Gruppi di Lie. Definizioni ed esempi generali Fra i gruppi con infiniti elementi, ci interesseremo soltanto dei gruppi di Lie: senza entrare troppo nei dettagli tecnici, potremo dire anzitutto che un gruppo di Lie `e un gruppo “continuo”, in cui `e definito un concetto di “intorno” (`e un gruppo topologico) e quindi ha senso parlare di “elementi vicini”, in cui ci si pu` o spostare con continuit` a da un elemento ad un altro, e inoltre `e tale che i suoi elementi g si possono individuare tramite un numero finito di parametri reali a ≡ (a1 , a2 , . . . , ar ) , detti coordinate o parametri di Lie: g = g(a1 , . . . , ar )

(A.6)

variabili con continuit` a in un sottoinsieme di Rr . Si richiede che questa parametrizzazione sia tale che se g = g(a) e g  = g  (a ) (a, a ∈ Rr ), allora i parametri b che individuano il prodotto g g  siano esprimibili come funzioni analitiche b = γ(a, a ) dei parametri a, a . La nozione di gruppo di Lie `e molto pi` u naturale e intuitiva di quanto questa definizione lasci supporre. Per esempio, il gruppo delle rotazioni in R3 `e un gruppo di Lie: infatti ogni rotazione `e parametrizzata in modo naturale da tre parametri reali (per esempio gli angoli di Eulero), e tutti i gruppi continui incontrati fin qui (GLn (C), Un , On , il gruppo euclideo, etc.) sono gruppi di Lie. Volendo, ma forse non `e il modo pi` u intuitivo, si pu` o identificare un gruppo di Lie con un sottoinsieme opportuno di Rr , in cui la legge di composizione γ(a, a ) pu` o essere pi` u o meno complicata. Altri importanti esempi di gruppi di Lie (tra questi, il gruppo di Lorentz) verranno considerati brevemente in § A.15. In concreto, per studiare i gruppi di Lie, si pu` o ricorrere ad un importante risultato (Teorema di Ado) che assicura che ogni gruppo di Lie `e isomorfo ad un gruppo di matrici 1 . Grazie a questo, d’ora in avanti ci restringeremo a considerare (per il momento e per quanto pi` u possibile) solo gruppi di Lie G di matrici, con evidenti vantaggi pratici, concettuali e calcolativi. In altre parole, possiamo dire che studieremo una rappresentazione fedele G del gruppo “astratto”. Allora una matrice M ∈ G dipender` a (cio`e i suoi elementi Mij dipenderanno) da r parametri reali: Mij = Mij (a) , a ∈ Rr . Sar` a sempre possibile e conveniente scegliere i parametri a in modo che l’elemento neutro del gruppo (qui: la matrice identit` a) sia parametrizzata da (0, 0, · · · , 0); se i parametri sono piccoli si potr` a scrivere (ritroveremo pi` u avanti questo fatto importante; naturalmente, ∂/∂ai significa derivare rispetto al parametro ai ogni elemento della matrice) M (a) = M (0) + 1

∂M ai + · · · = I + Ai ai + · · · ∂ai

(A.7)

Almeno in un intorno dell’identit` a del gruppo. Si deve sottolineare che molti dei risultati che verranno enunciati saranno validi con questa limitazione: pi` u avanti ne sar` a chiaro il motivo e il senso – v. anche § A.9 per un enunciato pi` u preciso.

A.7 Gruppi di Lie. Definizioni ed esempi generali

avendo posto Ai =

∂M  .  ∂ai a=0

217

(A.8)

Ora un utile risultato tecnico la cui semplice dimostrazione viene lasciata per esercizio (v. § 1.7): Lemma. Se S `e una matrice invertibile e A una matrice qualsiasi, allora S eA S −1 = eSAS

−1

.

(A.9)

Una prima conseguenza di questo lemma `e che ogni matrice M invertibile e diagonalizzabile pu` o essere messa nella forma M = eA .

(A.10)

Per dimostrarlo, basta mettere M in forma diagonale: M → Md = S −1 M S , ovvero ⎞ ⎛ μ1 ⎟ −1 ⎜ .. M = SMd S −1 = S ⎝ ⎠S . μn poi porre μj = eαj (si noti che μj = 0 ; si scelga per αj = log |μj | + i θj la determinazione −π < θj ≤ π, in modo che se μj = 1 sia αj = 0 e dunque I = e0 ), e osservare infine che, indicando con Ad la matrice diagonale Ad = diag(α1 , · · · , αr ) , si ha Md = eAd , da cui M = S Md S −1 = S eAd S −1 = eS Ad S

−1

= eA .

` da notare che la corrispondenza fra μj e αj = log |μj | + i θj potr` a esseE re continua in generale solo localmente (in un intorno di αj = 0) 2 , a causa proprio delle propriet` a della funzione logaritmo in campo complesso: per convincersene, basta considerare il caso in cui la fase θj di μj assume valori in un intorno di π Il risultato (A.10) si pu` o estendere anche a matrici M non diagonalizzabili (si `e cos`ı introdotto il logaritmo delle matrici M invertibili). Naturalmente, in generale, eA eB = eA+B . L’eguaglianza `e vera solo se A e B commutano: [A, B] = 0, avendo introdotto il simbolo di commutatore: [A, B] = A B − B A . In generale, per conoscere almeno i primi termini del prodotto eA eB si pu` o ricorrere alla formula di Baker–Campbell–Hausdorff :   ' 1& ' & 1 A, [A, B] − 12 B, [A, B] + · · · . (A.11) eA eB = exp A + B+ 21 [A, B]+ 12 2

Questo `e un motivo per cui la corrispondenza fra le matrici M e le matrici A di cui si parla nel teorema del successivo paragrafo pu` o essere in generale continua solo “localmente”, cio`e in un intorno dell’identit` a I di G.

218

Appendice. Teoria dei gruppi

A.8 Algebre di Lie Ed ora un primo risultato importante: Teorema : Sia G un gruppo di Lie di matrici, e sia M = eA .

(A.12)

La corrispondenza M →A (in particolare con I → 0) `e una corrispondenza biunivoca e continua (“omeomorfismo”) fra un intorno dell’identit` a I del gruppo e le matrici di un intorno della matrice 0 in uno spazio vettoriale A di dimensione uguale al numero r dei parametri che individuano il gruppo. Faremo solo una verifica di questo risultato nel caso semplice G = SUn . Osserviamo intanto che det M = e Tr A ,

+

M −1 = e−A ,

M+ = eA .

Se dunque M ∈ SUn , si ha +

+

I = M + M = M M + = eA eA = e(A+A

)

,

1 = det M = e Tr A

e dunque A+ = −A ,

Tr A = 0 .

(A.13)

Ma queste sono appunto condizioni lineari e dunque l’insieme delle matrici A che le soddisfano, cio`e le matrici antihermitiane a traccia nulla, forma un sottospazio vettoriale A dello spazio vettoriale delle matrici complesse n × n . Poich`e questi spazi vanno qui intesi come spazi vettoriali sul corpo reale (e dunque, quando le matrici sono complesse, si devono considerare separatamente parte reale e parte immaginaria dei coefficienti), la dimensione di quest’ultimo `e 2n2 , mentre la dimensione del sottospazio A delle matrici che soddisfano le (A.13) `e n2 − 1 , come mostra un rapido calcolo. Per esempio, la dimensione di questo spazio nel caso del gruppo SU3 `e 8 (come `e ben noto nella fisica delle particelle elementari !). Lo spazio vettoriale A viene chiamato spazio tangente al gruppo. Sia A1 , . . . , Ar una sua base; allora ogni A ∈ A potr` a essere scritta A=

r 

ai Ai

(A.14)

i=1

dove i coefficienti ai sono scelti reali (come gi`a detto, se le matrici del gruppo sono complesse, si devono considerare parte reale e parte immaginaria dei parametri). Naturalmente questi parametri ai forniscono una parametrizzazione del gruppo, in accordo con la definizione stessa di gruppo di Lie. Da notare che, se in particolare i parametri ai sono piccoli, si ritrovano le (A.7–8).

A.8 Algebre di Lie

219

Scelta ora una matrice A ∈ A , l’insieme g(a) = ea A

(A.15)

dove a ∈ R , descrive un sottogruppo (di Lie) abeliano a un parametro, “generato” da A. Le Ai si chiamano generatori infinitesimi del gruppo. I generatori infinitesimi si possono ottenere direttamente cos`ı: dato l’elemento generico r   M = exp ai Ai i=1

del gruppo, si ha ∂ M = Aj M ∂aj

dunque

 ∂  M = Aj ∂aj a=0

(A.16)

e in particolare, nel caso dei sottogruppi a un parametro (A.15),  d  = A. g(a) da a=0

(A.16 )

Anche l’“evolutore temporale”, cio`e l’insieme delle matrici {et A } , incontrato nella soluzione dei sistemi dinamici lineari § 1.7a, v. la (1.24 ) , costituisce un esempio naturale di gruppo di Lie a un parametro (il parametro `e fornito proprio dalla variabile tempo t e il generatore `e dato dalla matrice A). Si pu` o anche pensare il gruppo G come una ipersuperficie r-dimensionale

2 2 nello spazio reale Rn ovvero R2n , se le matrici sono complesse ; allora si pu` o considerare la curva definita da M (0, · · · , 0, ai , 0, · · ·) contenuta in questa ipersuperficie, in cui tutti i parametri sono zero salvo ai . La quantit` a dM   dai a=0 pu` o dunque essere vista come il vettore tangente nell’origine (= identit` a del gruppo) a tale curva. L’insieme di questi r vettori `e la base di A, come gi`a visto con linguaggio diverso. Lo spazio tangente A viene dotato, grazie alle propriet` a del gruppo, di una speciale struttura algebrica: si osservi intanto che, per il lemma enunciato

sopra v. (A.9) , se A ∈ A , anche S A S −1 ∈ A (infatti se M = eA , allora −1 S M S −1 = eS A S ); sia ora S = S(t) = et Ai e A = Aj , allora, per t ∈ R , S(t) Aj S −1 (t) = (I + t Ai + · · ·) Aj (I − t Ai + · · ·) = = Aj + t [Ai , Aj ] + · · · ∈ A Dunque, al primo ordine in t o – pi` u accuratamente – calcolando

(A.17)

220

Appendice. Teoria dei gruppi

 

 d  S(t) Aj S(t)−1  = Ai et Ai Aj e−t Aj −et Ai Aj Ai e−t Ai  = [Ai , Aj ] dt t=0 t=0 e ricordando che A `e uno spazio vettoriale, ne segue che Ai Aj − Aj Ai = [Ai , Aj ] ∈ A ; cio`e anche il commutatore fra due elementi contenuti in A deve appartenere ad A e quindi deve essere una combinazione lineare della base Ai , cio`e deve essere 3 : (A.18) [Ai , Aj ] = cijk Ak . a algebriche del gruppo I numeri cijk sono determinati soltanto dalle propriet` (o meglio, dell’algebra) e si chiamano costanti di struttura dell’algebra. Dotato di questa nuova struttura algebrica, espressa dalle regole di commutazione (A.18), la spazio A si chiama algebra di Lie del gruppo G. Come primo (e particolarmente importante!) esempio, calcoliamo ora le regole di commutazione per il gruppo SO3 . Cominciamo a scrivere la matrice del sottogruppo a un parametro delle rotazioni intorno all’asse z, che – come ben noto – `e dato da: ⎞ ⎛ cos ϕ − sin ϕ 0 g3 (ϕ) = ⎝ sin ϕ cos ϕ 0 ⎠ 0 0 1 dove naturalmente ϕ `e il parametro. Il corrispondente generatore infinitesimo `e dunque, utilizzando la (A.16 ), ⎞ ⎛ 0 −1 0  d  A3 = = ⎝1 0 0⎠ . (A.19) g3 (ϕ) dϕ ϕ=0 0 0 0 Analogamente si trovano i generatori A1 e A2 delle rotazioni intorno agli assi x e y. I tre generatori formano una base per l’algebra A di SO3 , ed `e facile vedere che le regole di commutazione che definiscono l’algebra di Lie del gruppo SO3 sono date da [Ai , Aj ] = ijk Ak

(A.20)

dove ijk `e il ben noto tensore totalmente antisimmetrico di Ricci (vale 1 se gli indici sono in ordine “ciclico”, −1 se sono in ordine “anticiclico”, 0 altrimenti). Fino a questo punto, l’algebra di Lie `e stata introdotta a partire da un gruppo G di matrici. In realt` a sarebbe stato possibile (anzi concettualmente pi` u corretto) fare la stessa costruzione con un opportuno procedimento formale a partire da un gruppo astratto (in questo senso – come gi`a detto – il nostro gruppo G era una rappresentazione fedele del gruppo astratto). Ne segue 3

La (A.18) basta ad assicurare che anche i termini di ordine superiore al primo nella (A.17) appartengono ad A, poich´e sono tutti della forma “commutatore di commutatore” etc., come nella formula (A.11). Per & di Baker-Campbell-Hausdorff ' esempio, i coefficienti di t2 sono 12 Ai , [Ai , Aj ] .

A.9 Gruppi e algebre di Lie e loro rappresentazioni

221

che l’algebra di Lie di matrici che abbiamo costruito sopra `e semplicemente una particolare rappresentazione matriciale dell’algebra (astratta) del gruppo. Usando un procedimento “astratto”, si proverebbe che le costanti di struttura cijk non dipendono dalla particolare scelta della rappresentazione del gruppo, ma sono una caratteristica dell’algebra astratta, cio`e – come vedremo fra poco nel caso del gruppo delle rotazioni – si sarebbero trovate le stesse costanti di struttura anche partendo da una diversa rappresentazione fedele del gruppo. D’altra parte, data una rappresentazione di un gruppo, e costruita da questa – come visto sopra – la sua algebra di Lie, ci si potrebbe ora proporre di trovare le rappresentazioni dell’algebra, cio`e di trovare – utilizzando solo le propriet` a dell’algebra, ossia le leggi di commutazione (A.18) caratterizzanti l’algebra stessa – gli insiemi di matrici che soddisfano tali leggi. Ci si dovr` a allora chiedere quale relazione sussiste fra le rappresentazioni del gruppo e le rappresentazioni dell’algebra; collegato a questa domanda, c’`e il problema: ci possono essere gruppi diversi (non isomorfi) con la stessa algebra? Nei prossimi paragrafi daremo una risposta a tutto questo, insieme con esempi fisicamente rilevanti (i gruppi delle traslazioni e delle rotazioni).

A.9 Gruppi e algebre di Lie e loro rappresentazioni Prima di studiare le relazioni fra il gruppo e la sua algebra di Lie (e le loro rappresentazioni), occorre dare qualche definizione astratta. Un gruppo G di matrici si dice connesso se, prese due qualsiasi matrici M1 , M2 ∈ G si pu` o trovare una funzione continua t → M (t), t1 ≤ t ≤ t2 , tale che M (t1 ) = M1 e M (t2 ) = M2 ; pi` u intuitivamente: se si possono cambiare con continuit` a gli elementi della matrice M1 in modo da passare da M1 a M2 . Per esempio SO2 `e connesso, ma n´e O2 n´e O3 lo sono, infatti `e impossibile passare con continuit` a da una matrice a determinante 1 ad una a determinante −1 (una funzione reale continua non pu` o passare da valori positivi a valori negativi senza passare per zero, cio`e dovrebbe includere matrici con determinante nullo). La stessa osservazione vale per GLn (R) , mentre i gruppi Un sono connessi (intuitivamente, M ∈ Un implica | det M | = 1 cio`e det M varia con continuit` a su tutti i numeri complessi di modulo 1); sono pure connessi SLn (R), SUn . Ci si deve ora chiedere se, data (una rappresentazione di) un’algebra di Lie, l’insieme delle matrici {eΣai Ai } descrive veramente, al variare dei parametri ai , tutto il gruppo G. La risposta `e irrimediabilmente negativa, in generale, perch´e, variando con continuit` a i parametri da a = 0 (cio`e dall’identit` a), la matrice eΣai Ai varier` a anch’essa con continuit` a e quindi – se il gruppo non `e connesso – non potr` a passare da una “falda” all’altra del gruppo, ma potr` a descrivere al pi` u la “componente connessa” all’identit` a. Per esempio, nel caso di O3 , non potr` a passare da matrici con determinante 1 a matrici con determinante −1.

222

Appendice. Teoria dei gruppi

Ma c’`e un altro problema: un gruppo pu` o essere connesso ma non semplicemente connesso. Ricordiamo che un insieme `e semplicemente connesso se (intuitivamente) ogni linea chiusa contenuta in esso pu` o essere deformata con continuit` a, restando nell’insieme, fino a diventare un punto. Per esempio il gruppo U2 (e tutti i gruppi Un ) sono connessi ma non semplicemente connessi: intuitivamente, una linea in Un , dovendo essere | det M | = 1, pu` o “circondare” lo zero. Non `e semplicemente connesso nemmeno SO2 , che infatti `e “topologicamente” equivalente ad una circonferenza, n´e lo `e SO3 (e cos`ı tutti i gruppi SOn ), mentre `e semplicemente connesso SU2 (e tutti gruppi SUn ), anche se `e meno facile provare tutto questo. Questo fatto ha enorme importanza in fisica (`e “responsabile” dell’esistenza dello spin, come vedremo pi` u avanti), e in matematica. Si ha infatti il seguente risultato, che risponde alla domanda iniziale sulla relazione fra gruppo e algebra: Teorema : Se un gruppo G `e connesso e semplicemente connesso c’`e corrispondenza biunivoca fra le rappresentazioni del gruppo e quelle della sua algebra di Lie. In parole semplici, in queste ipotesi, ogni rappresentazione dell’algebra `e anche (estendibile, facendo eΣ ai Ai , ad) una rappresentazione dell’intero gruppo. Tutto questo risulter` a un po’ pi` u chiaro tra poco, soprattutto dopo aver considerato qualche esempio significativo. A questo punto, `e anche possibile dare un enunciato preciso, in termini di algebre (non di gruppi) del teorema di Ado (v. § A.7): ogni algebra di Lie ammette una rappresentazione fedele mediante matrici. Ma occorre ancora dare un’altra definizione: un gruppo di Lie si dice compatto se (detto nel modo pi` u semplice) i suoi parametri ai occupano un insieme chiuso e limitato in Rr . Ne viene che, per esempio, SO3 `e compatto, mentre il gruppo delle traslazioni e il gruppo di Lorentz (v. § A.15) non lo sono. L’importanza di questa definizione sta nel seguente Teorema : Ogni rappresentazione di un gruppo compatto `e equivalente ad una rappresentazione unitaria, pertanto `e irriducibile o completamente riducibile “a blocchi”. Inoltre queste rappresentazioni irriducibili hanno dimensione finita. La dimostrazione `e simile a quella fatta per i gruppi finiti (v. § A.4): si dovr` a sostituire la somma eseguita sugli N elementi del gruppo con un integrale sul gruppo (si parla di integrazione invariante sul gruppo, ma questo `e possibile solo se il gruppo `e compatto). Inoltre si dimostra che le tecniche per trovare la decomposizione di una rappresentazione nella somma diretta delle sue componenti irriducibili (inclusa la tecnica dei caratteri) possono essere applicate sostanzialmente come per i gruppi finiti. In generale, invece, i gruppi non compatti non ammettono rappresentazioni fedeli unitarie a dimensione finita.

A.10 Rappresentazioni differenziali

223

A.10 Rappresentazioni differenziali Sia V lo spazio vettoriale sul quale operano gli elementi di un gruppo di Lie G (negli esempi che considereremo sar`a V = R oppure V = R3 ), e si consideri lo spazio delle funzioni definite su V : f : V →C

ossia

f = f (x) ,

x∈V

per esempio di tipo L2 (V ). Per ciascun g ∈ G , la trasformazione Tg : L2 → L2 definita da

Tg f = f*

dove

f* = f*(x) = f (g −1 x)

(A.21)

(ovvero: Tg trasforma f nella funzione f* = Tg f che assume nel punto x il valore che la f assumeva nel punto g −1 x ), `e una trasformazione lineare di L2 in s`e, che inoltre soddisfa la propriet` a gruppale T g1 g 2 = T g 1 T g 2 . Per la verifica si procede in questo modo: Tg1 (Tg2 f ) = Tg1 f* dove (Tg1 f*)(x) = f*(g1−1 x) = f (g2−1 g1−1 x) = f ((g1 g2 )−1 x) = (Tg1 g2 f )(x) . Dunque l’insieme delle trasformazioni Tg costituisce una rappresentazione di dimensione infinita del gruppo G (cio`e non pi` u con matrici, ma ora con operatori su spazi di Hilbert). Per esempio, sia V = R e G il gruppo delle traslazioni sulla retta (si tratta di un gruppo non compatto, isomorfo a R): per effetto della traslazione x → x + a la (A.21) diventa (Ta f )(x) = f (x − a) e questa definisce una rappresentazione del gruppo delle traslazioni mediante operatori unitari Ta in L2 (R). Restringendosi al dominio delle funzioni abbastanza regolari, si pu` o scrivere la precedente relazione, per a piccolo,  df d  (Ta f )(x) = f (x) − a + ··· = 1 − a f + ··· dx dx e cos`ı si ottiene una rappresentazione differenziale del generatore v.

(A.7,8) dell’algebra del gruppo delle traslazioni, che `e data da A=−

d . dx

224

Appendice. Teoria dei gruppi

Se si considerano le traslazioni in R3 , e dunque lo spazio delle funzioni f = f (x, y, z) ∈ L2 (R3 ) , si trovano i tre generatori Ai = −

∂ ∂xi

dove

xi ≡ (x, y, z)

(A.22)

ed `e facile verificare che l’algebra di questi generatori `e caratterizzata dalla regola di commutazione [Ai , Aj ] = 0 e si ottiene dunque un’algebra commutativa. In fisica, si preferisce porre Pk = i Ak , in modo da avere operatori simmetrici (v. § 2.18,a). Il fatto che il generatore infinitesimo A di una rappresentazione unitaria di un gruppo di Lie sia un operatore antisimmetrico (e dunque i A sia simmetrico) `e una propriet` a generale (Teorema di Stone). Come altro esempio, consideriamo il gruppo SO2 delle rotazioni (intorno all’asse z), che opera sullo spazio L2 (0, 2π) : Tα : f (ϕ) → f (ϕ − α) = f (ϕ) − α

df + · · · = (I + αA) f + · · · dϕ

avendo ragionato esattamente come fatto sopra. Ne segue che A = −d/dϕ ; dunque il gruppo SO2 e il gruppo delle traslazioni lungo la retta hanno la stessa algebra di Lie (unidimensionale)! (e in effetti “localmente” una rotazione e una traslazione si confondono). Due gruppi con la stessa algebra di Lie si dicono localmente isomorfi. Un altro esempio anche pi` u importante sar` a incontrato tra poco. Dato che – a differenza del gruppo delle traslazioni – il gruppo SO2 `e compatto, esso deve avere rappresentazioni unitarie a dimensione finita, anzi a dimensione 1, essendo abeliano, come gi`a visto in § A.5. E infatti si vede subito che la rappresentazione infinito-dimensionale in L2 (0, 2π) appena considerata ammette infiniti sottospazi invarianti unidimensionali: i sottospazi generati da ei m ϕ . Infatti Tα ei m ϕ = e−i m α ei m ϕ ,

m ∈ Z.

In altre parole, i vettori ei mϕ sono autovettori degli operatori unitari Tα ; in linguaggio gruppale, essi sono la base per tutte le (infinite) rappresentazioni inequivalenti di SO2 , e la completezza di queste rappresentazioni `e un aspetto del teorema di Peter-Weyl in versione infinito-dimensionale! Vale la pena di notare che se si parte dal generatore infinitesimo d/dϕ del gruppo SO2 (cio`e dalla sua algebra) e se ne cercano gli autovettori −

d f (ϕ) = λf (ϕ) dϕ

si ritrovano i vettori base ei m ϕ delle rappresentazioni di SO2 , ma solo se si impone la condizione di periodicit` a dopo una rotazione di angolo 2π, cio`e

A.11 Gruppo delle rotazioni ed SU2

225

dopo rotazioni “grandi”, ovvero con condizioni ‘estranee’ all’algebra di Lie. Questa osservazione fa intuire che l’algebra “da sola” non determina le ‘vere’ rappresentazioni del gruppo SO2 (che infatti non `e semplicemente connesso). A maggior ragione, se si vogliono trovare le rappresentazioni di O2 , che non `e connesso, l’algebra non aiuta; tuttavia, basta in questo caso osservare che il gruppo O2 include la trasformazione ϕ → −ϕ che “collega” gli elementi ei m ϕ con m opposti, e si pu` o cos`ı vedere che le sue rappresentazioni irriducibili sono tutte 2-dimensionali (a parte la rappresentazione banale “1” e la {1, −1} = det M ) e sono date da   cos m α ∓ sin m α , m = 1, 2, · · · . sin m α ± cos m α

A.11 Gruppo delle rotazioni ed SU2 Cominciamo a trovare le rappresentazioni differenziali del gruppo SO3 , procedendo come fatto per il gruppo delle traslazioni. Sia dunque f (x) ∈ L2 (R3 ) , x ≡ (x, y, z) , e consideriamo una rotazione infinitesima intorno all’asse z: usando la (A.21) si ottiene, al primo ordine nell’angolo di rotazione ϕ (per cui sin ϕ  ϕ etc.),  ∂ ∂  f (x) → f (g −1 x) = f (x+y ϕ, y−x ϕ, z) = f (x)+ϕ y −x f = (1+ϕ A3 ) f ∂x ∂y avendo ovviamente assegnato al generatore A3 l’espressione A3 = y

∂ ∂ −x · ∂x ∂y

(A.23)

Analoghe espressioni si trovano per A1 , A2 , ed `e facile controllare che anche queste Ai verificano le regole di commutazione (A.20) di SO3 , come ci aspettavamo (le costanti di struttura non dipendono dalla rappresentazione). ` consuetudine in fisica porre Lk = i Ak , da cui, per esempio, L3 = E x Py − y Px , in modo da avere anche qui operatori hermitiani (proporzionali in meccanica quantistica alle componenti del momento angolare), e le (A.20) diventano [Li , Lj ] = i ijk Lk . Prima di cercare le rappresentazioni irriducibili del gruppo delle rotazioni, passiamo a considerare il gruppo di matrici SU2 : un rapido calcolo mostra che SU2 `e un gruppo a 3 parametri e – ricordando quanto visto in § A.8 e in particolare la (A.13) – si vede che si possono prendere come generatori le tre matrici       0 i 0 −1 i 0 A1 = , A2 = , A3 = (A.24) i 0 1 0 0 −i

226

Appendice. Teoria dei gruppi

(se si pone σk = −i Ak in modo da ottenere matrici hermitiane, le σk si chamano matrici di Pauli e servono a descrivere in meccanica quantistica lo spin 12 ), e si vede che le Ak soddisfano alle regole di commutazione [Ai , Aj ] = 2 ijk Ak . Se allora si pone Ak = 12 Ak si trova che le Ak soddisfano alle stesse leggi dell’algebra di SO3 ! D’altronde SU2 e SO3 non sono isomorfi, come vedremo subito, e dunque questo `e un altro esempio importante di gruppi non isomorfi che ammettono la stessa algebra di Lie (o meglio algebre di Lie isomorfe), ovvero di gruppi localmente isomorfi. Pi` u esattamente, si pu`o costruire un omomorfismo non iniettivo tra SU2 ed SO3 nel modo seguente. Si osservi anzitutto che la pi` u generale matrice 2 × 2 hermitiana a traccia nulla M pu` o essere evidentemente scritta nella forma   z x + iy M= x − iy −z (si noti che M = x σ1 + y σ2 + z σ3 ), dove x ≡ (x, y, z) ∈ R3 . Si ha anche det M = −x2 = −(x2 + y 2 + z 2 ) . Per ogni U ∈ SU2 , si consideri la trasformazione M → M  = U M U −1 = U M U + .

(A.25)

Si vede subito che anche M  `e hermitiana e a traccia nulla, dunque si potr` a scrivere   x − i y  z M = x + i y  −z  e inoltre si ha det M  = det M ovvero x 2 = x2 . Dunque la trasformazione M → M  individua una trasformazione ortogonale x → x  = R x ; si `e allora definita tramite la (A.25) una corrispondenza fra le matrici U ∈ SU2 e le matrici ortogonali R, e si potrebbe pure provare che tale corrispondenza `e un omomorfismo surgettivo fra SU2 e SO3 . Non `e per`o iniettivo e dunque non `e un isomorfismo: infatti U e −U individuano tramite la (A.25) la stessa R ∈ SO3 . Il nucleo di tale omomorfismo `e Z2 = {I, −I} e si ha anche SO3  SU2 /Z2 .

(A.26)

Torniamo ora al problema di trovare tutte le rappresentazioni irriducibili dei gruppi SO3 ed SU2 . Essendo entrambi gruppi compatti, essi ammettono rappresentazioni irriducibili unitarie a dimensione finita. Come `e dimostrato in qualsiasi testo di meccanica quantistica, utilizzando esclusivamente le regole di commutazione (A.20) caratterizzanti l’algebra di tali gruppi, si vede che per ogni numero intero N esiste una rappresentazione irriducibile di questa algebra

cio`e si trova un insieme di matrici N ×N che soddisfa le (A.20) . Poich`e SU2

A.11 Gruppo delle rotazioni ed SU2

227

`e un gruppo connesso e semplicemente connesso, queste rappresentazioni sono anche tutte e sole le rappresentazioni del gruppo (in particolare, per N = 2 , si ritrova ovviamente la rappresentazione “naturale” che definisce SU2 come gruppo di matrici unitarie 2 × 2 ). Si osservi ancora che l’operatore A2 ≡ A21 + A22 + A23

(A.27)

commuta con tutti i generatori del gruppo, e quindi, grazie al lemma di Schur, su ogni rappresentazione irriducibile del gruppo, A2 deve essere un multiplo dell’identit` a: A2 = λI . Ancora utilizzando soltanto le regole “astratte” dell’algebra (A.20), si riesce a dimostrare che A2 assume, su ciascuna rappresentazione irriducibile di dimensione N , l’autovalore j(j + 1) , dove N = 2j + 1 e j `e un numero “semintero” j = 0, 12 , 1, 32 , · · · . Poich`e invece il gruppo SO3 non `e semplicemente connesso, ci si deve attendere che, nonostante esso abbia la stessa algebra di SU2 , non tutte le rappresentazioni ora trovate siano estendibili ad SO3 . Per trovare le rappresentazioni irriducibili di SO3 si considera di nuovo l’operatore (A.27), ma ora se ne cercano le autofunzioni ricorrendo alla rappresentazione differenziale degli operatori Ak . Utilizzando coordinate sferiche r, θ, ϕ, si ottiene per A2 un’espressione esattamente coincidente con la parte dipendente dagli angoli

θ, ϕ del Laplaciano v. (2.75) , e naturalmente si trova anche A3 = −∂/∂ϕ . Allora l’equazione agli autovalori A2 ψ(θ, ϕ) = λ ψ(θ, ϕ) `e la stessa gi`a considerata nel § 2.21(2), e ora possiamo concluderne che le rappresentazioni irriducibili di SO3 , generalmente indicate con D( ) , sono individuate da un numero intero  = 0, 1, 2, · · · , hanno dimensione 2 + 1, e hanno come spazio base le funzioni chiamate armoniche sferiche Y ,m (θ, ϕ), m = 0, ±1, · · · , ± , incontrate nel § 2.21(2) e che sono ben note in meccanica quantistica poich´e descrivono gli stati di momento angolare (intero) . ` opportuno osservare che l’azione di SO3 lascia r invariato, e dunque si E vede che – anzich`e lo spazio L2 (R3 ) – occorre qui considerare lo spazio delle funzioni f (θ, ϕ) definite sulla superficie della sfera L2 (S), in cui r = costante (che si pu`o prendere = 1). La rappresentazione “naturale” di SO3 , cio`e quella che lo definisce come gruppo delle matrici ortogonali 3 × 3 , si ottiene dal caso  = 1 , infatti le armoniche sferiche con  = 1 sono Y1,±1 = sin θ e±i ϕ ,

Y1,0 = cos θ

dunque Y1,±1 = x ± i y e Y1,0 = z , e cio`e le armoniche sferiche con  = 1 sono lo spazio dei vettori x ∈ R3 che `e lo spazio base della rappresentazione naturale di SO3 . Per ulteriore conferma, si pu` o vedere che l’operatore A3 , che – come gi`a notato – qui `e dato da −∂/∂ϕ, ammette sulle funzioni Y1,m gli

228

Appendice. Teoria dei gruppi

autovalori 0, ±i , che sono precisamente gli autovalori della matrice A3 (A.19) trovata nel § A.8. ` anche evidente che il sottospazio dei polinomi in x, y, z di grado fissato k E sar` a invariante sotto rotazioni (che sono trasformazioni x → x cos ϕ − y sin ϕ etc.); per esempio se k = 2, i sei polinomi quadratici x2 , y 2 , z 2 , x y, x z, y z saranno trasformati gli uni negli altri. Ma r2 = x2 +y 2 +z 2 `e gi`a un invariante sotto rotazioni, dunque resta un sottospazio invariante a dimensione 5, che coincide con lo spazio base della rappresentazione con  = 2 ; infatti, per esempio si ha

2 1 2 2 2 Y2,2 + Y2,−2 = sin θ cos 2ϕ = x − y . Si dimostra pure che le rappresentazioni D( ) trovate in questo modo sono tutte e sole le rappresentazioni irriducibili del gruppo SO3 ; dunque il gruppo SO3 ammette solo rappresentazioni di dimensione dispari, a differenza di SU2 . Ci si convince subito che le rappresentazioni di dimensione pari di SU2 non possono essere estese a SO3 : per esempio sia N = 2 e dunque, per quanto detto, si devono considerare i generatori Ak = 12 Ak definiti in (A.24); se si cerca di rappresentare mediante questi una rotazione di angolo ϕ intorno all’asse 3 dovr`a essere   i ϕ/2 1 0 e R(ϕ) = e 2 A3 ϕ = (A.28) 0 e−i ϕ/2 e si vede che per ϕ = 2π si ottiene R(2π) = −I (e non l’identit` a I, come dovrebbe!); pi` u in generale si ha R(ϕ + 2π) = −R(ϕ) . Dunque questa non `e una rappresentazione per il gruppo delle rotazioni. Si pu` o vedere in questo modo che solo se N `e dispari, la rappresentazione di SU2 pu` o essere estesa ` ad SO3 , con N = 2+1 , altrimenti `e una rappresentazione “a due valori”. E ancora una volta da notare che sono le “condizioni al bordo” (cio`e le condizioni per rotazioni ‘grandi’, v. § 2.21(2)) che escludono per SO3 le rappresentazioni con N pari, mentre le pure operazioni sull’algebra ‘ignorano’ queste condizioni.

A.12 Alcune propriet` a generali delle algebre Cogliendo lo spunto da quanto visto nei precedenti paragrafi, `e utile dare alcune definizioni e propriet` a generali. Data un’algebra di Lie A, si dice che A ⊂ A `e una sottoalgebra di A se A `e un sottospazio di A e il commutatore fra gli elementi di A `e contenuto in A , ovvero, con notazioni evidenti, [Ai , Aj ] = cijk Ak ; esattamente come per i gruppi (v. § A.2), si dice che una sottoalgebra A `e invariante se [Ai , Aj ] = cijk Ak , ∀ Ai ∈ A, Aj ∈ A ; infine un’algebra si dir` a semplice se non ha sottoalgebre invarianti e semisemplice se non ha sottoalgebre invarianti abeliane.

A.13 Rappresentazioni tensoriali e loro decomposizione

229

Un operatore come A2 , definito nella (A.27), cio`e ogni operatore sotto forma di polinomio costruito con i generatori Ai di un’algebra, con la propriet` a di commutare con tutti gli Ai , si chiama operatore di Casimir. Grazie al lemma di Schur, gli operatori di Casimir diventano multipli dell’identit` a sulle rappresentazioni irriducibili. Data l’algebra di un gruppo, il massimo numero di generatori che commutano fra loro si chiama rango ρ dell’algebra; questi generatori possono essere diagonalizzati simultaneamente (se – come avviene di regola – sono rappresentati da matrici normali). Si dimostra che il numero degli operatori di Casimir C1 , · · · , Cρ di un’algebra di Lie semisemplice `e uguale al rango dell’algebra ` ovvio che anche qualsiasi funzione f (C1 , · · · , Cρ ) degli operatori stessa. E di Casimir commuter` a con tutti i generatori: `e dunque sottinteso “operatori funzionalmente indipendenti”. Per esempio, il rango di SO3 e di SU2 `e 1: infatti, scelto un qualsiasi generatore nell’algebra A, non c’`e nessun altro generatore che commuta con esso; dunque non c’`e nessun altro operatore di Casimir per questi gruppi oltre ad A2 (o pi` u esattamente: qualsiasi altro operatore che commuti con tutta l’algebra `e una funzione di A2 ). Pi` u in generale, SUn ha rango n − 1 ; invece per quanto riguarda i gruppi SOn si ha che SO2m+1 e SO2m hanno rango m. Dato un gruppo G non semplicemente connesso e la sua algebra di Lie, ci si pu` o chiedere se esiste un gruppo connesso e semplicemente connesso G con la stessa algebra, e dunque tale che tutte le rappresentazioni dell’algebra siano estendibili all’intero G. Si pu` o dimostrare che il gruppo G esiste sempre, ed `e chiamato rivestimento universale (universal covering ) di G. Nel caso G = SO3 si `e appena visto che G = SU2 , si `e anche visto che SO3  SU2 /Z2 v. (A.26) . Nel caso di SO2 , il gruppo G `e dato dal gruppo T1 delle traslazioni lungo la retta: infatti le rotazioni sono date dalle traslazioni “modulo 2π”, ovvero SO2  T1 /Z dove Z `e (isomorfo a) il sottogruppo delle traslazioni di 2π k, k ∈ Z . Si pu` o ancora dimostrare che sussiste sempre la relazione G  G/D

(A.29)

dove D `e un gruppo discreto, sottogruppo invariante di G, detto gruppo di omotopia di G.

A.13 Rappresentazioni tensoriali e loro decomposizione Siano V e W due spazi vettoriali (pu` o anche essere V = W ) e siano ei ed fj due basi in V e W rispettivamente. Considerando formalmente tutte le coppie ei fj e le loro combinazioni lineari

230

Appendice. Teoria dei gruppi



λij ei fj

(A.30)

i,j

si ottiene uno spazio vettoriale; se V e W hanno dimensione finita m ed n rispettivamente, tale spazio ha dimensione m × n , ma il procedimento pu` o essere eseguito anche se uno o entrambi gli spazi sono spazi di Hilbert (a dimensione infinita). Tale spazio si chiama prodotto tensore di V e W e si indica con V ⊗W ; i suoi elementi (“tensori”) si indicano genericamente con T . In particolare, fra gli elementi di V ⊗ W sono contenuti i vettori v ⊗ w , definiti da    v⊗w = vi wj ei fj dove v= vi ei ∈ V , w = wj fj ∈ W . i,j

i

j

Spesso si scrive semplicemente v w anzich`e v ⊗ w , oppure, con le notazioni della meccanica quantistica, anche |v |w; se V e W sono spazi di funzioni e f = f (x) ∈ V , g = g(y) ∈ W , allora f ⊗ g `e semplicemente il prodotto f (x) g(y) delle due funzioni. Naturalmente, il set ei ⊗ fj = ei fj `e un set completo in V ⊗ W . Se V = W = Rn , lo spazio V ⊗V `e (isomorfo a) lo spazio delle matrici T reali n×n , intese qui come spazio vettoriale. Se V = W = L2 (0, π) , lo spazio V ⊗ V `e L2 (Q), dove Q `e il quadrato di lato π, in cui infatti il set wn1 ,n2 dato nel § 2.21 `e un set completo. Analogamente L2 (R2 ) = L2 (R) ⊗ L2 (R). Pu` o avvenire che V sia lo spazio base di una rappresentazione R di un gruppo G e W lo spazio base di una rappresentazione S di un gruppo H: allora G agisce tramite R sugli indici “i” ed H tramite S sugli indici “j”: Ti1 j1 → Ti1 j1 = Ri1 i2 (g) Sj1 j2 (h) Ti2 j2

,

g ∈ G, h ∈ H .

(A.31)

In altre parole, il gruppo G ⊗ H agisce su V ⊗ W con la rappresentazione R ⊗ S. Per esempio, questo avviene quando G agisce sulle variabili spaziali (con rotazioni e traslazioni, p.es.) di una funzione d’onda, mentre H agisce indipendentemente sulle “variabili interne” (p.es. lo spin isotopico). Una situazione pi` u interessante si ha quando uno stesso gruppo G agisce con due sue rappresentazioni R e S sugli spazi V e W : in tal caso R ⊗ S `e una rappresentazione prodotto tensore o prodotto diretto del gruppo G, operante sullo spazio V ⊗ W . In particolare, poi, pu` o essere V = W e R = S; si ottiene cos`ı in modo naturale la nuova rappresentazione R ⊗ R di G operante sullo spazio V ⊗ V . Per esempio, sia V = Rn , G = SOn ed R la sua rappresentazione “naturale” operante su Rn , allora la (A.31) si pu` o riscrivere pi` u semplicemente T → T  = R T Rt = R T R−1 ∈ Rn ⊗ Rn .

(A.31 )

Ci si pu` o ora chiedere se questa rappresentazione, che `e di dimensione n2 , `e riducibile. Si vede subito intanto che la traccia di T non viene alterata dalle trasformazioni (A.31 ) (dunque `e base per la rappresentazione ‘banale’

A.13 Rappresentazioni tensoriali e loro decomposizione

231

unidimensionale di G), e si controlla facilmente dalla (A.31 ) che `e invariante il sottospazio delle matrici antisimmetriche, e lo `e anche il sottospazio delle matrici simmetriche a traccia nulla se T `e una matrice, si ottiene da questa

(0) una matrice T (0) a traccia nulla ponendo Tij = Tij − (1/n)δij (Tr T ) . Dunque la rappresentazione R ⊗ R si decompone nella somma diretta di tre rappresentazioni. Per esempio, nel caso che sia V = R3 , G = SO3 , la rappresentazione R ⊗ R, di dimensione 9, si decompone nella somma diretta di 3 rappresentazioni di dimensione 1, 3, 5, come si vede facilmente, che corrispondono esat

tamente alle rappresentazioni con  = 0, 1 , 2 v. (§ A.11) . Con il linguaggio della meccanica quantistica, il prodotto tensore V ⊗ V corrisponde in questo caso, ricordando che la rappresentazione “naturale” di SO3 `e D(1) , alla “composizione” di due momenti angolari  = 1 ; si `e dunque ottenuto: D(1) ⊗ D(1) = D(0) ⊕ D(1) ⊕ D(2) . Il procedimento si pu` o naturalmente iterare, con l’introduzione di tensori a pi` u indici Ti1 i2 ··· is ∈ V ⊗ · · · ⊗ V che si trasformano sotto il gruppo G tramite la rappresentazione R⊗ · · · ⊗R (s volte), o esplicitamente Ti1 i2 ···

is

→ T

 i1 i2 ··· is

= Ri1 j1 Ri2 j2 · · · Ris js Tj1 j2 ··· js

che generalizza la (A.31). Come nel caso dei tensori a due indici (A.30), queste rappresentazioni si possono ridurre assegnando propriet` a di simmetria o antisimmetria per scambi di indici, etc. Nel caso di SO3 , si ritrovano per questa via, a partire dalla D(1) , tutte le rappresentazioni D( ) gi` a incontrate (§ A.11). Sorge qualche differenza nel caso dei gruppi SUn : per questi infatti, se si considera la rappresentazione “naturale” n-dimensionale che opera nello spazio V = Cn , e si prende la complessa coniugata di ogni matrice R del gruppo, si ottiene un’altra rappresentazione inequivalente alla precedente (fa eccezione il gruppo SU2 , per il quale queste due rappresentazioni risultano equivalenti; in altre parole, SU2 ha una sola rappresentazione irriducibile di dimensione N = 2, e cos`ı pure una sola di dimensione N = 3, ecc.). Se x ∈ Cn , si usa scrivere x∗i = xi . Ci saranno di conseguenza tensori con indici in alto e con indici in basso: ··· ir Tji11 ··· js

(A.32)

nei quali gli indici in basso vengono trasformati dalle matrici R e gli indici in alto dalle matrici R∗ .

232

Appendice. Teoria dei gruppi

Per esempio, nel caso del gruppo SU3 , ci sar`a, oltre alla rappresentazione “naturale” sullo spazio xi ∈ C3 , la rappresentazione complessa coniugata operante sullo spazio xi , entrambe di dimensione 3 (e ormai note come tripletti dei “quarks e “antiquarks”). Ci sar` a poi la rappresentazione sullo spazio dei tensori Tji di dimensione 9; questa rappresentazione risulta per` o riducibile, poich´e la traccia Tr T = Tii `e invariante sotto le trasformazioni T → R R∗ T , e si ottiene cos`ı – oltre alla rappresentazione unidimensionale – una rappresentazione irriducibile di dimensione 8 operante sullo spazio dei tensori a traccia nulla (gli “ottetti” di SU3 ). E ancora si trovano due rappresentazioni inequivalenti di dimensione 6 operanti sui tensori simmetrici Tij e rispettivamente T ij (la rappresentazione sui tensori Tij antisimmetrici risulta invece equivalente alla rappresentazione tridimensionale operante su xi ), due rappresentazioni di dimensione 10 operanti sui tensori simmetrici su tre indici Tijk e T ijk , etc.

A.14 Qualche conseguenza fisica Ed ora un cenno a qualche importante conseguenza nella fisica. Anzitutto, si ha subito che qualunque operatore che descrive un problema con simmetria sferica, e dunque con simmetria SO3 per esempio

l’Hamiltoniana di Schr¨ odinger per l’atomo in un potenziale centrale V (r) dovr` a avere necessariamente autovalori con degenerazione dispari (data da 2 + 1), grazie al lemma di Schur. Se poi il sistema `e posto in un campo magnetico, per esempio lungo l’asse z, la simmetria “superstite” `e data dal solo sottogruppo SO2 che descrive le rotazioni intorno all’asse z (non O2 , perch´e il campo magnetico si inverte per riflessioni rispetto a piani passanti per l’asse z). Ne segue che – dato che le rappresentazioni irriducibili di SO2 sono unidimensionali – ci si deve attendere che gli autovalori con degenerazione 2 + 1 si separino in 2 + 1 valori distinti (effetto Zeeman). Ma se si considera il caso speciale dell’atomo di idrogeno, si trova che gli autovalori En dell’energia (equazione di Schr¨ odinger) hanno una degenerazione molto maggiore di 2 + 1, e che `e data da n2 , dove n `e un numero intero (numero quantico principale); si noti che 12 = 1 =“s” , 22 = 1 + 3 =“s” + “p” , 32 = 1 + 3 + 5 = “s”+“p”+“d” , etc. (con le notazioni s, p, d, . . . ben note dalla chimica e dalla spettroscopia), cio`e ogni autovalore En contiene i “multipletti” di dimensione 2 + 1 . Non si tratta di degenerazione accidentale, ma `e una conseguenza del fatto che il potenziale coulombiano ammette – oltre alla simmetria per rotazione SO3 – una ulteriore simmetria. Ricordando infatti dalla meccanica classica che il vettore di Runge-Lenz `e una costante del moto per il problema di Keplero, si pu` o costruire, partendo proprio dalla espressione classica di tale vettore, un operatore vettoriale M1 , M2 , M3 che commuta con l’Hamiltoniana di Schr¨ odinger

A.14 Qualche conseguenza fisica

233

per l’atomo di idrogeno e che forma insieme con i generatori delle rotazioni A1 , A2 , A3 di SO3 , un’algebra caratterizzata dalle leggi di commutazione 4 [Ai , Aj ] = ijk Ak ,

[Mi , Mj ] = ijk Ak ,

[Ai , Mj ] = ijk Mk

(A.33)

Questa `e l’algebra del gruppo SO4 , e si dimostra che vi sono rappresentazioni irriducibili di SO4 che hanno esattamente dimensione n2 . Naturalmente, se si considerano gli atomi alcalini, che sono “simili” all’atomo di idrogeno poich´e il loro potenziale `e “quasi” coulombiano, si trova che i loro autovalori dell’energia perderanno la degenerazione n2 (mantenendo comunque la degenerazione 2 + 1 ), pur restando “vicini” ai valori En dell’atomo di idrogeno. Un altro esempio importante `e fornito dall’oscillatore armonico isotropo tridimensionale in meccanica quantistica (l’estensione all’oscillatore in n dimensioni `e immediata): si pu` o infatti vedere che la sua Hamiltoniana ammette, grazie alla sua espressione, la simmetria descritta dal gruppo U3 (anzi, l’Hamiltoniana `e un operatore di Casimir per tale gruppo, che ha rango 3). Anche in questo caso, tale propriet` a risulta gi` a evidente dalla meccanica classica: basta infatti scrivere l’Hamiltoniana nella forma di un prodotto scalare in C3 H =



kx2 p2 + = z, z 2m 2

con le notazioni usuali, dove z ∈ C3 `e il vettore di componenti   zj = k/2 xj + i 1/2m pj , j = 1, 2, 3 . Le rappresentazioni irriducibili di U3 operano sugli stessi spazi base del gruppo SU3 , e quindi hanno le stesse dimensioni, ed `e un utile esercizio verificare che la degenerazione dei livelli energetici dell’oscillatore tridimensionale `e uguale alla dimensione delle rappresentazioni irriducibili operanti sui tensori simmetrici con indici “in basso” (v. § A.13) e cio`e 1, 3, 6, 10, · · · . Si pu` o anche far presente – di passaggio – che vi sono molte e diverse altre applicazioni della teoria riguardante le algebre di Lie e i concetti ad esse collegati. Per esempio, con una opportuna estensione dell’espressione dei generatori infinitesimi in forma differenziale, `e possibile studiare le propriet` a di simmetria delle equazioni differenziali, sia alle derivate ordinarie che alle derivate parziali, e introdurre la nozione di gruppo di simmetria di un’equazione differenziale, che `e – in breve – il gruppo delle trasformazioni che mutano soluzioni dell’equazione in altre soluzioni 5 .

4 5

ci si riferisce al caso di “stati legati” dell’atomo Si pu` o vedere per esempio il libro di Olver [43], oppure – per una breve introduzione a queste idee – il testo di Bernardini et al. [1]

234

Appendice. Teoria dei gruppi

A.15 Il gruppo di Lorentz Si possono introdurre altri importanti esempi di gruppi di Lie nel modo seguente. Si consideri la forma quadratica in Rn+m un “prodotto scalare” non positivo definito fra vettori x, y ∈ Rn+m , che

– per evitare confusioni – qui indicheremo con la nuova notazione ( , )± (x, y)± = x1 y1 +x2 y2 + · · · +xn yn −(xn+1 yn+1 + · · · +xn+m yn+m ) . (A.34) Il gruppo delle trasformazioni lineari reali M in Rn+m che lascia invariante la forma sopra definita, cio`e tale che (M x, M y)± = (x, y)± , si indica con O(n, m) ed `e ovviamente un gruppo di Lie. In particolare, in R3+1 , ponendo x ≡ (x, t), la (A.34) fornisce (x, x)± = 2 |x | − t2 , ed O(3, 1) `e il gruppo di Lorentz. Il gruppo O(1, 1) `e invece il sottogruppo delle trasformazioni di Lorentz che coinvolgono una sola variabile spaziale e il tempo (incluse le inversioni spazio-temporali). Ancor pi` u in particolare, le matrici del sottogruppo delle trasformazioni di Lorentz unidimensionali “pure” si possono scrivere nella forma   cosh α − sinh α (A.35) − sinh α cosh α dove naturalmente α, definito da tanh α = v/c `e il parametro di Lie. I gruppi O(3, 2) e O(4, 1) si chiamano gruppi di de Sitter e sono importanti in relativit` a generale. Se g indica la matrice diagonale g = diag(1, 1, . . . , 1, −1, . . . , −1) " #$ % " #$ % n

(A.36)

m

si ha (x, y)± = (x, g y) e si vede che M ∈ O(n, m) se e solo se Mt g M = g

(A.37)

(M t = trasposta di M , che `e anche M + , essendo M reale). Se ne ricava, in particolare, che det M = ±1 . Nessuno di questi gruppi `e compatto. In modo simile si definisce il gruppo simplettico (importante in meccanica classica) Sp(n, R) come il gruppo delle trasformazioni M che lasciano invariante la forma bilineare “simplettica” definita in R2n da x, y ∈ R2n

(x, y)± = (x, J y) , 

dove J=

0 −In

In 0

 ,

A.15 Il gruppo di Lorentz

235

con In = matrice identit` a n × n, ovvero delle matrici tali che M t J M = J . E ancora, partendo da una forma quadratica in Cn+m (x, y)± = x∗1 y1 + · · · + x∗n yn − (x∗n+1 yn+1 + · · · + x∗n+m yn+m ) si possono analogamente definire i gruppi U (n, m), anch’essi non compatti. Il gruppo di Lorentz O(3, 1) non `e connesso, e anzi `e composto di quattro componenti fra loro sconnesse, e precisamente: il sottogruppo di Lorentz “proprio” L0 delle trasformazioni con determinante uguale a 1 e che conservano il verso del tempo, il sottoinsieme delle trasformazioni con determinante uguale a 1 ma che includono l’inversione temporale t → −t, il sottoinsieme delle trasformazioni con determinante uguale a −1 che conservano il verso del tempo, e infine il sottoinsieme delle trasformazioni con determinante uguale a −1 e con l’inversione temporale. Il fatto che le componenti con determinante uguale a 1 e con determinante uguale a −1 siano fra loro sconnesse `e gi`a stato riscontrato nel caso del gruppo O3 ; per provare che anche le componenti che invertono il tempo sono sconnesse fra loro basta osservare che questa propriet` a dipende solo dal segno dell’elemento M44 delle matrici M ∈ O(3, 1) . Ma si ha la seguente situazione M44 ≥ 1

oppure

M44 ≤ −1 .

Infatti, preso il vettore e4 = (0, 0, 0, 1) , si ha 2 2 2 2 (e4 , e4 )± = −1 = (M e4 , M e4 )± = M14 + M24 + M34 − M44 2 da cui M44 ≥ 1. Troviamo ora l’espressione differenziale dei generatori del gruppo di Lorentz, cominciando dal gruppo (a 1 parametro) delle trasformazioni di Lorentz “pure” 1-dimensionali (A.35). Procedendo come per le rotazioni (§ A.11), si trova ora il generatore ∂ ∂ K1 = x +t · (A.38) ∂t ∂x Considerando poi il gruppo di Lorentz (a 6 parametri) operante sulle x e t, si trovano analoghe espressioni per K2 , K3 , e l’algebra del gruppo risulta caratterizzata dalle regole di commutazione

[Ai , Aj ] = ijk Ak ,

[Ki , Kj ] = −ijk Ak ,

[Ai , Kj ] = ijk Kk

(A.39)

dove Ai sono i generatori delle rotazioni gi` a visti (A.20). Si noti in particolare che le rotazioni Ai formano una sottoalgebra , mentre le Ki non sono una sottoalgebra. Si pu` o notare che l’algebra del gruppo di Lorentz `e definita da leggi di commutazione (A.39) quasi identiche – a parte un segno (essenziale !) – alle leggi (A.33) dell’algebra del gruppo SO4 .

236

Appendice. Teoria dei gruppi

Un altro esempio si trova considerando l’algebra del gruppo di Poincar´ e, che `e formato dal gruppo di Lorentz insieme con le traslazioni spaziali e temporali, generate ovviamente da ∂/∂xi e ∂/∂t: `e facile trovare le regole di commutazione per questa algebra e verificare che il sottospazio delle traslazioni forma una sottoalgebra (commutativa) di dimensione 4. Si osservi che il sottogruppo (a 4 parametri) delle traslazioni spazio-temporali `e un sottogruppo invariante commutativo del gruppo di Poincar´e, che dunque non `e semisemplice, e non lo `e la sua algebra. Ovviamente, i 6 generatori Ai e ∂/∂xi descrivono un’altra sottoalgebra, che `e l’algebra del gruppo Euclideo. Si pu` o infine vedere che il gruppo di Lorentz “proprio” L0 non `e semplicemente connesso, e che il suo rivestimento universale `e il gruppo SL2 (C): si ha precisamente L0  SL2 (C)/Z2 . (A.40) Ovviamente, il fatto che il gruppo di Lorentz non `e semplicemente connesso n´e compatto (e nemmeno `e compatto il suo rivestimento SL2 (C)) rende pi` u complicata la ricerca delle sue rappresentazioni irriducibili: tale problema non verr` a trattato in questa introduzione alla teoria dei gruppi.

Riferimenti bibliografici

Testi di carattere generale

1. C. Bernardini, O. Ragnisco, P.M. Santini: Metodi Matematici della Fisica. Nuova Italia, Roma (1993) 2. G. Cosenza: Lezioni di Metodi Matematici della Fisica (3 vol.). Nuova Didattica Scienze, Bollati Boringhieri, Torino (2006) 3. G. Fano: Metodi Matematici per la Meccanica Quantistica. Zanichelli, Bologna (1976) 4. C. Minnaja: Metodi Matematici per l’Ingegneria. Libreria Progetto, Padova (1982) 5. C. Rossetti: Metodi Matematici per la Fisica. Levrotto & Bella, Torino (2001) 6. C. Rossetti: Esercizi di Metodi Matematici. Levrotto & Bella, Torino (2001) * 7. 8. 9. 10. 11. 12.

*

*

F. Bagarello: Fisica Matematica. Zanichelli, Bologna (2007) A. Ghizzetti, E. de Giorgi: Lezioni di Analisi Superiore. Veschi Ed., Roma (1960) G. Gilardi: Analisi 3. McGraw-Hill Italia, Milano (1994) E. Persico: Introduzione alla Fisica Matematica. Zanichelli, Bologna (1960) S. Salsa: Equazioni a Derivate Parziali. Springer Italia, Milano (2004) S. Salsa, G. Verzini: Equazioni a Derivate Parziali. Complementi ed Esercizi. Springer Italia, Milano (2005) *

*

*

13. G.B. Arfken, H.J. Weber: Mathematical Methods for Physicists. Academic Press, San Diego (1995) 14. P. Benoist–Guental, M. Courbage: Math´ematiques pour la Physique (3 vol.). Eyrolles, Paris (1970) 15. F.W. Byron, R.W. Fuller: Mathematics of Classical and Quantum Mechanics (2 vol.). Dover, New York (1969) 16. S. Hassani: Mathematical Physics. Springer, New York (1999) 17. P.M. Morse, H. Feshbach: Methods of Theoretical Physics (2 vol.). McGraw-Hill, New York (1953) 18. M. Reed, B. Simon: Methods of Modern Mathematical Physics. Academic Press, New York (1972)

238

Riferimenti bibliografici

19. L. Schwartz: Mathematics for the physical sciences. Hermann, Paris (1966) 20. M.E. Taylor: Partial Differential Equations, Basic Theory. Springer, New York (1996) 21. H.F. Weinberger: A First Course on Partial Differential Equations. Blaisdell, Waltham (1965)

Testi su argomenti specifici 22. M.C. Abbati, R. Cirelli: Metodi Matematici per la Fisica. Operatori Lineari negli Spazi di Hilbert. CSE di UTET, Milano (1997) 23. C. Miranda: Istituzioni di Analisi funzionale lineare. Ed. UMI, Gubbio (1978) 24. E. Onofri: Lezioni sulla Teoria degli Operatori Lineari. Edizioni Universitarie Zara, Parma (1984) 25. N. Akhiezer, I.M. Glazman: Theory of Linear Operators in Hilbert Spaces. Ungar, New York (1963) 26. F. Riesz, B. Nagy: Le¸cons d’Analyse Fonctionnelle. Academie de Sciences d’Hongrie, Budapest (1955) 27. H.L. Royden: Real Analysis. Macmillan Co., New York (1963) 28. W. Rudin: Principles of Mathematical Analysis. McGraw-Hill, New York (1984) 29. K. Yosida: Functional Analysis. Springer, New York (1965) 30. E. Ott: Chaos in Dynamical Systems. Cambridge Univ. Press, Cambridge (2002) 31. L.V. Ahlfors: Complex Analysis. Mc Graw-Hill, New York (1966) 32. M. Lavrentiev. B. Chabat: M´ethodes de la Th´eorie des Functions d’une Variable Complexe. MIR, Moscou (1972) 33. A.I. Markushevitch: Theory of a Complex Variable. Mc Graw-Hill, New York (1965) 34. W. Rudin: Real and Complex Analysis. McGraw-Hill, New York (1987) 35. L. Amerio: Funzioni Analitiche e Trasformazione di Laplace. Tamburini, Milano (1976) 36. A. Papoulis: The Fourier Integral and its Applications. McGraw-Hill, New York (1962) 37. A. Vretblad: Fourier Analysis and its Applications. Springer, Berlin (2003) 38. L. Schwartz: Th´eorie des Distributions. Hermann, Paris (1966) 39. V. Vladimirov: Distributions en Physique Math´ematique. MIR, Moscou (1979) 40. H. Georgi: Lie Algebras in Particle Physics. Benjamin Cummings Publ. Co., London (1982) 41. B.C. Hall: Lie Groups, Lie Algebras and Representations. Springer, Berlin (2003) 42. M. Hamermesh: Group Theory and Applications to Physical Problems. Addison Wesley, London (1962) 43. P.J. Olver: Application of Lie Groups to Differential Equations. Springer, New York (1993) 44. D.H. Sattinger, O.L. Weaver: Lie groups and Algebras with Applications to Physics, Geometry and Mechanics. Springer, New York (1986) 45. S. Sternberg: Group Theory and Physics. Cambridge Univ. Press, Cambridge (1994)

Indice analitico

affinit` a, 24 algebra di Lie, 220 semplice, 228 semisemplice, 228 analisi in frequenza, 37 antitrasformata di Fourier, 135 antitrasformata di Laplace, 171 armoniche sferiche, 77 ascissa di convergenza, 167 di sommabilit` a, 167 autovalore, 13, 68 autovettore, 13, 68 baricentro spettrale, 137 temporale, 138 base, 51 campo, 98 carattere (di rappresentazione), 211 classi di coniugazione, 204 codominio, 60 coefficienti di Fourier, 50 complemento ortogonale, 22, 67 completamento (o chiusura), 44 condizioni al contorno (o agli estremi), 30 di Cauchy–Riemann, 99 iniziali, 37 continuit` a del prodotto scalare, 53 convergenza debole, 89, 90

dominata, 46 forte, 90 in norma, 89, 90 totale, 36 costanti di struttura, 220 criterio di trasformabilit` a, 167 decomposizione spettrale, 24, 90 decrescenza rapida, 143 degenerazione (di un autovalore), 13 accidentale, 214 delta di Dirac, 154, 180 densit` a spettrale, 136 determinante di Gram, 49 determinazione principale (del log), 121 diagonalizzazione (di matrici), 16 discontinuit` a al taglio, 121 dispersione anomala, 163 normale, 163 distribuzione/i, 154, 179 a supporto compatto, 189 δ(x), 180 δ± (x), 187 di Schwartz, 188 P(1/x), 186 sgn(x), 187 temperate, 179 θ(x), 183, 187 disuguaglianza di Bessel, 50 di Schwarz, 41 di Schwarz–H¨ older, 48 triangolare, 41

240

Indice analitico

dominio, 60 duale, 85, 179 elemento/i coniugati, 204 inverso, 203 neutro, 203 equazione del calore (o della diffusione), 40 di Bessel, 78 di d’Alembert, 29, 74 di Fourier, 40 differenziale a derivate parziali, 29 di Laplace, 79 di Schr¨ odinger, 40, 73 di Sturm–Liouville, 72 di tipo iperbolico, 83 parabolico, 83 ellittico, 83 integrale, 74 secolare, 13 estensione analitica, 108 per continuit` a, 62 per chiusura, 87 evoluzione temporale, 18, 37 fogli di Riemann, 121 forma canonica (d’Alembert), 83 formula di Baker–Campbell–Hausdorff, 217 di Poisson, 81 integrale di Cauchy, 103 generalizzata, 104 frequenze proprie, 20 funzionale, 84, 179 funzione/i a decrescenza rapida, 179 analitica, 98, 108 armoniche, 79, 127 armoniche coniugate, 127 continua a tratti, 33 densit` a, 72 di Bessel, 78 di Green, 153, 159, 177, 196 di Heaviside, 150 di Hermite, 56, 76 di Laguerre, 56, 77 generalmente continua, 33 intera, 117

monogena, 98 olomorfa, 98 peso, 72 quasi ovunque uguali, 44 sommabile, 46 test, 156, 179 trascendente intera, 117 Γ di Eulero, 175 generatori infinitesimi, 219 gruppo/i, 25, 203 abeliano, 203 affine, 25, 209 ciclico, 204 commutativo, 203 compatto, 222 connesso, 222 semplicemente, 222 delle rotazioni, 220, 225 di de Sitter, 234 di Lie, 216 di Lorentz, 234 di omotopia, 229 di Poincar´e, 236 di simmetria, 26 di stabilit` a, 204 euclideo, 25, 209 finito, 209 localmente isomorfi, 224 quoziente, 206 semisemplice, 205 semplice, 205 simplettico, 234 SO2 , SO3 , SU2 , 220, 225 SUn , 218, 231 topologico, 216 transitivo, 204 identit` a di un gruppo, 203 di Parseval, 52 generalizzata, 54 immagine (di un operatore), 60 impedenza, 152 integrale improprio, 46, 114 senso principale di Cauchy, 114, 126 invariante su un gruppo, 222 isomorfismo, 56, 205 locale, 224

Indice analitico larghezza spettrale, 138 temporale, 137 legge di dispersione, 159 lemma di Darboux, 101 di Jordan, 124 di Schur, 212 linee caratteristiche (d’Alembert), 83 matrice/i aggiunta, 10 autoaggiunta, 11 caratteristica (di una conica), 22 di Pauli, 226 hermitiana, 10 hermitiana coniugata, 10 normale, 16 ortogonale, 12 simmetrica, 11 unitaria, 11 metodo di d’Alembert, 83 modi normali (o armonici), 20, 31 norma, 8, 41 di un operatore, 62 nucleo (di omomorfismo), 205 omomorfismo, 204 omotetie, 25 onde stazionarie, 31 operatore aggiunto, 10, 64, 85 autoaggiunto, 11, 65 chiuso, 87 compatto, 91 continuo, 61 di Casimir, 229 di proiezione, 22, 67 hermitiano, 65 lineare, 59 limitato, 61 normale, 16 simmetrico, 65 operatore unitario, 66 orbita, 204 ordine di un gruppo, 209 ortonormalizzazione di Schmidt, 49 parametri di Lie, 216

241

parte di Laurent o singolare, 105 di Taylor, 105 principale di Cauchy, 114, 126, 186 polinomi di Hermite, 56, 76 di Laguerre, 56, 77 di Legendre, 76 polo (di ordine n), 110 potenziale complesso, 127 principio di indeterminazione, 136 problema di Cauchy, 18, 33 di Dirichlet, 81 di Neumann, 81 di Sturm – Liouville, 72 prodotto di convoluzione, 141 diretto (di gruppi), 206 integrale, 141 scalare, 7, 41 tensore, 230 proiettori, 22, 67 proiezione stereografica, 115 prolungamento per continuit` a, 62 per chiusura, 87 punto/i all’infinito, 115 (intorno del), 116 punto di diramazione, 120 singolari, 75 quasi ovunque, 44 raggio, 6 di convergenza, 82, 100 range (di un operatore), 60 rango (di gruppo o algebra), 229 rappresentazione/i, 207 completamente riducibile, 208 differenziale, 223 equivalenti, 207 fedele, 207 (ir)riducibile, 208 prodotto tensore, 230 unitaria, 207 relazioni di dispersione, 162 residuo, 111 all’infinito, 117

242

Indice analitico

rette isotrope, 14 ricoprimento universale, 229 riducibilit` a (di rappresentazione), 207 risolvente, 71 rivestimento universale, 229 semipiano di convergenza, 167 separazione delle variabili, 30 serie bilatera, 100 di Fourier, 33, 51 di potenze, 100,104 di Taylor–Laurent, 105 totalmente convergente, 36 set ortonormale completo, 51 similitudine (trasformazione), 12 singolarit` a eliminabile, 110 essenziale, 111 polare, 110 removibile, 110 sistema completo, 48, 51, 54 dinamico lineare, 18 ortonormale, 49, 51 ortonormale completo, 48, 51, 52 somma diretta, 67 di rappresentazioni, 208 sottoalgebra, 235 invariante, 228 sottogruppo, 203 ciclico, 204 invariante, 205 normale, 205 spazio base della rappresentazione, 207 completo (o chiuso), 43 debolmente completo, 89 di Banach, 48 di Hilbert, 48 L1 , 46 L2 , 46 Lp , 48 2 , 55 pre–Hilbertiano, 48 separabile, 55 tangente, 218 spettro, 71 successione di Cauchy, 43

sviluppo di Taylor–Laurent, 104 nell’intorno di z = ∞, 116 taglio, 121 tensore, 231 teorema dei residui, 112 della convergenza dominata, 46 del valore iniziale, 170 di Ado, 216 di Burnside, 211 di Cauchy, 102 (secondo) di Cauchy, 103 di Fourier, 48 di inversione di Fourier, 147 di Lebesgue, 46 di Liouville, 116 di monotonia, 73 di oscillazione, 73 di Peter–Weyl, 210 di Picard, 111 di Riemann–Lebesgue, 140 di Riesz, 46, 84 di Riesz–Fisher, 47 di separazione, 73 di Stone, 224 di Titchmarsh, 161 di traslazione, 140, 168 esterno dei residui, 118 fondamentale dell’algebra, 117 trasformata di Fourier, 135 di Hilbert, 161 di Laplace, 166 trasformazione aggiunta, 64 conforme (diretta), 130 continua, 61 limitata, 61 lineare, 59 ortogonale, 12 unitaria, 11, 66 uguaglianza di Parseval, 144 generalizzata, 146 velocit` a di gruppo, 163 vettore rappresentativo, 84 zero (di ordine n), 107