142 82 4MB
Italian Pages 395
Modelli Dinamici Discreti
Ernesto Salinelli, Franco Tomarelli
Modelli Dinamici Discreti 2a edizione
Ernesto Salinelli Dipartimento di Scienze Economiche e Metodi Quantitativi Università del Piemonte orientale “A. Avogadro” – Novara Franco Tomarelli Dipartimento di Matematica “F. Brioschi” Politecnico di Milano – Milano
In copertina: “Tempo di fioritura”, Gianni Dova, 1964. Galleria Il Castello, arte moderna e contemporanea, Milano.
ISBN 978-88-470-1075-8 Springer Milan Berlin Heidelberg New York e-ISBN 978-88-470-1076-5 Springer Milan Berlin Heidelberg New York Springer-Verlag fa parte di Springer Science+Business Media springer.com © Springer-Verlag Italia, Milano 2009
Quest’opera è protetta dalla legge sul diritto d’autore e la sua riproduzione è ammessa solo ed esclusivamente nei limiti stabiliti dalla stessa. Le fotocopie per uso personale possono essere effettuate nei limiti del 15% di ciascun volume dietro pagamento alla SIAE del compenso previsto dall’art. 68. Le riproduzioni per uso non personale e/o oltre il limite del 15% potranno avvenire solo a seguito di specifica autorizzazione rilasciata da AIDRO,Via Corso di Porta Romana n. 108, Milano 20122, e-mail [email protected] e sito web www.aidro.org. Tutti i diritti, in particolare quelli relativi alla traduzione, alla ristampa, all’utilizzo di illustrazioni e tabelle, alla citazione orale, alla trasmissione radiofonica o televisiva, alla registrazione su microfilm o in database, o alla riproduzione in qualsiasi altra forma (stampata o elettronica) rimangono riservati anche nel caso di utilizzo parziale. La violazione delle norme comporta le sanzioni previste dalla legge. 9
8
7
6
5
4
3
2
1
Impianti: PTP-Berlin, Protago TEX-Production GmbH, Germany (www.ptp-berlin.eu) Stampa: GRAFICHE PORPORA, Segrate (MI)-Italy Stampato in Italia Springer-Verlag Italia srl – Via Decembrio 28 –20137 Milano
Prefazione
L’uso dei modelli matematici ha assunto un ruolo di primaria importanza in moltissimi campi: dalla meteorologia alla descrizione sintetica di reazioni negli impianti chimici, dalla elaborazione di dati relativi a sistemi finanziari, allo studio di popolazione biologiche. Questi sono solo alcuni casi in cui anche il comune cittadino (e non solo l’esperto del settore) viene suo malgrado coinvolto nel dibattito, se non addirittura nella scelta, tra impostazioni alternative, allo scopo di mantenere l’evoluzione dei fenomeni descritti da tali modelli entro ` dunque auspicabile che almeno elementari conolimiti ritenuti accettabili. E scenze delle propriet`a dei modelli matematici diventino un patrimonio il pi` u possibile diffuso tra gli abitanti del “villaggio globale”. Quando la modellazione matematica si riferisce a fenomeni dipendenti dal tempo, la terminologia moderna precisa la nozione di modello matematico definendo la nozione di sistema dinamico. Il termine discreto, che compare nel titolo, indica la natura dei modelli che prenderemo in esame: a partire da un numero finito di istanti in cui si hanno informazioni sul fenomeno in esame, tali modelli ne descrivono l’evoluzione futura mediante i valori assunti in un insieme discreto di tempi successivi, detti passi temporali (ad esempio, i multipli interi positivi di una fissata unit` a di tempo), ma non la descrizione per tutti i valori del tempo considerato come una grandezza continua o, pi` u precisamente, analogica. Assai spesso nelle applicazioni anche le grandezze osservate risultano essere discrete (si usa dire “quantizzate”) per le caratteristiche degli strumenti di misura e per le manipolazioni di tipo elettrico o elettronico che, nell’attuale fase dello sviluppo tecnologico, inevitabilmente sono effettuate su tali grandezze. Tuttavia, in molti casi pratici la quantizzazione ha un ordine di grandezza cos`ı ridotto da poter essere trascurata; per questo motivo supporremo spesso che le grandezze in esame possano assumere una gamma continua di valori. Negli anni recenti si `e rivolta particolare attenzione allo studio dei sistemi dinamici non lineari, ed in questo campo si sono sviluppate nuove idee ed utili paradigmi interpretativi che hanno contribuito ad una maggiore comprensione di numerosi problemi sia teorici che di rilevante interesse appli-
VI
Prefazione
cativo. Per comprendere cosa si intende con il termine non lineare, `e utile ricordare cosa si intende in matematica con il termine problema lineare: un problema si dice lineare se vi `e una proporzionalit` a tra i dati in ingresso (input) e gli effetti risultanti (output), e alla somma di pi` u cause corrisponde la somma dei rispettivi effetti. In generale si sanno risolvere in modo soddisfacente i problemi lineari, o perlomeno si sanno approssimare bene numericamente, ma i problemi fisici, chimici, biologici, economici, demografici e dell’ingegneria, sono pi` u correttamente descritti da modelli non lineari. Purtroppo si sa dire molto meno sulle soluzioni dei problemi non lineari, e tali soluzioni sono spesso caratterizzate da un comportamento complesso, instabilit` a e dipendenza sensibile dai dati iniziali, al punto che in taluni casi viene descritto come caos. Con questa suggestiva, ma in parte fuorviante, espressione si intende la possibilit` a di avere evoluzioni estremamente complicate, anche a partire da semplici modelli deterministici non lineari: questo produce l’apparente paradosso per cui, in tali casi, la estrema sensibilit` a nella dipendenza dai dati iniziali (sempre affetti da errori sperimentali) rende assai debole la speranza di effettuare previsioni dettagliate di lungo periodo. Tale situazione `e ben illustrata dall’esempio della meteorologia, ferma restando la possibilit` a oggi realizzata di affidabili previsioni nel breve periodo. Queste considerazioni non mettono in discussione l’efficacia di tali metodiche ma sono un invito a ricordarne i limiti, al fine di non estrapolare a lungo termine gli effetti dedotti dall’analisi dei modelli non lineari, ed a tenere conto delle instabilit` a ad essi intrinsecamente associata. Questo volume nasce da una precisa esigenza didattica: intende fornire una presentazione elementare ed autocontenuta della modellistica matematica discreta con una introduzione all’analisi dei sistemi dinamici discreti. Si illustrano alcuni metodi qualitativi della modellazione matematica, discutendo cosa si intende per soluzione di tali modelli mediante semplici esempi (Capitolo 1); sono presentate alcune tecniche di soluzione di equazioni alle differenze lineari (Capitolo 2) e sono studiate le propriet` a qualitative delle soluzioni e la loro struttura nel caso di modelli non lineari, con particolare riferimento alle propriet` a di stabilit` a (Capitoli 3 e 4). I metodi e le tecniche per lo studio dei modelli discreti sono dispersi nella letteratura matematica, economica, biologica, demografica e dell’ingegneria. Qui si `e cercato di presentare la materia in modo unitario, sviluppando dapprima esempi e motivazioni, per poi affrontare lo studio dei modelli lineari e successivamente di quelli non lineari, cercando di unificare il punto di vista modellistico con quelli dell’Analisi Matematica, della Teoria dei Sistemi, dell’Algebra Lineare, del Calcolo delle Probabilit` a, del Calcolo numerico e della Matematica Finanziaria. Il caso vettoriale, pi` u tecnico come notazioni e metodi, `e presentato a parte negli ultimi due capitoli (Capitoli 5 e 6), limitandone la trattazione esclusivamente ai problemi lineari.
Prefazione
VII
L’esposizione della teoria `e resa graduale dalla proposta di alcuni esercizi di difficolt` a crescente. Altri esercizi di riepilogo sono raggruppati in apposite sezioni. Le soluzioni di gran parte degli esercizi sono descritte in dettaglio nel Capitolo 7. La Teoria `e accompagnata da algoritmi e suggerimenti per effettuare prove numeriche e simulazioni al computer. A quest’ultimo proposito, ricordiamo che i sistemi dinamici discreti sono essenzialmente iterazioni di funzioni, e che i computer eseguono con molta efficienza le iterazioni di algoritmi. Invitiamo dunque il lettore ad affrontare personalmente lo svolgimento degli esercizi sia mediante il calcolo manuale (quando `e possibile), sia cercando le propriet` a qualitative con il metodo grafico ed i risultati teorici del testo, sia effettuando simulazioni numeriche con un personal computer. Attualmente sono disponibili software particolarmente adatti sia alla iterazione di calcoli simbolici sia alla gestione della grafica. Questo rende possibile, mediante opportune iterazioni di polinomi, generare sul monitor quelle immagini affascinanti ed intriganti denominate frattali anche senza conoscere gli aspetti pi` u tecnici della sottostante Teoria Geometrica della Misura. Nel testo si forniscono comunque (Capitolo 4 ed Appendice F) alcune nozioni di base per lo studio di tali enti e la definizione di dimensione frattale e di misura di un insieme frattale. Per tutti gli esempi ed esercizi affrontati si invita il lettore a porre l’attenzione non solo sulle particolarit` a algebriche del problema formalizzato, quanto sul fenomeno modellizzato, il significato di modello matematico, il dominio dei parametri in cui il modello `e sensato, il valore predittivo del modello e la sua computabilit` a a partire da dati sperimentali affetti da inevitabili errori di misura. In questa prospettiva la matematica svolge un ruolo di retroazione tra lo studio e la formulazione di modelli descrittivi e predittivi. Qualora si pervenga ad un adeguato livello di astrazione e di rigore nella formulazione di tali modelli, si possono sviluppare idee innovative che permettono di comprendere ed unificare problemi applicativi diversi attraverso l’identificazione di strutture generali e l’elaborazione di teorie di ampia applicabilit` a. Ringraziamo Maurizio Grasselli, Stefano Mortola e Antonio Cianci per gli utili suggerimenti e le osservazioni al testo e Irene Sabadini per l’accurata redazione delle numerose figure. Milano, giugno 2002
Gli Autori
Prefazione alla seconda edizione
Questa seconda edizione del volume si avvale dell’esperienza didattica maturata nel corso di Modelli Dinamici Discreti tenuto in questi anni presso il Politecnico di Milano: numerose correzioni sono state apportate, la presentazione di molti esempi ed esercizi `e stata migliorata ed ampliata; infine `e stato inserito un nuovo capitolo su matrici positive, grafi e loro propriet` a utili nell’analisi di reti e motori di ricerca. Vogliamo esprimere un sentito ringraziamento a Francesca Bonadei per l’incoraggiamento ed il supporto forniti, ad Alberto Perversi per la valida consulenza sulla gestione della grafica ed agli studenti del corso di studi in Ingegneria Matematica per l’entusiasmo dimostrato e le utili osservazioni. Milano, luglio 2008
Ernesto Salinelli, Franco Tomarelli
Guida alla lettura
I primi due capitoli sono del tutto elementari: gli unici prerequisiti sono le propriet` a dei polinomi. Il Capitolo 3 richiede la conoscenza della nozione di continuit` a ed il calcolo di derivate di funzioni di una variabile, nel Capitolo 4 sono utilizzate alcune elementari nozioni di Topologia. Nei Capitoli 5, 6, 7, dedicati al caso vettoriale, si utilizzano alcune tecniche di Algebra Lineare. Tutti i prerequisiti, anche se elementari, sono comunque richiamati nel testo o nelle Appendici. Le dimostrazioni riportate, stampate con un carattere tipografico ridotto, sono utili per una comprensione approfondita, ma possono omesse nel corso di una prima lettura. I primi tre capitoli possono essere oggetto di un modulo didattico (semiannualit` a) elementare; in una prima lettura possono essere tralasciati i paragrafi 2.5, 2.6, 2.7, 2.8, 3.3, 3.4, 3.9 senza inconvenienti per la comprensione. I Capitoli 4, 5 ,6 ,7 possono essere oggetto in un modulo didattico avanzato. I capitoli successivi al primo sono largamente indipendenti tra loro, in modo tale da rendere possibili vari percorsi di lettura a seconda dell’interesse per alcune classi di problemi rispetto ad altre. Segnaliamo alcuni possibili percorsi di lettura dei vari capitoli.
Indice
Prefazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . V Prefazione alla seconda edizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .VIII Guida alla lettura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IX 1
Fenomeni ricorsivi ed equazioni alle differenze . . . . . . . . . . . . . 1 1.1 Definizioni e notazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.3 Metodo grafico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.4 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2
Equazioni alle differenze lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Equazioni lineari ad un passo a coefficienti costanti . . . . . . . . . . 2.2 Equazioni lineari ad n passi a coefficienti costanti . . . . . . . . . . . . 2.3 Stabilit` a di equilibri per equazioni ad n passi a coefficienti costanti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Ricerca di soluzioni particolari con secondi membri di tipo particolare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 La Z-trasformata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Equazioni lineari a coefficienti variabili . . . . . . . . . . . . . . . . . . . . . 2.7 Esempi di equazioni non lineari ad un passo riconducibili al caso lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8 La Trasformata Discreta di Fourier . . . . . . . . . . . . . . . . . . . . . . . . 2.9 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
25 25 32 41 48 51 62 66 72 83
Sistemi dinamici discreti: equazioni scalari ad un passo . . . . 87 3.1 Definizioni preliminari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 3.2 Ancora sull’analisi grafica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 3.3 Comportamento asintotico in ipotesi di monotonia . . . . . . . . . . . 96 3.4 Teorema delle contrazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
XII
Indice
3.5 3.6 3.7 3.8 3.9 3.10
La nozione di stabilit` a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 Condizioni di stabilit` a basate sulle derivate . . . . . . . . . . . . . . . . . 107 Strategie di pesca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 Studio qualitativo e stabilit` a delle orbite periodiche . . . . . . . . . . 116 Soluzioni in forma chiusa per alcuni s.d.d. non lineari . . . . . . . . 120 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
4
Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 4.1 Dinamica della crescita logistica . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 4.2 Il teorema di Sharkovsky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 4.3 Biforcazioni di una famiglia ad un parametro di s.d.d. . . . . . . . . 138 4.4 Caos ed insiemi frattali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 4.5 Coniugazione topologica di sistemi dinamici discreti . . . . . . . . . . 162 4.6 Metodo di Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 4.7 Sistemi dinamici discreti nel campo complesso . . . . . . . . . . . . . . . 170
5
Sistemi dinamici discreti: equazioni vettoriali . . . . . . . . . . . . . . 185 5.1 Definizioni e notazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 5.2 Applicazioni alla genetica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 5.3 Stabilit` a di sistemi dinamici discreti vettoriali lineari . . . . . . . . . 197 5.4 Matrici strettamente positive e Teorema di Frobenius-Perron . . 204 5.5 Applicazioni alla demografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 5.6 Equazioni vettoriali lineari affini . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 5.7 Sistemi dinamici discreti vettoriali non lineari . . . . . . . . . . . . . . . 218 5.8 Schemi numerici per la risoluzione di problemi lineari . . . . . . . . 221 5.9 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
6
Catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 6.1 Esempi, definizioni e notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 6.2 Analisi asintotica di modelli descritti da catene di Markov assorbenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245 6.3 Passeggiate casuali, duelli e partite di tennis . . . . . . . . . . . . . . . . 248 6.4 Distribuzioni di probabilit` a invarianti . . . . . . . . . . . . . . . . . . . . . . 255 6.5 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
7
Matrici positive e grafi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263 7.1 Matrici irriducibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263 7.2 Grafi e matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271 7.3 Ancora sulle Catene di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278 7.4 Algoritmo PageRank: perch´e un buon motore di ricerca sembra leggere nel pensiero di chi lo interroga . . . . . . . . . . . . . . . 282 7.5 Esercizi di riepilogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
Indice
8
XIII
Soluzioni degli esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289 8.1 Soluzioni degli esercizi del Capitolo 1 . . . . . . . . . . . . . . . . . . . . . . 289 8.2 Soluzioni degli esercizi del Capitolo 2 . . . . . . . . . . . . . . . . . . . . . . 296 8.3 Soluzioni degli esercizi del Capitolo 3 . . . . . . . . . . . . . . . . . . . . . . 310 8.4 Soluzioni degli esercizi del Capitolo 4 . . . . . . . . . . . . . . . . . . . . . . 323 8.5 Soluzioni degli esercizi del Capitolo 5 . . . . . . . . . . . . . . . . . . . . . . 333 8.6 Soluzioni degli esercizi del Capitolo 6 . . . . . . . . . . . . . . . . . . . . . . 336 8.7 Soluzioni degli esercizi del Capitolo 7 . . . . . . . . . . . . . . . . . . . . . . 339
Appendice A – Somme e serie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343 Appendice B – Numeri Complessi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345 Appendice C – Aritmetica della probabilit` a . . . . . . . . . . . . . . . . . . . . 349 Appendice D – Algebra lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 Appendice E – Topologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 Appendice F – Dimensione frattale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361 Appendice G – Tabelle di Z-trasformate . . . . . . . . . . . . . . . . . . . . . . . 367 Appendice H – Alcuni algoritmi e suggerimenti per simulazioni al computer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372 Riferimenti bibliografici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 Indice analitico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
1 Fenomeni ricorsivi ed equazioni alle differenze
In questo primo capitolo vengono definite le notazioni ricorrenti nel testo e si illustrano alcune motivazioni dello studio dei modelli matematici discreti attraverso la presentazione di esempi la cui analisi sistematica `e rinviata ai capitoli successivi. Le definizioni astratte del primo paragrafo formano un quadro unitario per lo studio di un’ampia classe di problemi di cui nel secondo paragrafo sono descritti alcuni esempi significativi.
1.1 Definizioni e notazione Nel seguito tratteremo successioni di numeri complessi. Con il termine successione indichiamo una funzione F : N → C, dove 1 N = {0, 1, 2, 3, . . . }. Il lettore senza familiarit` a con i numeri complessi potr`a pensare, in prima lettura, che quanto di seguito esposto sia riferito solo a successioni di numeri reali. Per comodit` a, le propriet` a elementari dei numeri complessi sono richiamate in Appendice B. Una generica successione verr`a indicata con una lettera maiuscola, ad esempio F , mentre con una lettera maiuscola dotata di pedice indicheremo il suo k-esimo termine, nell’esempio Fk , ossia il valore che F assume in k. In altre parole, porremo Fk = F (k). Seguendo una prassi comune, identificheremo una successione F con l’insieme ordinato dei valori assunti: F = {Fk }k∈N o, brevemente, F = {Fk }. Allo studioso interessato alla descrizione di grandezze in una successione di passi o di istanti temporali, potrebbe sembrare restrittivo occuparsi solo di Osserviamo che in altri contesti si pone N = {1, 2, 3, . . . }. La scelta, puramente convenzionale, `e motivata dai problemi in esame. Nei casi che studieremo `e utile avere come riferimento un dato iniziale corrispondente all’indice 0. Tuttavia ogni risultato pu` o essere riportato al caso di successioni definite per tutti gli indici naturali k maggiori o uguali ad un indice k0 .
1
Salinelli E , Tomarelli F : Modelli dinamici discreti, 2a edizione. c Springer-Verlag Italia 2009, Milano
2
1 Fenomeni ricorsivi ed equazioni alle differenze
funzioni definite sull’insieme dei numeri naturali, ma non `e cos`ı. Infatti, se t0 ∈ R `e un qualsiasi istante iniziale ed h > 0 `e un incremento, allora la successione di valori {t0 , t0 + h, t0 + 2h, t0 + 3h, . . . } viene biunivocamente trasformata nella successione {0, 1, 2, 3, . . .} dalla trasformazione k=
t − t0 . h
Dato che oggetto del nostro studio sono quantit` a che dipendono da numeri naturali, non `e sorprendente che il principio di induzione, che qui ricordiamo, si riveli assai utile nell’analisi: Sia P (k) una proposizione relativa al numero naturale k. Se: i) esiste un k ∈ N tale che P k `e vera , se P (k) `e vera, allora P (k + 1) `e vera , ii) per ogni k ≥ k, allora la proposizione P (k) `e vera per ogni k ≥ k. Se I `e un qualsiasi sottoinsieme di C (nella maggior parte dei casi, I sar`a un intervallo in R), poniamo: In = I × I × · · · × I n volte
cio`e I denoter` a l’insieme delle n-uple (x1 , x2 , . . . , xn ) tali che xj ∈ I per ogni j = 1, 2, . . . , n. n
Definizione 1.1. Si dice equazione alle differenze (finite)2 di ordine n, l’insieme di equazioni g (k, Yk , Yk+1 , . . . , Yk+n ) = 0
∀k ∈ N
(1.1)
dove n `e un intero positivo e g `e una funzione scalare assegnata di n + 2 variabili, il cui dominio `e N × I n+1 g : N × I n+1 → R . Un’equazione alle differenze di ordine n si dice in forma normale se `e scritta nella forma 2
L’origine del nome si chiarisce nel caso particolare in cui g (k, Yk , Yk+1 , . . . , Yk+n ) = ψ (k, Yk+1 − Yk , Yk+2 − Yk+1 , . . . , Yk+n − Yk+n−1 )
per una opportuna funzione ψ.
1.1 Definizioni e notazione
Yk+n = φ (k, Yk , Yk+1 , . . . , Yk+n−1)
∀k ∈ N
3
(1.2)
con φ funzione nota φ : N×I n → I.
(1.3)
La (1.2) `e una relazione ricorsiva che, a partire dalla conoscenza dei primi k valori consecutivi della successione Y consente, “con molta pazienza”, di calcolare, un passo alla volta, tutti i valori di tale successione. In molti casi questo calcolo pu`o risultare proibitivo anche con procedure di calcolo automatico. Risulta cos`ı utile conoscere una espressione esplicita, cio`e non ricorsiva, di Y . Definizione 1.2. Si dice soluzione della (1.1) una qualsiasi successione X definita in modo esplicito (non ricorsivo) da Xk = f (k)
∀k ∈ N
(1.4)
ove f : N → I, `e una funzione tale che, sostituendo Yk con f (k) nella (1.1), si ottiene una identit` a. L’insieme di tutte le soluzioni della (1.1) si dice soluzione generale dell’equazione. Teorema 1.3. (di esistenza ed unicit` a) Se φ `e una funzione che verifica (1.3), allora l’equazione alle differenze in forma normale (1.2) ha sempre soluzioni. Per ogni scelta dell’n-upla (α0 , α1 , . . . , αn−1) ∈ I n , il problema con dati iniziali associato all’equazione alle differenze in forma normale (1.2): Yk+n = φ (k, Yk , Yk+1 , . . . , Yk+n−1) Y0 = α0 , Y1 = α1 , . . . , Yn−1 = αn−1 ammette una ed una sola soluzione. Prova. Sostituendo le condizioni iniziali α0 , α1 , . . . , αn−1 nella (1.2) con k = 0 otteniamo un unico valore per Yn , diciamo αn ; inoltre, per la (1.3), (α1 , α2 , . . . , αn−1 , αn) appartiene I n : sostituendo le condizioni Y1 = α1 , Y2 = α2 ,
...,
Yn = αn
nell’equazione (1.2) si ottiene Yn+1 . Ripetendo il procedimento, si costruisce, un passo alla volta, una unica successione Y che `e una soluzione di (1.1) nel senso di (1.4).
Qualora non sia possibile determinare una espressione esplicita della soluzione X, `e comunque assai utile poter stabilire se i valori Xk hanno o meno certi comportamenti al variare di k: periodicit` a, avvicinamento a particolari valori, o un andamento pi` u complicato da descrivere.
4
1 Fenomeni ricorsivi ed equazioni alle differenze
1.2 Esempi In questo paragrafo illustriamo alcune situazioni che motivano lo studio di modelli matematici discreti. Per ciascuna l’analisi sistematica `e rinviata ai capitoli successivi. I primi esempi sono del tutto elementari. L’ordinamento degli esempi oltrech´e alla disciplina in cui sorgono, corrisponde ad una crescente difficolt` a di trattazione. Gli ultimi esempi non sono elementari e potrebbero risultare molto tecnici ad una prima lettura, ma vogliono illustrare almeno in parte le variet` a di situazioni in cui le equazioni alle differenze svolgono un ruolo importante nella matematica applicata. Esempio 1.4. Una telefonata da un telefono mobile costa α quale diritto di chiamata e β per ogni minuto di conversazione. Il costo totale della telefonata Ck+1 dopo k + 1 minuti di conversazione `e la soluzione di
Ck+1 = Ck + β C0 = α che `e un esempio di problema con dato iniziale per una equazione alle differenze del primo ordine. Esempio 1.5. (Interesse semplice) Supponiamo che l’ammontare Yk+1 di un deposito di danaro calcolato al tempo k + 1 (scadenza per il calcolo degli interessi) sia dato dall’ammontare Yk al tempo precedente pi` u l’interesse calcolato, in base ad un tasso costante r sulla somma D0 depositata inizialmente. Il modello alle differenze che descrive l’andamento del deposito corrisponde al problema:
Yk+1 = Yk + rY0 Y0 = D0 la cui soluzione `e (il lettore lo dimostri utilizzando il principio di induzione): Yk = (1 + rk) D0 .
(1.5)
Questo modello descrive l’andamento di un capitale investito in una obbligazione o titolo di stato a rendimento fissato per un numero di anni corrispondente alla durata dell’obbligazione. Esempio 1.6. (Interesse composto) Se nell’esempio precedente supponiamo che l’interesse sia calcolato sempre ad un tasso costante r sulla somma depositata al periodo precedente, ma venga capitalizzato ad ogni scadenza, allora il modello ricorsivo che fornisce l’importo Xk+1 del deposito al tempo k + 1 diventa:
Xk+1 = Xk + rXk = (1 + r) Xk X0 = D0
1.2 Esempi
5
la cui soluzione `e la seguente (anche questa formula si pu` o provare per induzione): k (1.6) Xk = (1 + r) D0 . Questo modello descrive l’andamento di un conto corrente bancario il cui tasso di interesse non subisce variazioni. Si noti che, se r > 0 , la crescita del capitale nel caso dell’interesse composto risulta molto pi` u rapida rispetto al caso dell’interesse semplice; infatti, trascurando alcuni termini positivi nello sviluppo del binomio di Newton, si ricava k (k − 1) 2 k (1 + r) > 1 + kr + k>2 r 2 che sostituita nelle (1.5) e (1.6) fornisce un confronto quantitativo tra i due tipi di regimi finanziari : Xk − Yk >
k (k − 1) 2 r D0 . 2
Esempio 1.7. Una obbligazione di tipo fixed-reverse fornisce cedole che variano nel tempo ma in modo prefissato all’atto dell’emissione. Un esempio tipo `e dato da un titolo della durata di 15 anni che fornisce una cedola del 7% per i primi 5 anni ed in seguito una cedola annua del 2, 50% fino a scadenza. Indicato con Zk la somma fra il capitale investito e le cedole riscosse fino al tempo k, supponendo di non reinvestire le cedole, il modello corrispondente `e Zk+1 = Zk + r(k) Z0 ⎧ ⎨ 0, 07 se k = 0, 1, . . ., 5 con r(k) = 0, 025 se k = 5, 6, . . ., 14 . ⎩ 0 se k ≥ 15 Osserviamo che tale modello non tiene affatto conto delle variazioni di prezzo dell’obbligazione sul mercato secondario. Esempio 1.8. Al tempo k = 0 viene erogato un mutuo d’importo S0 . Tale somma `e restituita in rate costanti di importo R, pagate a partire dal tempo k = 1. Indicando con r il tasso d’interesse costante con il quale viene calcolato l’interesse sul debito residuo Sk , quest’ultimo al tempo k + 1, k ≥ 1, `e dato da Sk+1 = Sk + rSk − R = (1 + r) Sk − R . Esempio 1.9. Al tempo k = 0, si investe una somma M0 in un titolo che frutta cedole di importo costante C ai tempi interi. Se r indica il tasso di interesse composto al quale si reinvestono le somme percepite, l’ammontare Mk+1 del capitale al tempo k + 1 `e dato dalla somma dell’ammontare Mk del capitale al tempo k, degli interessi rMk maturati su tale capitale e della cedola C “staccata” al tempo k + 1: Mk+1 = Mk + rMk + C = (1 + r) Mk + C.
6
1 Fenomeni ricorsivi ed equazioni alle differenze
Esempio 1.10. (Modello della Ragnatela) Supponiamo che le quantit` a Qdk+1 e Qok+1 di un bene, rispettivamente domandate e offerte su un mercato al tempo k + 1 in funzione del prezzo Pk del bene, siano date da Qdk+1 = a − bPk+1
Qok+1 = −c + dPk
dove le costanti a, b, c, d > 0 sono note e tutte positive. Ci` o significa che al crescere del prezzo del bene diminuisce la quantit`a domandata del bene, mentre aumenta la quantit` a offerta. La condizione di equilibrio del mercato Qdk+1 = Qok+1 conduce ad un problema nell’incognita prezzo espresso da una equazione alle differenze con una condizione iniziale p :
d a+c Pk+1 = − Pk + b b P 0 = p
Il nome di ragnatela sar` a chiarito nel seguito. Il lettore pu` o provare a farsene una ragione tentando di “risolvere graficamente” il problema. Esempio 1.11. (Modello di decadimento radioattivo) Consideriamo una popolazione di n particelle che decadono secondo la legge seguente: in ogni intervallo di tempo unitario3 si riducono del 20%. Se Pk indica il numero delle particelle dopo k intervalli di tempo, risulta
Pk+1 = 0, 8Pk P0 = n Analogamente all’Esempio 1.6, si ricava Pk = (0, 8) P0 = e−k ln(5/4)n. k
Per tale motivo si parla di decadimento esponenziale. Osserviamo che la comparsa di valori di Pk non interi conduce a considerare valori reali (descrizione corretta in opportune unit` a di misura macroscopiche se n `e molto grande). Il modello rimane comunque discreto nel tempo nonostante la modellizzazione continua delle grandezze che descrivono la popolazione. Poniamoci le domande seguenti: (1) qual `e la vita media m di tali particelle? (2) qual `e il tempo di dimezzamento d della popolazione? (3) qual `e la pi` u grande delle due quantit` a trovate? 3
L’intervallo di tempo pu` o essere molto lungo: esso `e determinato dalla natura delle particelle.
1.2 Esempi
7
Sottolineiamo il fatto che le prime due domande sono differenti. Nel primo caso si chiede di determinare la vita media, cio`e il numero m verificante +∞ 1 m= k (Pk − Pk+1 ) . (1.7) n k=1
Sostituendo l’espressione trovata per Pk in (1.7), si ottiene: m=
1 k k k−1 nk (0, 8) (1 − 0, 8) = 0, 2 k (0, 8) = 0, 16 k (0, 8) =4 n +∞
+∞
+∞
k=1
k=1
k=1
La seconda domanda chiede di determinare il pi` u grande intero k tale che Pk ≥
1 P0 2
problema equivalente a
1 k max k ∈ N : (0, 8) ≥ 2 k ln 2 · (0, 8) = ln 2 + k (ln 4 − ln 5);
e dalle identit` a deduce
d = max k ∈ N : k ≤
ln 1 = 0
si
ln 2 ln 2 = parte intera di = ln 5 − ln 4 ln 5 − ln 4 = parte intera di 3, 1063 = 3 .
Osserviamo che nessuna delle due quantit`a (vita media e tempo di dimezzamento) dipende dalla popolazione iniziale: esse dipendono solo dalla frazione (20%) di particelle che decadono nell’unit` a di tempo; inoltre vale m > d. Questa tuttavia non `e una disuguaglianza valida in generale: a seconda del tipo di popolazione e delle corrispondenti leggi di decadimento si possono avere tutte le diverse possibilit` a: m > d, m = d, m < d. Consideriamo, ad esempio, una popolazione di 3 particelle (o individui) A, B e C: A vive 10 anni, C vive 20 anni. Allora: • se B vive 15 anni, allora d = m = 15 anni; • se B vive b anni, con 10 ≤ b < 15, allora d = b < m; • se B vive b anni, con 15 < b < 20, allora m < b = d. Osserviamo infine che la vita media potrebbe non essere neppure definita se il calo della popolazione avviene in modo pi` u lento del decadimento esponenziale.
8
1 Fenomeni ricorsivi ed equazioni alle differenze
Figura 1.1 Vita media e tempo di dimezzamento nei tre esempi discussi
1 P0 , allora la vita media `e infinita: k +∞ +∞ +∞ 1 1 1 1 k (Pk − Pk+1 ) = k − = = +∞. P0 k k +1 k+1
Ad esempio, se Pk =
k=1
k=1
k=1
Invece, per una popolazione che decresce nel tempo `e sufficiente la condizione limk Pk = 0 (cio`e che la popolazione tenda ad estinguersi) affinch´e il tempo di dimezzamento sia ben definito. 1 Ad esempio, se, come prima, Pk = P0 , allora d = 2. k Esempio 1.12. (Modello di Malthus4 ) Questo semplice ed ormai classico modello descrive una popolazione (biologica o di altro genere), nella quale il numero Yk di individui presenti al tempo k `e una proporzione costante τ del numero di individui Yk−1 al tempo precedente (la quantit`a τ −1 `e detta tasso intrinseco di crescita):
Yk+1 = τ Yk
τ >0
Il tasso intrinseco di crescita τ − 1 rappresenta la differenza fra i tassi di natalit` a e mortalit` a degli individui. Ovviamente, la popolazione cresce se τ > 1, decresce se 0 < τ < 1. Osserviamo che, al variare di τ , il modello descrive un comportamento quantitativamente identico al caso dell’interesse composto (basta porre τ = 1 + r) o al caso del decadimento radioattivo se 0 < τ < 1. Tali modelli sono detti di crescita esponenziale per l’andamento delle loro soluzioni. Esempio 1.13. (Crescita logistica) Vedremo in dettaglio nel Capitolo 2 che, se τ > 1, allora il modello di Malthus presenta delle soluzioni a crescita esponenziale. Molti autori hanno criticato tale modello proprio perch´e implica una crescita illimitata e troppo rapida. Pi` u realisticamente (anche se si 4
Thomas Robert Malthus, 1766-1834.
1.2 Esempi
9
trascura la competizione con altre specie e si suppongono illimitate le risorse dell’habitat) in caso di grande affollamento si deve tenere conto almeno di fattori di competizione intraspecifica. Il modo pi` u semplice di tenere conto di tali fenomeni sociali consiste nella correzione del modello di Malthus, dovuta a Verhulst, che descrive una maggiore aggressivit`a ed una diminuita attitudine alla riproduzione nei casi di “sovraffollamento”. L’equazione del modello di Malthus viene “corretta” introducendo un termine non lineare di secondo grado, in quanto `e ragionevole pensare che la competizione fra individui sia proporzionale al numero di incontri, e che quest’ultimo sia proporzionale a Yk 2 : Yk+1 = τ Yk − ωYk 2 τ, ω > 0 . Posto H = τ /ω possiamo scrivere
Yk+1
Yk = τ Yk 1 − H
τ, H > 0
(1.8)
Tale modello `e detto di crescita logistica. La quantit` a H `e detta totale sostenibile: infatti, H ha tale interpretazione perch´e se si parte da una popolazione Y0 tale che 0 < Y0 < H, con parametro τ verificante 0 < τ < 4, allora tutti i successivi valori di Yk si mantengono compresi tra 0 e H; non `e possibile invece partire da valori Y0 > H in quanto si avrebbe Yk < 0 per ogni k e il modello sarebbe privo di una significativa interpretazione biologica. Mediante il cambio di scala Xk = Yk /H, possiamo riscrivere il modello come Xk+1 = τ Xk (1 − Xk )
τ >0
ove la popolazione `e espressa come frazione del totale sostenibile. Corrispondentemente, valori iniziali sensati X0 devono soddisfare le disuguaglianze 0 < X0 < 1. Agli effetti della variazione Xk+1 − Xk in un singolo passo temporale, per piccole popolazioni “prevale” il termine lineare (τ − 1) Xk , mentre per popolazioni di grandi dimensioni “prevale” il termine quadratico di coefficiente negativo −τ Xk2 . In questo contesto “piccolo” significa prossimo a zero, “grande” significa grande rispetto a zero ed ha senso anche per valori minori di 1. Esempio 1.14. (Modello di Lotka-Volterra) Una regione `e popolata da due specie: una, la preda, indicata con P , si ciba delle risorse vegetali presenti sul territorio, l’altra, detta predatore ed indicata con C, carnivora, si ciba delle prede. Le prede, in assenza di predatori, crescono in “modo Maltusiano” ad un tasso costante τ ; la presenza di predazione riduce il tasso di crescita delle prede di un termine proporzionale alla consistenza delle popolazioni di prede
10
1 Fenomeni ricorsivi ed equazioni alle differenze
e predatori; in assenza di prede, i predatori si estinguono. Analiticamente il modello `e espresso da un sistema di due equazioni che descrivono in modo accoppiato l’andamento delle due popolazioni:
Pk+1 = (1 + a) Pk − b Ck Pk a, b, c, d > 0, ∀k ∈ N. Ck+1 = (1 − c) Ck + d Ck Pk Si noti che, l’effetto della predazione `e proporzionale agli incontri tra prede e predatori; questo modello suppone che il numero di incontri sia proporzionale alla consistenza delle due popolazioni, cio`e al prodotto Ck Pk . Tale prodotto prende il nome di impact factor. Esempio 1.15. (I numeri di Fibonacci5 ) Un allevatore di conigli si chiede quante coppie di conigli si possono ottenere in un anno, a partire da una unica coppia, nell’ipotesi che ogni mese ciascuna coppia con due o pi` u mesi di vita, dia alla luce una nuova coppia. Per semplicit`a, si pu` o supporre che: • • • •
nessuna coppia muoia; la prima coppia sia costituita da conigli appena nati; il tempo di gestazione sia di un mese; la maturit` a sessuale sia raggiunta dopo il primo mese di vita.
Se Ck `e il numero di coppie al tempo k (espresso in mesi), allora dalle ipotesi fatte deduciamo il modello ricorsivo:
Ck+1 = Ck + Ck−1 , k ∈ N\ {0} C0 = 0, C1 = 1 A differenza degli esempi precedenti, si tratta di un modello a due passi: per ottenere il valore Ck+1 `e necessario conoscere i valori Ck e Ck−1 corrispondenti ai due mesi precedenti. Per sostituzione diretta si ottiene una successione di numeri, detti numeri di Fibonacci, di cui elenchiamo i primi 13: C = {0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, . . . } . Tornando al quesito dell’allevatore, riportiamo in una tabella il numero di mesi trascorsi ed il corrispondente numero di coppie di conigli: mesi
k
coppie Ck
0 1 2 3 4 5 6 7 8 9 10 11 12 13 0 1 1 2 3 5 8 13 21 34 55 89 144 233
Come si pu`o notare, il valore Ck cresce molto rapidamente con k, ad esempio C25 = 75025. Osserviamo che per calcolare valori di Ck con k > 30 anche se si utilizza 5
Col soprannome di Fibonacci `e noto Leonardo Pisano (1175-1240).
1.2 Esempi
11
un personal computer `e bene usare qualche accorgimento per evitare tempi di calcolo molto lunghi o problemi di memoria. Queste difficolt` a sono tipiche delle operazioni ricorsive, anche quando sono ottenute a partire da operazioni molto semplici. Il problema `e dovuto al fatto che se non si conservano i valori calcolati, l’elaboratore ripete un gran numero di volte (inutilmente) le stesse operazioni. Questo `e il vero motivo per cui si ricercano formule esplicite per il calcolo che non richiedano la conoscenza di tutti i valori precedenti (si veda al riguardo l’Appendice H). Si noti che non solo Ck ma anche il numero Nk di operazioni necessarie al calcolo di Ck cresce molto rapidamente (come funzione di k), se non vengono tabulati i valori di Ck , mano a mano che vengono calcolati. Nel modello di Fibonacci non solo i passi temporali sono discreti ma anche la grandezza misurata (numero di conigli) `e discreta (sono numeri interi); tuttavia una descrizione completa delle soluzioni richiede (come vedremo nel Capitolo 2) l’utilizzo dei numeri reali, ossia l’ampliamento dell’insieme numerico in cui `e stato definito il modello. Esempio 1.16. (Modello di Leslie [12]) I modelli di popolazione presentati in precedenza non tengono conto di alcuna eventuale struttura della popolazione: per et` a, sesso o altro. Al solo scopo di tenere conto delle varie et`a degli individui appartenenti ad una popolazione biologica, si pu` o suddividere tale popolazione in n classi disgiunte di et` a , ciascuna di uguale ampiezza. Ad esempio, la prima classe potrebbe essere costituita dagli individui di et` a minore o uguale a 20 anni, la seconda dagli individui di et` a compresa tra 20 e 40 anni, e cos`ı via. In tal modo 5 classi di et`a sarebbero sufficienti a descrivere in modo soddisfacente una popolazione umana di una certa regione. In generale, assegnata una popolazione, fissato n il numero di classi di et` a, si deduce l’unit` a temporale come rapporto tra una et` a massima convenzionale ed n, quindi si denota con Yk il numero di individui che costituisce la popolazione complessiva al tempo k. Per ogni k, Yk `e un vettore ad n componenti Ykj , j = 1, . . . , n, ciascuna delle quali indica il numero di individui nella jesima classe, cio`e di et`a compresa tra j − 1 e j, nella fissata unit` a di misura temporale. La presenza di due indici non deve spaventare: il primo denota il tempo al quale ci si riferisce, il secondo la classe di et`a. Ad esempio, se consideriamo classi di et`a dell’ampiezza di 5 anni per la popolazione umana di una fissata regione, allora Y51 `e il numero di appartenenti alla classe dei pi` u giovani (et` a minore di 5 anni) valutata al momento del quinto censimento (i censimenti hanno, in genere, cadenza quinquennale). 1 Il numero Yk+1 dei nuovi nati al tempo k + 1 `e la somma dei nati da individui appartenenti a ciascuna classe di et` a che `e in proporzione secondo un tasso di natalit` a ϕj al numero di individui nella stessa classe Ykj : 1 Yk+1 =
n j=1
ϕj Ykj .
12
1 Fenomeni ricorsivi ed equazioni alle differenze
j Il numero di individui Yk+1 nelle classi di et`a pi` u mature (j = 2, 3, . . . , n) al tempo k + 1 `e dato dai “sopravvissuti” fra i componenti la Ykj−1 della (j − 1)-esima classe al tempo k: j Yk+1 = σj−1Ykj−1
j = 2, . . . , n,
0 ≤ σj−1 ≤ 1.
I valori ϕj e σj sono tipici delle varie popolazioni, sono indicatori statistici delle attese di natalit` a e sopravvivenza, sono tutti non negativi e verosimilmente ϕj `e piccolo per valori estremi di j (j = 0 e j = n). T Posto Yk = Yk1 Yk2 . . . Ykn , il modello `e descritto in modo sintetico dall’equazione vettoriale Yk+1 = LYk cio`e, per ciascuna componente j, j = Yk+1
n
Lj,h Ykh
h=1
dove
⎡
. . . ϕn−1 ... 0 ... 0 . .. . .. 0 0 0 . . . σn−1
ϕ1 ⎢ σ1 ⎢ ⎢ L=⎢ 0 ⎢ .. ⎣ .
ϕ2 0 σ2 .. .
ϕ3 0 0 .. .
⎤ ϕn 0 ⎥ ⎥ 0 ⎥ ⎥. .. ⎥ . ⎦ 0
Si noti che ad ogni passo temporale la popolazione complessiva si ottiene n sommando il numero degli individui componenti le varie classi di et` a: Ykj . j=1
Esempio 1.17. (Rovina del giocatore) Due giocatori A e B giocano a testa o croce con una moneta truccata (esce testa nel 40% dei casi). Su ogni lancio scommettono un Euro. A punta sempre su testa, B sempre su croce. A possiede all’inizio a monete, B ne possiede b, e vale a > b > 0. Il gioco prosegue fino a che uno dei giocatori sbanca l’altro. Ci si chiede quale sia la probabilit` a che A riesca a vincere tutte le monete di B e la probabilit` a dell’esito opposto. Per vedere due modi diversi di modellare e risolvere il problema si rimanda al Capitolo 2 (Esercizio 2.35) e al Capitolo 6 (Esercizio 6.3). Esempio 1.18. In un game di una partita di tennis tra due giocatori il punteggio `e 40 a 15. Supponendo di sapere che il giocatore in vantaggio ha una probabilit` a nota p ∈ (0, 1) di vincere ciascuna palla, si chiede con quale probabilit` a si aggiudicher` a il gioco. Per un’analisi di questa situazione si rinvia all’Esempio 6.25.
1.2 Esempi
13
Esempio 1.19. (Ricerca delle soluzioni di una equazione differenziale ordinaria, lineare con coefficienti variabili espressi da funzioni elementari) Consideriamo, ad esempio, l’equazione differenziale, nota come equazione di Airy, y = xy x∈R. (1.9) Si noti che l’equazione, bench´e lineare, non `e a coefficienti costanti. Cerchiamo di determinare soluzioni di (1.9) nella forma6 y (x) =
+∞
An xn .
n=0
Derivando formalmente, si ottiene y (x) =
+∞
y (x) =
n An xn−1
n=1
+∞
n (n − 1) An xn−2
n=2
e sostituendo nell’equazione (1.9), si ricava l’identit` a +∞
n (n − 1) An xn−2 =
n=2
+∞
An xn+1 .
(1.10)
n=0
Inoltre +∞
n (n − 1) An xn−2 = 2A2 +
n=2
+∞
n (n − 1) An xn−2 =
ponendo m=n−3
n=3
= 2A2 +
+∞
(m + 2) (m + 3) Am+3 xm+1
m=0
e, tenendo conto che l’indice di una sommatoria `e muto, si pu` o porre m = n nella serie a destra dell’uguale in (1.10), ottenendo l’identit` a equivalente: 2A2 +
+∞
(m + 2) (m + 3) Am+3 xm+1 =
m=0
+∞
Am xm+1 .
m=0
Affinch´e l’uguaglianza sia verificata per ogni x ∈ R devono risultare uguali i coefficienti dei termini di ugual grado: A2 = 0 6
(m + 2) (m + 3) Am+3 = Am .
Per applicare con successo il metodo, non `e necessario che i coefficienti siano funzioni elementari: `e in generale sufficiente che i coefficienti siano analitici, cio` e funzioni esprimibili localmente come somma di una serie di potenze della variabile indipendente x.
14
1 Fenomeni ricorsivi ed equazioni alle differenze
Otteniamo cos`ı la relazione ricorsiva Am+3 =
Am (m + 2) (m + 3)
m ∈ N.
(1.11)
Assegnati i valori A0 = y (0) ed A1 = y (0), ricordando che A2 = 0, l’espressione ricorsiva (1.11) consente di calcolare tutti i coefficienti. Osservato che A3k+2 = 0 per ogni k, i primi termini dello sviluppo della soluzione sono: x3 x4 x6 x7 + + · · · + A1 x + + +··· . y (x) = A0 1 + 2·3 2·3·5·6 3·4 3·4·6·7 Esempio 1.20. Discretizzazione di una equazione differenziale ordinaria con il metodo delle differenze finite. Si possono ottenere soluzioni approssimate di un problema di Cauchy7
u (x) = f (x, u (x)) (1.12) u (x0 ) = u0 dove f `e una funzione nota, x varia in un opportuno intervallo centrato in x0 ed u `e una funzione incognita, sostituendo la derivata della funzione incognita con opportuni rapporti incrementali. Ad esempio, il metodo di Eulero implicito consiste nel fissare un passo h > 0 di incremento della variabile x che individua i punti xk = x0 + hk, al variare di k ∈ {0, 1, . . ., n − 1}; in corrispondenza ai punti xk si sostituisce nella (1.12) al posto di u (x) il rapporto incrementale in avanti: u (xk + h) − u (xk ) u (x0 + h (k + 1)) − u (x0 + hk) = h h e per valutare la funzione f (x, u (x)) si effettuano i calcoli in xk+1 . Consideriamo una funzione uh che approssima u. Posto Uk = uh (x0 + hk) otteniamo Uk+1 − Uk = f (xk+1 , Uk+1 ) h ossia Uk+1 = Uk + hf (x0 + (k + 1) h, Uk+1 )
k = 0, 1, . . . , n − 1 ;
che, per ogni k fissato, `e effettivamente una equazione implicita in Uk+1 qualora sia noto Uk : risolvendola iterativamente, a partire da U0 = u (x0 ) = u0 , si ottengono i valori Uk+1 . 7
Cio`e un problema che consiste nella determinazione di una soluzione di un’equazione differenziale verificante condizioni iniziali assegnate in modo opportuno.
1.2 Esempi
15
Ci si attende che l’approssimazione Uk di u (xk ) migliori quando h si avvicina a zero. Alternativamente, il metodo di Eulero esplicito consiste nel calcolare l’approssimazione di f in xk e conduce alla formulazione Uk+1 − Uk = f (xk , Uk ) h
che, nota Uk , `e un’equazione esplicita nell’incognita Uk+1 . Questo vantaggio computazionale comporta per`o inconvenienti sulla stabilit` a numerica per cui il metodo implicito risulta preferibile qualora non risulti proibitiva la soluzione dell’equazione in Uk+1 . Esempio 1.21. (Discretizzazione dell’equazione del calore) Consideriamo il problema con condizioni iniziali ed al bordo per l’equazione del calore in un sbarra ⎧ 2 ⎪ ∂v = ∂ v ⎪ x ∈ (0, a) , t > 0 ⎪ ⎪ ∂x2 ⎪ ⎨ ∂t (1.13) v (x, 0) = f (x) x ∈ [0, a] ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ v (0, t) = v (a, t) = 0 t > 0 che descrive l’evoluzione della temperatura v = v (t, x) al tempo t nella posizione x di una sbarra, se si suppone che la temperatura segua la legge di Fourier, abbia il valore f al tempo 0 e sia controllata da termostati al bordo. Supponiamo f (0) = f (a) = 0. Fissiamo un passo s = a/ (N + 1) , N ∈ N\ {0}, per la variabile spaziale e poniamo tk = hk con k ∈ N e h reale strettamente positivo. In tal modo otteniamo una griglia di punti (vedi Figura 1.2) (xj , tk ) = (js, hk)
j = 0, 1, . . ., N + 1,
k ∈ N.
Se la soluzione v di (1.13) ha derivate continue fino al secondo ordine, in ogni punto (xj , tk ) della griglia otteniamo dalla formula di Taylor: ∂v v (xj , tk+1 ) − v (xj , tk ) (xj,tk+1 ) = + O (h) ∂t h ∂2v v (xj+1 , tk+1) − 2v (xj , tk+1 ) + v (xj−1 , tk+1 ) (xj , tk+1 ) = + O (s) . ∂x2 s2 Queste relazioni suggeriscono di approssimare l’equazione del calore con l’equazione alle differenze:
16
1 Fenomeni ricorsivi ed equazioni alle differenze
Figura 1.2 Griglia di discretizzazione per l’equazione del calore in una sbarra
v (js, h (k + 1)) − v (js, hk) = h =
v ((j + 1) s, h (k + 1)) − 2v (js, h (k + 1)) + v ((j − 1) s, h (k + 1)) s2
che `e una discretizzazione di tipo Eulero implicito nel tempo con derivata seconda spaziale approssimata con 3 punti. Denotando con Vj,k un’approssimazione di v (js, hk) e operando un riordino dei termini, si ottiene il sistema: 2h h Vj,k+1 − 2 [Vj−1,k+1 + Vj+1,k+1 ] j = 1, . . . , N, j,k = 1 + 2 s s ⎩ V0,k+1 = VN+1,k+1 = 0 k∈N ⎧ ⎨V
k∈N (1.14)
` ragionevole porre E
Vj,0 = f (js)
j = 0, . . . , N + 1.
Il problema (1.14) si pu` o risolvere ricorsivamente (con l’ausilio del calcolo automatico): i valori Vj,0 sono noti, mentre Vj,1 , j = 1, . . . , N , si deducono dai valori Vj,0 con j = 1, . . . , N . Introducendo poi la matrice N × N
1.2 Esempi
⎡
1+
2h s2
− sh2
0
···
⎢ ⎢ ⎢ − h2 1 + 2h2 − h2 · · · s s s ⎢ ⎢ ⎢ ⎢ − sh2 1 + 2h A =⎢ ⎢ 0 s2 · · · ⎢ ⎢ ⎢ . .. .. .. ⎢ .. . . . ⎢ ⎣ 0
···
0
⎤
0 0 .. . − sh2
− sh2 1 +
⎡
17
⎤
V1,k ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎢ V2,k ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ Vk = ⎢ ⎥ ⎥ ⎢ ⎢ .. ⎥ ⎢ . ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎦ ⎣ VN,k
⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦
2h s2
possiamo riscrivere il sistema precedente come una equazione alle differenze vettoriale del primo ordine, a coefficienti costanti AVk+1 = Vk
(1.15)
T con la condizione iniziale V0 = f (s) f (2s) · · · f (N s) . La discretizzazione di tipo Eulero esplicito conduce alla seguente equazione alle differenze vettoriale (1.16) Wk+1 = BWk T con la condizione iniziale W0 = f (s) f (2s) · · · f (N s) , dove Wj,k approssima il valore di v (js, hk) e B `e la matrice N × N definita da ⎡ ⎤ h 0 ··· 0 1 − 2h s2 s2 ⎢ h 1 − 2h h ··· 0 ⎥ ⎢ s2 ⎥ s2 s2 ⎢ ⎥ ⎢ .. ⎥ h 2h ⎢ . ⎥ 1 − s2 · · · B=⎢ 0 s2 ⎥ ⎢ . ⎥ .. .. .. ⎢ . ⎥ . sh2 ⎦ . . ⎣ . 0
···
0
h s2
1−
2h s2
In entrambi gli schemi si noti la struttura a banda delle matrici A e B che risultano matrici definite positive (la seconda se 4h < s2 ). Osserviamo che la soluzione dello schema di Eulero esplicito consiste nel determinare iterativamente Wk+1 a partire da Wk : la soluzione numerica di tale problema consiste ad ogni passo in una moltiplicazione di una matrice di ordine N per un vettore N -dimensionale. La soluzione dello schema di Eulero implicito consiste nella determinazione di Vk+1 a partire da Vk : in questo caso la soluzione numerica consiste ad ogni passo nella soluzione di un sistema di N equazioni algebriche (anzich´e invertire A che nella pratica pu` o avere dimensione molto elevata, si sfruttano le sue particolari propriet` a di struttura: si vedano l’Appendice D e il paragrafo 5.8). Esempio 1.22. (Equazione dei tre momenti per una sbarra appoggiata) Consideriamo una sbarra elastica pesante ed omogenea (vedi Figura 1.3),
18
1 Fenomeni ricorsivi ed equazioni alle differenze
Figura 1.3 Sbarra appoggiata a supporti equidistanti
uniforme di lunghezza L, appoggiata ad N − 1 punti equidistanti (ad una distanza δ > 0): N δ = L. Supponiamo che non vi siano forze agenti sulla sbarra ad eccezione del suo peso e della reazione vincolare nei supporti d’appoggio. Vogliamo determinare i momenti flettenti Mk , k = 1, , . . . , N − 1, nei punti di appoggio. Sia Mk il momento flettente nel k-esimo supporto. Consideriamo tre supporti consecutivi (di indici rispettivamente k − 1, k, k + 1) e collochiamo l’origine nel supporto centrale. Sia poi x la distanza orientata da tale punto. Allora, il momento flettente nel punto x `e dato da: ⎧ x ⎪ ⎪ ⎨ Mk + (Mk − Mk−1 ) δ −δ ≤ x ≤ 0 M (x) = (1.17) ⎪ x ⎪ ⎩ Mk + (Mk+1 − Mk ) 0≤x≤δ δ Dalla teoria delle sbarre elastiche sappiamo che lo spostamento verticale della sbarra `e descritto dal grafico di y = y (x) verificante Y I y = M (x)
(1.18)
dove Y I indica la rigidit` a a flessione della sbarra che supponiamo indipendente da x (Y `e il modulo di Young, I il momento di inerzia rispetto ad un asse per il baricentro). Integrando la relazione differenziale (1.18) ed usando (1.17) otteniamo ⎧ x2 ⎪ ⎪ + c1 −δ ≤ x ≤ 0 ⎪ Mk x + (Mk − Mk−1 ) ⎨ 2δ Y Iy = (1.19) ⎪ 2 ⎪ x ⎪ ⎩ Mk x + (Mk+1 − Mk ) + c2 0 ≤ x ≤ δ 2δ Poich´e y deve essere continua in x = 0, otteniamo c1 = c2 = c. Integrando (1.19) ⎧ x3 1 ⎪ 2 ⎪ x + (M − M ) M + cx −δ ≤ x ≤ 0 ⎪ k k k−1 ⎨2 6δ Y Iy = ⎪ 3 ⎪ ⎪ ⎩ 1 Mk x2 + (Mk+1 − Mk ) x + cx 0 ≤ x ≤ δ 2 6δ
1.3 Metodo grafico
19
Poich´e lo spostamento verticale y `e nullo nei punti di appoggio (cio`e per x = 0, ±δ) otteniamo due equazioni 1 δ2 Mk δ 2 − (Mk − Mk−1 ) − cδ = 0 2 6 δ2 1 Mk δ 2 + (Mk+1 − Mk ) + cδ = 0 2 6 che sommate danno l’equazione dei tre momenti: Mk−1 + 4Mk + Mk+1 = 0 .
1.3 Metodo grafico Per rendersi conto, almeno in prima approssimazione, del comportamento di una soluzione di una equazione alle differenze del primo ordine Xk+1 = f (Xk )
∀k ∈ N
con f : I → R, I intervallo di R, pu` o risultare conveniente ricorrere ad una rappresentazione grafica che individua l’andamento, sia pur per pochi valori iniziali di k, della successione Xk . Illustriamo tale metodo in un caso particolare (che corrisponde ad una particolare scelta dei parametri negli Esempi 1.5, 1.8, 1.9, 1.11 e 1.12): Xk+1 = 1, 5 Xk − 0, 5.
(1.20)
Nel piano cartesiano, tracciamo i grafici della funzione affine f : R → R, f (x) = 1, 5 x − 0, 5 e della funzione identit` a id (x) = x. Scegliamo ora un valore iniziale X0 sull’asse delle ascisse, ad esempio X0 = 2. Allora il valore X1 = f (X0 ) = 2, 5 pu` o essere ottenuto graficamente tracciando a partire dal punto (X0 , 0) una retta verticale fino ad incontrare la retta di equazione y = 1, 5 x − 0, 5 (Figura 1.4a) e successivamente proseguendo con un segmento orizzontale fino all’asse verticale (Figura 1.4b). Per determinare graficamente X2 occorre riportare il valore di X1 sull’asse delle ascisse. A questo scopo, si traccia un segmento orizzontale (Figura 1.4c) fino alla retta di equazione y = x: chiaramente la sua proiezione verticale riporta X1 sull’asse delle ascisse. Riportiamo (Figura 1.4d) tutti i segmenti tracciati in un unico grafico, cancellando i tratti orizzontali percorsi in andata e ritorno. Si itera la procedura tracciando un segmento verticale a partire dal punto (X1 , X1 ) fino al grafico della funzione f (Figura 1.5a). Il grafico ottenuto “suggerisce” nell’esempio particolare che la successione Xk sia divergente a +∞ quando k → +∞.
20
1 Fenomeni ricorsivi ed equazioni alle differenze
X1 b)
a)
X0
X0
X1 d)
c)
X0 X1
X0 X1
Figura 1.4 Implementazione del metodo grafico
a)
b)
Figura 1.5 Metodo grafico: f (x) = 1, 5x − 0, 5 ; a) X0 = 2, b) X0 = 0, 5
Si noti, sempre nell’esempio sopra considerato, che, se X0 = 2, “non dobbiamo disegnare nulla” dato che ad ogni passo si ha Xk = 2.
1.4 Esercizi di riepilogo
21
Se consideriamo, invece X0 = 0, 5 , procedendo come indicato sopra, otteniamo il grafico della Figura 1.5b. Questa volta ci aspettiamo che Xk → −∞ se k → +∞. I diagrammi ottenuti con tale procedura saranno denominati nel seguito grafici a ragnatela. Invitiamo il lettore a fornire, ove possibile, una rappresentazione grafica dell’andamento delle successioni individuate negli esempi riportati nella precedente sezione.
1.4 Esercizi di riepilogo Il lettore `e invitato ad affrontare gli esercizi prima della lettura dei capitoli successivi, per poi confrontare le soluzioni trovate con quelle fornite nel Capitolo 7. Esercizio 1.1. Una torta viene tagliata con tagli rettilinei in modo tale che due tagli qualsiasi si intersecano in uno ed un solo punto ma tre tagli differenti non si possono intersecare nello stesso punto. Si fornisca il modello alle differenze che descrive ricorsivamente il numero Nk delle porzioni in cui viene suddivisa la torta con k tagli. Utilizzare il risultato ottenuto per rispondere al quesito: qual ` e il numero massimo di fette (eventualmente diverse fra loro) in cui si pu` o dividere una torta circolare mediante k tagli rettilinei? Esercizio 1.2. Il lettore verifichi, a proposito dell’Esempio 1.8, che se R ≤ rS0 non si riuscir` a mai ad estinguere il debito! Esercizio 1.3. Due sostanze radioattive (instabili) presenti inizialmente in quantit` a Y0 e X0 , ogni anno decadono secondo il seguente schema: • •
una frazione pY , 0 < pY < 1, del materiale denotato con Y si trasforma nel secondo materiale X; una frazione pX , 0 < pX < 1, del materiale denotato con X si trasforma in materiale inerte.
Individuare un sistema di due equazioni che descriva in forma ricorsiva le quantit` a Yk+1 e Xk+1 delle due sostanze radioattive dopo k + 1 anni. Esercizio 1.4. (Ammortamento uniforme) Un prestito di importo S viene rimborsato in n rate a quote capitale costanti di importo C, cio`e C = S/n. Si fornisca un’equazione ricorsiva che esprima la k-esima quota interessi Ik calcolata al tasso costante r sul debito residuo Dk , ricordando che Dk+1 = Dk − C. Se ne calcoli poi l’espressione in forma chiusa (Dk come funzione della sola k). Esercizio 1.5. (Ammortamento progressivo) Un prestito di importo S viene restituito in n rate costanti annue di importo R in cui l’interesse `e calcolato al tasso costante r sul debito residuo Dk , la prima delle quali viene versata un anno dopo l’erogazione del prestito. Determinare l’espressione ricorsiva per la quota capitale Ck e la quota interessi Ik .
22
1 Fenomeni ricorsivi ed equazioni alle differenze
Figura 1.6 Torre di Hanoi
Esercizio 1.6. Si deposita oggi (k = 0) una somma S in un conto corrente bancario. Sapendo che gli interessi vengono calcolati ad un tasso annuo r in regime di capitalizzazione composta e che la banca addebita a titolo di rimborso spese un importo annuo pari a C, fornire, nell’ipotesi che non avvengano altre operazioni, l’espressione ricorsiva dell’ammontare presente sul conto dopo k + 1 anni. Esercizio 1.7. Un investimento finanziario di capitale iniziale C0 dopo un numero a un ritorno percentuale pari a 100 (Cgg − C0 ) /C0 . di giorni gg vale Cgg , cio`e d` Si determini il tasso interno di rendimento annuo composto s, cio`e la soluzione dell’equazione (vedi l’Esempio 1.6) Cgg = (1 + s/100)gg/365 C0 . Il calcolo di s consente di confrontare l’investimento in esame con l’acquisto di uno zero coupon bond , cio`e un titolo a tasso fisso e privo di cedole. Esercizio 1.8. Con riferimento al caso del decadimento radioattivo (Esempio 1.11), assegnata una frazione r, 0 < r < 1 , di particelle che decadono nell’unit` a di tempo, confrontare la vita media m (r) ed il tempo di dimezzamento d (r) al variare di r. Esercizio 1.9. Un bambino dopo aver costruito una torre di k cubi li vuole riporre nella cesta dei giochi. A questo scopo, li prende uno o due alla volta. Descrivere con una equazione ricorsiva il numero dei modi differenti coi quali pu` o essere completata l’operazione. Esercizio 1.10. (Problema della torre di Hanoi, Lucas8 , 1883) Tre pioli sono allineati sul terreno. Sul piolo di sinistra sono impilati dischi di raggio differente a partire da quello di raggio maggiore come illustrato dalla Figura 1.6. Si chiede di determinare la relazione che sussiste tra il numero minimo di mosse Yk necessarie a spostare i dischi sul piolo di destra quando i dischi sono k ed Yk+1 numero minimo di mosse per effettuare la medesima operazione nel caso di k + 1 dischi. Una mossa equivale allo spostamento di un disco da un piolo all’altro e non `e possibile impilare alcun disco sopra uno di raggio inferiore. Esercizio 1.11. Nel problema posto dall’esercizio precedente, si aggiunga il divieto di spostare i dischi direttamente dal piolo di sinistra a quello di destra e si calcoli il numero minimo di mosse per spostare tutti i dischi in questa situazione. 8
Fran¸cois Edouard Anatole Lucas, 1842-1891.
1.4 Esercizi di riepilogo
23
Esercizio 1.12. Ciascuno dei tre lati di misura unitaria di un triangolo equilatero viene suddiviso in k parti uguali; se si congiungono i punti cos`ı individuati mediante linee parallele ai lati si individuano Xk triangoli equilateri il cui lato `e pari ad 1/k. Determinare una relazione ricorsiva che lega Xk+1 ad Xk . Esercizio 1.13. Studiare graficamente il modello della ragnatela (Esempio 1.10) nell’ipotesi d a+c = 0, 9 = 2. b b Si osservi che il disegno ottenuto suggerisce una spiegazione del nome di tale modello. Esercizio 1.14. Determinare una formula ricorsiva per i coefficienti An dello svi+∞ An xn di una soluzione delle seguenti equazioni differenziali del luppo in serie n=0
secondo ordine (x ∈ R): equazione di Bessel
x2 y + xy + x2 − k2 y = 0
equazione di Hermite y − 2xy + 2ky = 0 equazione di Laguerre xy + (1 − x) y + ky = 0 equazione di Legendre
1 − x2 y + k (k + 1) y = 0
dove k ∈ N `e assegnato e y , y denotano rispettivamente le derivate prima e seconda di y rispetto ad x. Esercizio 1.15. Discretizzare con il metodo di Eulero implicito le seguenti equazioni differenziali: x0 = 0 (1) y = xy (2) y = ay (1 − y) x0 = 0 Esercizio 1.16. Discretizzare con metodi alle differenze finite le seguenti equazioni differenziali alle derivate parziali: a) equazione di Laplace
∂2u ∂2 u + =0 2 ∂x ∂y2
b) equazione di D’Alembert
∂2 v ∂2 v − =0 2 ∂t ∂x2
Esercizio 1.17. (Equazione di Black & Scholes) L’equazione differenziale 1 vt + σ2 x2 vxx + rxvx − rv = 0 2 nell’incognita v = v (x, t), con σ (volatilit` a) ed r (tasso d’interesse bancario) parametri noti, si dice equazione di Black & Scholes. Risolvere tale equazione differenziale consente di determinare il prezzo v di particolari strumenti finanziari derivati (ad esempio, opzioni, contratti forward, futures) al tempo t e per un certo valore x del prodotto finanziario sottostante (obbligazioni, azioni, materie prime, indici finanziari).
24
1 Fenomeni ricorsivi ed equazioni alle differenze
Ad esempio, `e importante risolvere il seguente problema per una singola opzione d’acquisto (call ): ⎧ 1 ⎪ ⎪ vt + σ2 x2 vxx + rxvx − rv = 0 x > 0, 0 < t < T ⎪ ⎪ 2 ⎨ v (0, t) = 0 0 1, allora lim |Xk | = +∞ (infatti lim ak = +∞, e tutte k
k
le traiettorie corrispondenti sono divergenti, salvo quella (costante) corrispondente a X0 = α); (iii) se a = −1, allora l’equilibrio `e α = b/2, e tutte le soluzioni oscillano attorno a tale equilibrio: X2k = α + (X0 − α) = X0
k∈N
X2k+1 = α − (X0 − α) = b − X0 k ∈ N Dunque, nel caso a = −1, tra le soluzioni vi `e un’unica traiettoria costante (se X0 = α = b/2) ed infinite traiettorie periodiche (se X0 = b/2), i cui primi valori sono {X0 , b − X0 , X0 , b − X0 , . . . },
28
2 Equazioni alle differenze lineari
se a = −1 allora: X2k = X0 2k+1
2k+1
X2k+1 = (−1)
X0 +
1 − (−1) 2
b = 2α − X0 = b − X0
cio`e X `e periodica di periodo 2 ed oscilla attorno il valore α = b/2, e in tal caso le oscillazioni hanno semiampiezza |X0 − α| = |X0 − b/2|. Prova L’unico fatto non banale `e la rappresentazione esplicita (2.4) relativa al caso a = 1: pu` o essere provato per induzione, mostrando che la successione (2.4) descrive a (a dato iniziale fissato) una soluzione di (2.3) per ogni dato iniziale X0 , e dall’unicit` segue il fatto che (2.4) descrive tutte le soluzioni al variare di X0 . ` tuttavia interessante ricavare direttamente la formula (2.4) anzich´ E e provarne la validit` a “a posteriori”, perch´e la dimostrazione costruttiva consente di comprenderne meglio il significato. Si tratta di provare che il caso 2) ` e qualitativamente simile al caso omogeneo (b = 0, Teorema 2.1) salvo cambiamenti affini di coordinate (in R): nell’ipotesi a = 1, studiamo le successioni (al variare di X0 ) Zk = Xk − α
∀k ∈ N
(2.5)
ove α = b/ (1 − a) `e l’equilibrio dell’equazione (2.3). Ricavando Xk da (2.5) e sostituendo in (2.3), si ottiene Zk+1 + α = a (Zk + α) + b
Zk+1 +
b ab = aZk + +b 1−a 1−a Zk+1 = aZk
la cui soluzione, dedotta dal Teorema 2.2, Zk = ak Z0 , sostituita nella (2.5) d` a infine
Xk = Zk + α = ak (X0 − α) + α = ak
X0 −
b 1−a
+
b . 1−a
Le Figure 2.1 e 2.2 descrivono l’andamento qualitativo delle traiettorie nei casi discussi nel Teorema 2.5
2.1 Equazioni lineari ad un passo a coefficienti costanti
a=2 b = −1
a=1 b=3
a = 1/2 b=1
Figura 2.1 Soluzione grafica di (2.3) con a = 2, 1, 1/2, b = −1, 3, 1
29
30
2 Equazioni alle differenze lineari
a = −1/2 b=5
a = −1 b=5
a = −2 b=6
Figura 2.2 Soluzione grafica di (2.3) con a = −1/2, −1, −2, b = 5, 5, 6
2.1 Equazioni lineari ad un passo a coefficienti costanti
31
Osservazione 2.6. Nel caso a = 1, l’espressione (2.4) mostra che la distanza |Xk − α| tra il k-esimo termine di X ed il valore di equilibrio `e un fissato multiplo del k-esimo termine della progressione geometrica di ragione |a|: k
|Xk − α| = |X0 − α| |a| . Dunque, se |a| < 1, si ottiene una stima della buona rapidit` a di convergenza all’equilibrio e del miglioramento della maggiorazione dell’errore a ciascun passo: |Xk+1 − α| = |Xk − α| |a| . Esempio 2.7. Nell’Esempio 1.8, se si suppone che r = 0, poich´e l’equilibrio `e R/r, dalla (2.4) segue k R R (1 + r) − 1 k k Sk = S0 − (1 + r) + = (1 + r) S0 − R. r r r Esempio 2.8. (Modello della Ragnatela) Riprendiamo l’Esempio 1.10 del modello domanda-offerta. Se il livello dei prezzi segue la relazione ricorsiva d a+c Pk+1 = − Pk + b b
a, b, c, d > 0
allora −d/b < 0. Poich´e l’equilibrio del modello `e α=
a+c b+d
assegnato un livello iniziale dei prezzi P0 , per la (2.4) l’espressione in forma chiusa del livello del prezzo di equilibrio al tempo k risulta k d a+c a+c Pk = − P0 − + k ∈ N. b b+d b+d Si noti che la negativit` a del termine −d/b implica che il comportamento del prezzo sar` a sempre oscillante, e il fatto che ci sia convergenza o meno dipende dal rapporto fra le pendenze delle curve di domanda e di offerta. In particolare, se d < b allora i valori Pk dei prezzi convergeranno rapidamente all’equilibrio α per k → +∞. Se d > b non si avr` a una stabilizzazione del prezzo. Esercizio 2.1. Date le seguenti equazioni lineari a coefficienti costanti 1 Xk+1 = 4Xk − 1 Xk+1 = Xk − 1 Xk+1 = Xk + 2 (2) 1 (3) (1) 3 X0 = 0 X0 = X0 = 1 4 1 Xk+1 = −3Xk + 5 Xk+1 = −Xk + 1 Xk+1 = − Xk + 3 (6) (5) (4) 5 X0 = 2 X0 = 1 X0 = 3
32
2 Equazioni alle differenze lineari
i) determinarne la soluzione in forma chiusa; ii) studiare il comportamento asintotico della soluzione; iii) disegnare il grafico a ragnatela e l’andamento della soluzione. Esercizio 2.2. (Somma di una progressione aritmetica) Provare che 1 + 2 + 3 + · · · + (k − 1) + k =
k (k + 1) 2
k ∈ N.
Esercizio 2.3. (Somma di una progressione geometrica) Assegnato il numero complesso z poniamo Pk = 1 + z + z 2 + · · · + z k =
k
z n.
n=0
Calcolare Pk come funzione esplicita di k. Esercizio 2.4. Ricavare le tesi del Teorema 2.5 iterando la (2.3) a partire da un dato iniziale X0 . Esercizio 2.5. Assegnato z ∈ C, calcolare Qh,k = z h + z h+1 + · · · + z h+k−1 + z h+k , h, k ∈ N. Esercizio 2.6. Stabilire per quali valori di z ∈ C la serie geometrica
+∞
z k `e
k=0
convergente e calcolarne la somma (si veda l’Appendice A, 18)-26)). Esercizio 2.7. Provare che il numero decimale rappresentato da 0, 9999999 . . . (dove i puntini rappresentano una successione infinita di cifre tutte uguali a 9) coincide con il numero 1.
2.2 Equazioni lineari ad n passi a coefficienti costanti In questo paragrafo vediamo come sia possibile fornire una descrizione completa delle soluzioni per le equazioni lineari a coefficienti costanti anche nel caso a pi` u passi. A questo scopo `e utile premettere alcune definizioni. Definizione 2.9. Definiamo la somma di due successioni F e G qualsiasi, come la successione H il cui generico elemento Hk `e ottenuto come somma dei corrispondenti elementi delle due successioni: Hk = Fk +Gk . Scriveremo H = F + G. Definizione 2.10. Definiamo il prodotto di una successione F per una costante complessa α, come la successione W il cui generico elemento si ottiene moltiplicando per α il corrispondente elemento di F : Wk = αFk . Scriveremo W = αF .
2.2 Equazioni lineari ad n passi a coefficienti costanti
33
Definizione 2.11. Due successioni F e G si dicono linearmente dipendenti se esistono due costanti α e β, non entrambe nulle, tali che αF + βG `e la successione identicamente nulla. In caso contrario F e G si dicono linearmente indipendenti. Analogamente, n successioni F j , j = 1, 2, . . . , n, si dicono linearmente se esistono n costanti α1 , α2 , . . . , αn non tutte nulle tali che ndipendenti j e la successione identicamente nulla (cio`e α1 Fk1 + α2 Fk2 + · · · + j=1 αj F ` +αn Fkn = 0 , ∀k). L’insieme delle successioni a valori complessi, dotato delle due operazioni sopra introdotte, `e uno spazio vettoriale di dimensione infinita. Questo significa che la somma di (un numero finito) successioni o il prodotto di una successione per una costante sono ancora successioni, e che, comunque si scelga un intero positivo n, `e possibile trovare n successioni linearmente indipendenti. Definizione 2.12. Assegnate n costanti a0 , a1 , . . . , an−1 con a0 = 0, si dice equazione alle differenze, lineare omogenea, di ordine n, a coefficienti costanti, il sistema di infinite relazioni
Xk+n + an−1 Xk+n−1 + · · · + a1 Xk+1 + a0 Xk = 0
∀k ∈ N (2.6)
L’espressione equazione ad n passi sar`a usata come sinonimo di equazione di ordine n. Teorema 2.13. (Principio di sovrapposizione) Se X ed Y sono soluzioni di (2.6), allora anche X + Y e cX sono soluzioni per ogni costante c. Dunque, l’insieme delle soluzioni di (2.6) `e uno spazio vettoriale. Prova. Si ottiene per semplice sostituzione in (2.6).
Il teorema precedente suggerisce l’opportunit` a di cercare “un numero sufficiente di soluzioni” che formino una base per lo spazio delle soluzioni. Per analogia con il caso delle equazioni lineari a coefficienti costanti del primo ordine, si possono cercare soluzioni dell’equazione omogenea (2.6) del tipo Xk = cλk
c = 0.
Se una tale successione risolve (2.6), si ottiene per sostituzione: λk λn + an−1 λn−1 + · · · + a1 λ + a0 = 0 ∀k ∈ N cio`e λ deve essere soluzione di λn + an−1 λn−1 + · · · + a1 λ + a0 = 0.
34
2 Equazioni alle differenze lineari
Vedremo che tutte le soluzioni di (2.6) possono essere ottenute a partire da queste. Queste considerazioni giustificano le seguenti definizioni. Definizione 2.14. Si dice polinomio caratteristico, indicato con P (λ), associato all’equazione omogenea (2.6) il seguente polinomio di grado n nella variabile λ: P (λ) = λn + an−1 λn−1 + · · · + a1 λ + a0 L’equazione λ∈C:
P (λ) = 0
(2.7)
si dice equazione caratteristica associata all’equazione omogenea. Per il Teorema fondamentale dell’Algebra, l’equazione (2.7) ha esattamente n soluzioni nel campo complesso: λ1 , . . . , λn (ciascuna di esse si intende contata con la sua molteplicit` a). Anche se le costanti a0 , a1 , . . . , an−1 sono tutte reali una o pi` u radici λj possono essere complesse. Teorema 2.15. L’equazione (2.6) ammette infinite soluzioni. Fra tali soluzioni se ne possono determinare n linearmente indipendenti; inoltre l’insieme delle soluzioni della (2.6) `e un sottospazio di dimensione n dello spazio delle successioni. Se λ `e una soluzione semplice (cio`e di molteplicit` a 1) dell’equazione caratteristica (2.7), ad essa `e associata una soluzione dell’equazione alle differenze della forma Fk = λk
Se λ `e una soluzione dell’equazione caratteristica di molteplicit` a m, ad essa sono associate le m soluzioni linearmente indipendenti
Fk0 = λk , Fk1 = kλk , Fk2 = k 2 λk , . . . Fkm−1 = k m−1 λk
(2.8)
Tutte le soluzioni dell’equazione alle differenze (2.6) sono combinazioni lineari di tali soluzioni.
2.2 Equazioni lineari ad n passi a coefficienti costanti
35
Nel caso in cui i coefficienti aj dell’equazione (2.6) sono tutti reali, i risultati contenuti nel Teorema 2.15 possono essere ulteriormente precisati: in particolare ha interesse scrivere le soluzioni di (2.6) in forma reale anche se alcune radici del polinomio caratteristico sono complesse. Pi` u precisamente: se a0 , a1 , . . . , an−1 sono reali e λ = a + ib `e soluzione della (2.7), con a e b reali e b diverso da 0, allora anche λ = a−ib `e soluzione e a tale coppia di soluzioni sono associate le due soluzioni linearmente indipendenti in forma reale Fk = ρk cos (θk)
Gk = ρk sin (θk)
dove ρ `e il modulo e θ `e l’argomento di a + ib: ρ=
a2 + b 2
a cos θ = √ 2 a + b2
b sin θ = √ . 2 a + b2
L’affermazione precedente si ottiene scrivendo in forma reale l’espressione seguente: k k c1 (a + ib) + c2 (a − ib) a, b ∈ R. Precisamente, se a + ib = ρ (cos θ + i sin θ) , allora: k
k
(a + ib) = ρk (cos θ + i sin θ) = = ρk (cos (θk) + i sin (θk)) .
per la formula di De Moivre
k
Procedendo allo stesso modo su (a − ib) , si pu` o concludere che per ogni scelta di c1 e c2 esistono due costanti c1 e c2 dipendenti da c1 , c2 e k, tali che c1 (a + ib)k + c2 (a − ib)k = c1 ρk cos (θk) + c2 ρk sin (θk) . ! Si noti che, grazie alla formula di De Moivre, le due successioni ρk cos (θk) ! e ρk sin (θk) generano, mediante combinazioni lineari a coefficienti in C, lo stesso spazio bidimensionale di"successioni a valori complessi generato dalle # ! k k combinazioni lineari di λ e λ . Analogamente, se λ = a + ib `e una soluzione complessa della (2.7) di molteplicit` a m ed a0 , a1 . . . , an−1 sono reali, allora ad essa e alla soluzione λ = a − ib , pure di molteplicit` a m, sono associate le 2m soluzioni linearmente indipendenti
Fk0 = ρk cos (θk) , Fk1 = kρk cos (θk) , . . . , Fkm−1 = k m−1 ρk cos (θk) G0k = ρk sin (θk) , G1k = kρk sin (θk) , . . . , Gm−1 = k m−1 ρk sin (θk) k
36
2 Equazioni alle differenze lineari
Prova. (del Teorema 2.15 ) Ad ogni n-upla di dati iniziali X0 , X1 , . . . , Xn−1 corrisponde una ed una sola soluzione che si costruisce calcolando iterativamente i valori Xk . Poich´e ogni n-upla di dati iniziali si ottiene come combinazione lineare delle n scelte di dati iniziali fra loro linearmente indipendenti 1, 0, 0, . . . 0, 1, 0, . . . 0, 0, 1, . . . ... 0, 0, 0, . . .
0, 0 0, 0 0, 0 0, 1
e, per il principio di sovrapposizione delle soluzioni, le combinazioni lineari di soluzioni di (2.6) sono soluzioni, concludiamo che l’insieme di tutte le soluzioni ` e un sottospazio di dimensione n dello spazio delle successioni. Si osservi che nessuna radice di P `e nulla perch´e a0 = 0. Dunque tutte le n successioni elencate nelle cornici sono non banali. Resta da provare che sono soluzioni e che sono tra loro linearmente indipendenti. Sia λ una soluzione dell’equazione P (λ) = 0. Allora, sostituendo λk al posto di Xk nel primo membro dell’equazione (2.6) si ottiene λk+n + an−1 λk+n−1 + · · · + a0 λk = λk P (λ) che `e nullo per ipotesi. Dunque, Xk = λk `e una soluzione. Osserviamo che se μ `e radice di molteplicit` a m > 1 dell’equazione P (λ) = 0, allora1 P (μ) = P (μ) = · · · = P (m−1) (μ) = 0 .
(2.9)
Sia μ una soluzione di molteplicit` a 2 dell’equazione caratteristica. Allora, sostituendo kλk al posto di Xk nel primo membro della (2.6), si ottiene (k + n) λk+n +(k + n − 1) an−1 λk+n−1 +· · ·+a0 kλk = kλk P (λ)+λk+1 P (λ) (2.10) dato che
P (λ) = nλn−1 + (n − 1) an−1 λn−2 + · · · + 2a2 λ + a1 .
Poich´e, per la (2.9), P (μ) = P (μ) = 0, dalla (2.10) segue che kμk `e soluzione di (2.6). Sia ora μ radice di molteplicit` a m ≥ 2 dell’equazione caratteristica. Fissato n, poniamo an = 1, e per 1 ≤ h ≤ m definiamo Qh,k (λ) = (k + n)h−1 λk+n + (k + n − 1)h−1 an−1 λk+n−1 + · · · + kh−1 a0 λk = n
(k + s)h−1 as λk+s . = s=0
Qh,k (λ) `e il polinomio nella variabile λ di grado minore o uguale a k + n che si ottiene sostituendo kh−1 λk al posto di Xk nel primo membro della (2.6). 1
Infatti, se μ `e radice di molteplicit` a h dell’equazione P (λ) = 0, si pu` o scrivere: P (λ) = (λ − μ)h Q (λ)
con Q polinomio di grado n − h in λ, e derivando si ottiene la (2.9).
2.2 Equazioni lineari ad n passi a coefficienti costanti
37
Se Qh,k `e esprimibile come combinazione lineare a coefficienti polinomi in λ di P e delle sue derivate successive fino all’ordine h − 1 (si noti che la (2.10) ci dice che ci` o `e vero se m = 2), cio`e se Qh,k (λ) =
h−1
cj (λ) P (j) (λ)
(2.11)
j=0
allora da (2.9) segue Qh,k (μ) = 0, dunque km−1 λk `e una soluzione di (2.6). Proviamo la (2.11). Dobbiamo mostrare che, fissato n, se vale (2.9) per m ≥ 2 e μ ∈ C, allora Qh,k (μ) = 0
∀k ∈ N ∀h ≤ m.
Ragioniamo sull’indice h in modo analogo all’induzione. Poich´e μ `e radice di P Q1,k (μ) = P (μ) = 0
∀k ∈ N.
Rimane da provare che, nell’ipotesi (2.9), se per un intero h < m e per ogni k il polinomio Qh,k (λ) `e una combinazione lineare (a coefficienti polinomi in λ) di P, P , . . . , P (h−1) e dunque ∀k ∈ N
Qh,k (μ) = 0
allora, per ogni k, Qh+1,k `e una combinazione lineare (a coefficienti polinomi in λ) di P, P , . . . , P (h) e dunque Qh+1,k (μ) = 0
∀k ∈ N.
Dalla catena di uguaglianze: Qh+1,k (λ) =
n
(k + s)h as λk+s =
s=0
=
n
n
(k + s)h−1 as (k + s) λk+s =
s=0
(k + s)h−1 as λ
s=0
n d d k+s λ =λ (k + s)h−1 as λk+s = dλ dλ s=0
d Qh,k (λ) = dλ h−1
cj (λ) P (j+1) (λ) + cj (λ) P (j) (λ) =λ
=λ
j=0
nuovamente per la (2.9) segue che Qh+1,k (μ) = 0. Rimane da provare l’indipendenza lineare delle soluzioni trovate. a provare l’indipendenza lineare dei Nel caso di n radici distinte μ1 , . . . , μn baster` primi n valori delle successioni, cio`e ⎤ ⎡ 1 μ1 μ21 . . . μn−1 1 n−1 2 ⎢ 1 μ2 μ2 . . . μ2 ⎥ ⎢ ⎥ det ⎢ . . . . . ⎥ = 0 ⎣ .. .. .. . . .. ⎦ 1 μn μ2n . . . μn−1 n
38
2 Equazioni alle differenze lineari
disuguaglianza vera se μj sono distinti perch´e tale determinante (determinante di Vandermonde2 ) vale (μn − μn−1 ) (μn − μn−2 ) · · · (μn − μ1 ) (μn−1 − μn−2 ) · · · (μn−1 − μ1 ) · · · (μ2 − μ1 ) . Se μ `e radice di molteplicit` a m nell’equazione caratteristica e c1 , c2 , . . . , cm sono costanti reali tali che c1 μk + c2 kμk + c3 k2 μk + · · · + cm km−1 μk = 0
k∈N
allora deve anche valere c1 + c2 k + c3 k2 + · · · + cm km−1 = 0
k∈N
e dal principio di identit` a dei polinomi segue c1 = c2 = · · · = cm = 0. Omettiamo i dettagli nel caso in cui siano contemporaneamente presenti radici semplici e multiple.
Riassumendo, il Teorema 2.15 consente di costruire n soluzioni linearmente indipendenti: infatti, le radici (contate con la loro molteplicit` a) del polinomio caratteristico di un’equazione alle differenze di ordine n sono esattamente n, grazie al Teorema fondamentale dell’Algebra. Tutte le soluzioni dell’equazione (2.6) sono combinazioni lineari delle n soluzioni linearmente indipendenti elencate nelle cornici del Teorema 2.15. Una tale combinazione `e detta soluzione generale di (2.6) perch´e al variare dei coefficienti si ottengono tutte le soluzioni. Precisamente, per ogni scelta dei dati iniziali X0 , X1 , . . . , Xn−1 si determina un’unica scelta di tali coefficienti e di conseguenza un’unica soluzione. Esempio 2.16. All’equazione alle differenze Xk+3 − 4Xk+2 + 5Xk+1 − 2Xk = 0 si associa l’equazione caratteristica λ3 − 4λ2 − 5λ − 2 = 0 che si fattorizza in 2
(λ − 1) (λ − 2) = 0. Dunque, abbiamo la radice semplice 2 e la radice doppia 1. La soluzione generale dell’equazione alle differenze `e Xk = c1 2k + c2 + c3 k
k∈N
dove c1 , c2 e c3 sono costanti arbitrarie. Se all’equazione alle differenze si aggiungono le condizioni iniziali X0 = 0, X1 = 1 e X2 = 0, per sostituzione, si ottiene il sistema: ⎧ ⎧ ⎨ c1 = −2 ⎨ c1 + c2 = 0 2c1 + c2 + c3 = 1 c2 = 2 equivalente a ⎩ ⎩ 4c1 + c2 + 2c3 = 0 c3 = 3 da cui Xk = −2k+1 + 3k + 2. 2
Alexandre-Th´eophile Vandermonde, 1735-1796.
2.2 Equazioni lineari ad n passi a coefficienti costanti
Esempio 2.17. L’equazione
Ck+1 = Ck + Ck−1 C0 = 0, C1 = 1
39
k ∈ N\ {0}
che descrive ricorsivamente i numeri di Fibonacci (si veda l’Esempio 1.10) `e lineare, a coefficienti costanti, del secondo ordine. Il polinomio caratteristico λ2 − λ − 1 ammette le radici √ √ 1+ 5 1− 5 λ1 = λ2 = ; 2 2 k
k
dunque, la soluzione generale `e data da Ck = c1 (λ1 ) + c2 (λ2 ) . Inoltre √ √ 1+ 5 1− 5 C0 = c1 + c2 = 0, C 1 = c1 + c2 =1 2 2 √ √ da cui segue c1 = +1/ 5, c2 = −1/ 5. Riassumendo:
1 Ck = √ 5
$
$ √ %k √ %k 1+ 5 1− 5 1 − √ 2 2 5
k∈N
1 − √5 |λ1 | = 0. Esercizio 2.35. (Rovina del giocatore) Un giocatore effettua una successione di puntate di valore fissato (ad esempio, una moneta da un Euro), ogni puntata ha una probabilit` a p ∈ [0, 1] di vittoria (p `e noto e indipendente dalla puntata). Se il giocatore inizia con k monete e il gioco si interrompe quando il giocatore perde tutte le monete o riesce ad averne s (dove s `e noto e 0 ≤ k ≤ s), si calcoli la probabilit` a Xk che il giocatore perda tutte le monete cominciando con k monete, essendosi prefissato l’obiettivo di arrivare ad avere s monete. Esercizio 2.36. Esplicitare i coefficienti dello sviluppo delle soluzioni particolari individuate nell’Esercizio 1.14 per le equazioni di Bessel, Hermite, Laguerre e Legendre. Esercizio 2.37. Consideriamo una operazione finanziaria che prevede k pagamenti di importo costante (unitario) a k scadenze annuali (cominciando alla fine del primo anno). Calcolare il valore attuale Ak dell’operazione finanziaria, cio`e l’importo equivalente di un pagamento immediato, nelle ipotesi di tasso annuo di interesse composto e costante uguale ad r. Scrivere una relazione ricorsiva che lega Ak+1 e Ak , determinandone la soluzione in forma chiusa. Rispondere alle domande precedenti nel caso di tasso rk dipendente da k. Esercizio 2.38. Viene erogato un mutuo di importo M che sar` a estinto in k rate costanti. Ipotizzando che il tasso annuo di interesse r sia composto e costante, ed i pagamenti effettuati ai tempi 1, 2, . . . , k, calcolare l’importo Q di ciascuna rata. Esercizio 2.39. Un’obbligazione di tipo reverse-floater fornisce cedole che variano nel tempo secondo una formula prefissata all’atto dell’emissione, ma dipendente da parametri legati all’andamento di indici economici. Consideriamo ad esempio un’obbligazione della durata di 10 anni che fornisce una cedola del 6, 5% (annuo) per i primi due anni ed in seguito un interesse percentuale pari a rk = massimo fra {1, 5 e 15 − 2τk } dove τk `e l’indice Euribor a 12 mesi. a) Determinare il massimo e il minimo tasso d’interesse cedolare annuo conseguibile in ciascun anno. b) L’obbligazione considerata ha una elevata componente di rischio/possibilit` a di
2.9 Esercizi di riepilogo
85
guadagno, non inferiore a quella di un titolo azionario. In particolare, il prezzo dela soggetto a notevoli fluttuazioni. Per l’obbligazione sul mercato secondario16 sar` o essere rivenduta l’obillustrare questa situazione si valuti il prezzo Pk al quale pu` bligazione nell’anno k ad un acquirente che si attenda un flusso cedolare non inferiore a τk e ipotizzi che non vi siano variazioni dell’indice Euribor fino a scadenza. c) Sulla base dell’ipotesi del punto precedente, valutare il saldo dell’operazione ipotizzando di vendere l’obbligazione nell’anno k (senza aver nel frattempo reinvestito le cedole riscosse). d) Se l’indice Euribor assume i valori 5 5, 1 5, 2 4, 9 4 3 2, 5 2, 6 4 7, 5 nei vari anni di vita del titolo, qual `e il saldo dell’operazione se si vende il titolo a scadenza? Esercizio 2.40. Dimostrare il Teorema 2.46 sulla Z-trasformata della convoluzione discreta. Esercizio 2.41. Posto Sk = 1k + 2k + 3k + · · · + nk , mostrare che vale la relazione ! " 1 k k+2 k+2 Sk+1 = − (n + 1) − (n + 1) Sk − · · · − S1 . k+2 2 k+1 Esercizio 2.42. Nella prova del Teorema 2.15 si sfrutta la conoscenza del determinante di Vandermonde. Verificare la correttezza dell’espressione utilizzata. Esercizio 2.43. Calcolare la Z-trasformata della successione Xk =
1 . k!
Figura 2.15 Sbarra appoggiata a supporti equidistanti e caricata agli estremi
Esercizio 2.44. (Sbarra elastica sostenuta da supporti) Consideriamo una sbarra metallica di materiale omogeneo e sezione uniforme appoggiata a N − 1 supporti equidistanziati (Figura 2.15) e soggetta a carichi W agli estremi. In assenza di altri carichi, si pu` o mostrare che i momenti flettenti in corrispondenza dei supporti verificano l’equazione a due passi, detta equazione dei tre momenti (si veda l’Esempio 1.22), Mk−1 + 4Mk + Mk+1 = 0
1≤k ≤N −1
e che i momenti flettenti agli estremi della sbarra sono dati da 16
Nel mercato secondario vengono scambiati titoli obbligazionari prima della loro scadenza.
86
2 Equazioni alle differenze lineari M0 = MN = −W d .
Determinare i momenti flettenti in corrispondenza dei supporti (si noti che anzich´ e due condizioni iniziali, abbiamo una condizione iniziale ed una condizione finale, dette anche condizioni al bordo). $T # e Y = Esercizio 2.45. Siano assegnati due vettori X = X0 X1 · · · XN −1 $T # e due successioni X e Y i cui primi N termini coincidono Y0 Y1 · · · YN −1 rispettivamente con le componenti di X e Y e Xk = Yk = 0 se k ≥ N . Provare che (X ∗ Y )k = 0 se k > 2N − 2 e (X ∗ Y)k = (X ∗ Y )k + (X ∗ Y )k+N
k = 0, 1, . . . , N − 1 .
3 Sistemi dinamici discreti: equazioni scalari ad un passo
In questo capitolo affrontiamo lo studio di alcuni problemi non lineari. I modelli di cui ci occuperemo descrivono l’evoluzione di fenomeni a passi discreti corrispondenti ad intervalli temporali di lunghezza prescritta (eventualmente variabile). Per questo motivo essi vengono chiamati sistemi dinamici discreti. ` utile studiare tali modelli lasciando indeterminata la condizione iniziale, E perch´e spesso essa `e conosciuta solo con un certo grado di approssimazione, e comunque ha interesse conoscere il comportamento qualitativo di tutte le traiettorie per sapere se esse presentano o meno certe caratteristiche di struttura. A differenza del caso lineare, non si sanno esplicitare le soluzioni, salvo casi ` comunque utile il raffronto locale con s.d.d. lineari “vicini” (meparticolari. E todo di linearizzazione) per ottenere condizioni esplicite sul comportamento delle traiettorie. Data la complessit` a del problema, consideriamo qui solo sistemi dinamici discreti scalari, autonomi e ad un passo temporale.
3.1 Definizioni preliminari Un sistema dinamico discreto, brevemente s.d.d., `e la formalizzazione di un fenomeno evolutivo completamente descritto da una funzione la cui immagine `e contenuta nel dominio: a partire da ogni stato iniziale ammissibile, si genera una successione di stati mediante la ripetizione iterativa della trasformazione indotta dalla funzione assegnata. Vediamo una definizione formale di sistema dinamico discreto che comprende i casi di cui ci occuperemo. Definizione 3.1. Siano I un intervallo contenuto in R contenente almeno due punti distinti, ed f : I → I una funzione continua. La coppia {I, f} viene detta sistema dinamico discreto su I, del primo ordine, autonomo, in forma normale. Salinelli E , Tomarelli F : Modelli dinamici discreti, 2a edizione. c Springer-Verlag Italia 2009, Milano
88
3 Sistemi dinamici discreti: equazioni scalari ad un passo
In tutto il capitolo si studiano solo tali sistemi, per brevit` a ci si riferisce ad essi come sistemi dinamici discreti o s.d.d., sottintendendo il resto. Osservazione 3.2. Si noti che, assegnati un s.d.d. {I, f} ed un valore iniziale X0 ∈ I, `e univocamente determinata una successione {Xk } definita per ricorrenza da Xk+1 = f (Xk ) k∈N per cui risulta X1 = f (X0 ) X2 X3 ... Xk
= = = =
f (X1 ) = f (f (X0 )) f (X2 ) = f (f (f (X0 ))) ... f (Xk−1 ) = f (f (. . . (f (X0 )))) = f ◦ f ◦ · · · ◦ f (X0 ) k volte
dove tutte le valutazioni di f sono ben definite perch´e f (I) ⊆ I. Viceversa, in molti casi le successioni definite per ricorrenza si possono interpretare come successioni generate da un s.d.d. in corrispondenza ad un particolare valore iniziale. Esempio 3.3. Consideriamo alcuni esempi di s.d.d. {I, f} a fianco dei quali abbiamo indicato la corrispondente legge ricorsiva: f (x) =
1 x 2
1 Xk 2
I = [0, 1]
Xk+1 =
f (x) = 5x
I=R
Xk+1 = 5Xk
f (x) = 3x + 2
I=R
Xk+1 = 3Xk + 2
I = (0, +∞)
Xk+1 =
f (x) =
x 1+x
Xk 1 + Xk
Per denotare la iterata k-esima di f adotteremo la seguente notazione f 0 = identit` a fk = f ◦ f ◦ · · · ◦ f k volte
Dunque, tornando al s.d.d. {I, f}, risulta Xk = f k (X0 ), ∀k ∈ N. Osservazione 3.4. Il lettore `e probabilmente abituato ad utilizzare la notazione (comoda, ma formalmente scorretta) che omette le parentesi per denotare il prodotto per s`e stesso del valore di una funzione: ad esempio, sin2 x
3.1 Definizioni preliminari
89
2
anzich´e (sin x) . Tale consuetudine andrebbe tuttavia limitata ai soli casi in cui non pu` o creare equivoco con la composizione ed evitata nei casi, come il nostro, in cui sin2 x deve, pi` u correttamente, indicare sin (sin x) . Definizione 3.5. Un s.d.d. {I, f} si dice lineare se f `e lineare; (lineare) affine se f `e (lineare) affine; non lineare se f non `e lineare affine. Esempio 3.6. Con riferimento all’Esempio 3.3, i primi due s.d.d. sono lineari, il terzo `e lineare affine, il quarto `e non lineare. Sottolineiamo esplicitamente che (salvo casi molto particolari di cui vedremo solo pochi esempi) non si sanno determinare espressioni esplicite per i s.d.d. non lineari, cio`e non si riesce a calcolare Xk come funzione nota di k ed X0 . Pertanto diventa assai importante lo studio qualitativo dell’andamento delle successioni che soddisfano la relazione ricorsiva, del loro comportamento asintotico e della dipendenza di tale comportamento dai dati iniziali. Definizione 3.7. Assegnati un s.d.d. {I, f} ed un valore X0 ∈ I, la successione ! {X0 , X1 , . . . , Xk , . . . } = X0 , f (X0 ) , f 2 (X0 ) , . . . , f k (X0 ) , . . . si dice traiettoria (o orbita), indicata con γ (I, f, X0 ), del s.d.d. corrispondente al valore iniziale X0 . Definizione 3.8. L’insieme di tutte le orbite o traiettorie di un s.d.d. {I, f} al variare di X0 ∈ I si dice quadro delle fasi (o quadro delle traiettorie). ` spesso utile una visualizzazione grafica del quadro delle fasi, in cui si eviE denziano mediante frecce i successivi cambi di posizione dovuti alla iterazione della funzione che governa il s.d.d. ! Esempio 3.9. Consideriamo il s.d.d. R, x4 . Rappresentiamo R con una retta (orientata) verticale e disegnamo il quadro delle fasi. Si osservi che f (0) = 0, f (1) = 1 e f (x) > x se x > 1 , 0 < f (x) < x se 0 < x < 1 e f (x) > 0 se x < 0. Il disegno in Figura 3.1 evidenzia che tutte le traiettorie diventano non negative alla prima iterazione; inoltre, se 0 ≤ |x| < 1 la traiettoria f k (x) tende a zero, mentre se |x| > 1 la traiettoria f k (x) tende a +∞ (i valori 0 ed 1 corrispondono a traiettorie costanti). Esempio 3.10. In Figura 3.2 `e tracciato il diagramma delle fasi del sistema dinamico discreto {[−π, π] , cos x}. Esempio 3.11. Un sistema di infinite equazioni del tipo (equazione alle differenze del primo ordine) Xk+1 − Xk = g (Xk )
k∈N
(3.1)
corrisponde al s.d.d. {I, f} qualora, posto f (x) = g (x) + x, si determini un intervallo I ⊆ R tale che f (I) ⊆ I, nel senso che in tali ipotesi il quadro delle fasi del s.d.d. {I, f} `e l’insieme di tutte le soluzioni delle equazioni alle differenze (3.1) che hanno valore iniziale X0 in I.
90
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Figura 3.1
% & s.d.d. R, x4
Figura 3.2 s.d.d. {[−π, π] , cos x}
Osservazione 3.12. In molti modelli matematici discreti si incontrano funzioni f la cui immagine non `e contenuta nel dominio (ad esempio f (x) = log x), o funzioni il cui dominio non `e neppure un intervallo (ad esempio f(x) = 1/x). In tali casi ha comunque interesse studiare l’equazione alle differenze1 Xk+1 = f (Xk ) che tuttavia risulta ben posta solo per quelle scelte del valore iniziale X0 che garantiscono che f (Xk ) appartenga al dominio di f per ogni k. Definizione 3.13. Dato un s.d.d. {I, f}, un numero α ∈ R si dice equilibrio (o punto fisso o punto stazionario) per il s.d.d. se vale
α = f (α)
α∈I
Se si sceglie un dato iniziale X0 = α che `e di equilibrio, allora l’orbita corrispondente si dice orbita stazionaria: γ (I, f, α) = {α, α, α, . . .} . 1
Chiaramente equivale a Xk+1 − Xk = g (Xk ) dove g (x) = f (x) − x.
3.1 Definizioni preliminari
91
Pi` u in generale, se per un certo X0 ∈ I esiste un k tale che f k (X0 ) = α = f (α), allora la traiettoria `e definitivamente stazionaria: ! γ (I, f, X0 ) = X0 , f (X0 ) , f 2 (X0 ) , . . . , f k−1 (X0 ) , α, α, α, . . . . Osservazione 3.14. La ricerca degli equilibri di un s.d.d. {I, f} `e equivalente alla determinazione delle intersezioni nel piano di coordinate x, y della retta di equazione y = x con il grafico di f, di equazione y = f (x), con l’ulteriore richiesta di limitarsi alle intersezioni contenute nell’insieme I × I. Osservazione 3.15. Se α `e un equilibrio per il s.d.d. {I, f}, allora α `e un ! equilibrio anche per il s.d.d. I, f k per ogni k ∈ N . Definizione 3.16. Sia {I, f} un s.d.d.. Un ciclo di ordine s (o orbita periodica di (minimo) periodo s , o s ciclo) `e un insieme di s valori in I, {α0 , α1 , . . . , αs−1 } diversi tra loro e verificanti α1 = f (α0 ) ,
α2 = f (α1 ) ,
...,
αs−1 = f (αs−2) ,
α0 = f (αs−1 )
s prende il nome di periodo dell’orbita (o ordine del ciclo). Se α0 `e come nella Definizione 3.16, allora la traiettoria γ (I, f, α0 ) ha andamento s periodico: γ (I, f, α0 ) = {α0 , α1 , α2 , . . . , αs−1 , α0 , α1 , α2 , . . . , αs−1 , α0 , . . . } . Le eventuali orbite periodiche di periodo s di un s.d.d. {I, f} si determinano come le traiettorie i cui valori appartengono all’insieme delle soluzioni dell’es quazione {x ∈ I : f ! (x) = x}, privato delle soluzioni di tutte le s−1 equazioni h x ∈ I : f (x) = x , h = 1, 2, . . ., s − 1 (si veda l’Osservazione 3.15). Esempio 3.17. Il s.d.d. lineare {R, −x} presenta un solo equilibrio (α = 0) ed infinite orbite periodiche di periodo due: {X0 , −X0 } (si veda la Figura 2.2). Esempio 3.18. Il s.d.d. non lineare {(0, +∞) , 1/x} presenta un! solo equilibrio (α = 1) ed infinite orbite periodiche di periodo 2 : X0 , X0−1 (si veda la Figura 3.3). ! 2 Esempio 3.19. Il s.d.d. [0, 1] , 4 x − x presenta ! due equilibri, 0 e 3/4, 2 che sono le soluzioni di x ∈ [0, 1] : 4 x − x = x , ed una sola orbita 2 pe√ √ ! riodica 5 − 5 /8, 5 + 5 /8 ottenuta risolvendo " # 2 x ∈ [0, 1] : 4 4 x − x2 − 16 x − x2 =x (3.2) ed eliminando i valori 0 e 3/4. Si noti che l’equazione di quarto grado (3.2) non `e di risoluzione immediata; tuttavia si possono raccogliere i termini x e (x − 3/4) riducendola ad una equazione di secondo grado. Questo `e un fatto generale, perch´e se f (α) = α allora f k (α) = α, ∀k ∈ N.
92
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Figura 3.3 Equilibrio e orbite periodiche di {(0, +∞) , 1/x}
Un’orbita X di un s.d.d. si dice definitivamente periodica se esistono h ∈ N ed {α0 , α1 , . . . , αs−1} diversi tra loro e verificanti Xh = α0 , Xh+1 = α1 , . . . , Xh+s = α0 . Ad esempio la funzione continua ⎧ x < −1 ⎨ x+2 −x −1≤x≤1 f(x) = ⎩ x−2 x>1 genera la traiettoria definitivamente 2 periodica X : X0 = 5, X1 = 3, X2 = 1, X3 = −1, X4 = 1 . . . . Il seguente teorema fornisce una condizione sufficiente per l’esistenza di punti fissi. Teorema 3.20. Sia I = [a, b] un intervallo chiuso e limitato, contenuto in R e f : I → I una funzione continua. Allora esiste α ∈ I tale che α = f (α). Prova. La funzione g (x) = x − f (x) `e continua in I, in quanto differenza di funzioni continue, e g (a) = a − f (a) ≤ 0 ≤ b − f (b) = g (b) . Dunque, o g si annulla in a, o g si annulla in b, oppure, se non si annulla negli estremi allora, per il teorema di esistenza degli zeri, g deve annullarsi all’interno dell’intervallo [a, b].
3.1 Definizioni preliminari
93
b
a
a
b
Figura 3.4 Grafico di una funzione verificante le ipotesi del Teorema 3.20
Corollario 3.21. Se {I, f} `e un s.d.d. ed I `e un intervallo chiuso e limitato, allora esiste un equilibrio. Se I non `e limitato oppure se I `e aperto, allora vengono meno la tesi del Teorema 3.20 e del Corollario 3.21, come illustrato dai seguenti esempi: I=R
f (x) = x + ex
I = (0, 1)
f (x) = x2 .
Comunque vale il risultato seguente. Teorema 3.22. Sia A un qualunque sottoinsieme non vuoto di R, f : A → A una funzione continua, X0 ∈ A ed Xk+1 = f (Xk ), k ∈ N. Se esiste finito L = lim Xk ed L ∈ A , allora L `e un punto fisso di f, cio`e L = f (L). k
Prova. Se Xk → L ∈ A, si ha Xk+1 → L. Cos`ı: L = lim Xk = lim Xk+1 = k
perch´ e Xk+1 =f (Xk )
k
perch´ ef ` e continua
= lim f (Xk ) = k = f lim Xk = k
= f (L) .
Il Teorema 3.22 ci permette di applicare la seguente strategia per lo studio del comportamento asintotico di un s.d.d. {I, f}:
94
3 Sistemi dinamici discreti: equazioni scalari ad un passo
se la funzione f `e continua, si ricercano le eventuali soluzioni reali dell’equazione {L ∈ I : f (L) = L} Fra queste si trovano gli eventuali limiti finiti di Xk+1 = f (Xk ) al variare di X0 in I. Considerazioni di tipo monotonia consentono di stabilire l’esistenza o meno di soluzioni divergenti nei casi in cui I `e illimitato. Esempio 3.23. Consideriamo il s.d.d. {I, f} dove I = [−2, +∞) ed f (x) = √ x + 2. Allora la funzione f `e continua e ricordando che una radice aritmetica `e una quantit` a non negativa
√ L≥0 L+2= L ⇒ ⇒ L = 2. L + 2 = L2 Per il Teorema 3.22, l’eventuale limite finito `e l’equilibrio α = 2. Inoltre, limk Xk = +∞ `e da escludersi perch´e Xk ≤ 2 o Xk > 2 implicano rispettivamente Xk+1 ≤ 2 o Xk+1 < Xk . L’aver individuato i possibili comportamenti asintotici di un s.d.d. non basta se non si affianca a tale risultato l’informazione che la successione indotta {Xk } ammette limite; a tale scopo risulta utile il teorema di esistenza del limite per successioni monot` one2: una successione reale monot` ona crescente (decrescente) ammette sempre limite; tale limite `e finito se e solo se la successione `e limitata, `e +∞ ( −∞) se e solo se la successione `e illimitata. Spesso `e comodo ricorrere al principio di induzione per provare la monotonia di una soluzione Xk nei casi concreti. Esempio 3.24. Consideriamo la successione Xk+1 = Xk2 con X0 = λ ∈ (0, 1) e mostriamo, per induzione, che `e strettamente decrescente. Da λ ∈ (0, 1) segue X1 = λ2 < λ = X0 < 1. Inoltre, se 0 < Xk < Xk−1 allora 2 0 < Xk2 < Xk−1 cio`e Xk+1 < Xk . Dunque Xk `e strettamente decrescente. Notiamo che, essendo la successione inferiormente limitata da 0, da quanto appena dimostrato e dal Teorema 3.22 segue limk Xk = 0. Esercizio 3.1. Tracciare i diagrammi di fase dei seguenti s.d.d. {I, f }: 1) I = R, f (x) = arctan x 2
2) I = (0, +∞) , f (x) =
1 . x
Ricordiamo che una successione X si dice monot` ona crescente (rispettivamente decrescente) se Xk+1 ≥ Xk (rispettivamente Xk+1 ≤ Xk ) per ogni k. La monotonia si dice stretta quando tutte le disuguaglianze sono strette.
3.2 Ancora sull’analisi grafica
95
Esercizio 3.2. Determinare graficamente i punti fissi di {R, ex − 1}. Esercizio 3.3. Determinare le orbite 3 periodiche di {[0, 1] , 1 − 2 |x − 1/2|}. Esercizio 3.4. Studiare la monotonia, al variare di λ in [−2, +∞), della successione √ Xk+1 = Xk + 2 (3.3) X0 = λ
3.2 Ancora sull’analisi grafica ` di grande utilit` E a nello studio dei s.d.d. l’uso del metodo grafico gi` a introdotto nel paragrafo 1.4 nel caso particolare di una funzione f lineare affine. Ovviamente l’approccio grafico si pu` o applicare con qualunque funzione f, anche non lineare. L’efficacia di tale metodo non dipende solo dall’aiuto che d` a alla previsione visiva delle traiettorie ma al fatto che corrisponde ad un semplice algoritmo la cui iterazione pu` o essere delegata a procedure di calcolo automatico: ad esempio, se {I, f} `e il s.d.d. ed X0 il dato iniziale, allora un programma per calcolare con un computer le prime 100 iterazioni esegue le istruzioni seguenti
Algoritmo per l’analisi grafica (1) (2) (3) (4) (5) (6)
k=0 x = X0 y = f (x) x=y k=k+1 se k = 100 stop, se k < 100 torna a (3)
L’istruzione (6) interrompe ad un certo valore di k le iterazioni, altrimenti il ciclo non avrebbe termine. Se si `e interessati ai valori Xk basta inserire una istruzione (3’) tra (3) e (4):
(3’) stampa k e x
ottenendo in tal modo una tabella della traiettoria: k
0
1
2 ... k ...
valori successione X0 X1 X2 . . . Xk . . .
96
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Per riportare pi` u passi con maggior chiarezza nella rappresentazione grafica conviene omettere i segmenti verticali di estremi (Xk , 0) e (Xk , Xk ) ed i segmenti orizzontali di estremi (0, Xk+1 ) e (Xk , Xk+1 ) ottenendo delle spezzate che spesso sono chiamate ragnatele.
Figura 3.5
Ragnatela di {R, ex }, X0 = −2
Figura 3.7
% & Ragnatela di R, e−x , X0 = −1
Figura 3.6 Traiettoria
Figura 3.8 Traiettoria
Esercizio 3.5. Si affronti lo studio del s.d.d. dell’Esempio 3.23 con il metodo grafico: si noti come sia molto pi` u facile congetturare e provare le corrette propriet` a di monotonia. Inoltre i grafici suggeriscono una strategia di prova molto semplice: se ona e limitata. . . . −2 ≤ x ≤ 2, allora x < f (x) < 2 , dunque Xk `e monot`
3.3 Comportamento asintotico in ipotesi di monotonia Dato un s.d.d. {I, f}, lo studio della monotonia delle successioni indotte pu` o non risultare immediato. Pi` u semplice appare lo studio della monotonia della
3.3 Comportamento asintotico in ipotesi di monotonia
97
funzione f , studio dal quale si possono ricavare, con i risultati del paragrafo precedente, alcune informazioni sull’andamento asintotico delle traiettorie. Riassumiamo queste considerazioni in un paio di flow-chart (riportati nel seguito e denominati Algoritmo I e Algoritmo II) che descrivono un algoritmo pratico per lo studio qualitativo delle traiettorie di {R, f} quando f `e monot` ona, senza ulteriori ipotesi o informazioni sulla sua derivabilit` a. La dimostrazione `e lasciata come esercizio. I simboli e denotano rispettivamente monotonia crescente e decrescente. A proposito dell’Algoritmo II, si noti che se f `e decrescente allora f 2 `e crescente, pertanto per la dimostrazione si pu` o applicare il primo schema separatamente alle successioni dei termini di indice pari e di indice dispari.
Algoritmo I Sia f : R → R una funzione continua e crescente. Allora assegnato X0 ∈ R calcolare X1 = f (X0 ) se X1 = X0 , allora Xk = X0 per ogni k ∈ N
⎧ ⎪ se esistono punti fissi di f maggiori di X0 , allora ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ Xk → α, minimo punto fisso maggiore di X0 se X1 > X0
⎪ ⎪ ⎪ se non esistono punti fissi di f maggiori ⎪ ⎪ ⎪ ⎩ di X0 , allora Xk +∞
⎧ ⎪ se esistono punti fissi di f minori di X0 , allora ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ Xk → β, massimo punto fisso minore di X0 se X1 < X0
⎪ ⎪ ⎪ se non esistono punti fissi di f minori ⎪ ⎪ ⎪ ⎩ di X0 , allora Xk −∞
98
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Algoritmo II Sia f : R → R una funzione continua e decrescente. Allora assegnato X0 ∈ R calcolare X1 = f (X0 ) se X1 = X0 allora Xk = X0 per ogni k ∈ N ⎧ ⎪ se X2 = X0 , allora Xk `e 2 periodica ⎪ ⎪ ⎪ ⎪ X2k = X0 , X2k+1 = X1 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎧ ⎪ ⎪ ⎪ 2 ⎪ ⎪ se esistono punti fissi di f maggiori ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ di X0 alloraX2k α, minimo ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ 2 ⎪ ⎪ punto fisso di f maggiore di X0 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ e X2k+1 β = f (α) ⎪ ⎪ ⎪ ⎪ se X2 > X0 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ 2 ⎪ ⎪ se non esistono punti fissi di f ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ maggiori di X0 , allora ⎪ ⎨ ⎪ ⎪ ⎪ se X1 = X0 ⎪ ⎪ X2k +∞, X2k+1 f (+∞) ⎪ ⎪ ∗ ⎩ ⎪ ( ) ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎧ ⎪ ⎪ ⎪ ⎪ se esistono punti fissi di f 2 minori ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ di X0 , allora X2k β , massimo ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ punto fisso minore di X0 , ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ X α = f (β) ⎪ 2k+1 ⎪ ⎪ ⎪ se X2 < X0 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ 2 ⎪ ⎪ se non esistono punti fissi di f ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ minori di X0 , allora ⎪ ⎪ ⎪ ⎪ ⎩ ⎩ X2k −∞,X2k+1 f (−∞)
(∗)
f (+∞) = lim f (x), x→+∞
f (−∞) = lim f (x) x→−∞
Esempio 3.25. Per studiare l’andamento qualitativo delle traiettorie del s.d.d. {R, x + sin x}, osserviamo che f (x) = x + sin x `e una funzione crescente (infatti f (x) = 1 + cos x ≥ 0, ∀x ∈ R), dunque possiamo applicare l’Algoritmo I, ottenendo:
3.3 Comportamento asintotico in ipotesi di monotonia
99
Figura 3.9 Grafico di x + sin x e dell’identit` a
• se X0 = kπ, allora Xk = X0 per ogni k; • se esiste un intero k tale che 2kπ < X0 < (2k + 1)π, allora Xk (2k + 1)π; • se esiste un intero k tale che (2k + 1)π < X0 < (2k + 2)π, allora Xk (2k + 1)π . ! Esempio 3.26. Consideriamo il s.d.d. R, −x3 . La funzione f `e monot`ona decrescente in senso stretto: applichiamo l’Algoritmo II. A tal fine, se X0 ∈ R si ha X1 = f (X0 ) = −X03 e quindi X1 = X0
⇔
−X03 = X0
⇔
X0 = 0.
Cos`ı, se X0 = 0 si ricava Xk = 0 per ogni k ∈ N. Se X0 = 0 si ha X1 = X0 e a questo punto `e necessario determinare X2 : 3 X2 = f (X1 ) = f 2 (X0 ) = − −X03 = X09 .
100
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Poich´e X2 = X0
⇔
X09 = X0
⇔
X0 = 0 oppure X0 = ±1.
Possiamo cos`ı concludere: • • • • • • •
se se se se se se se
X0 < −1, allora X2k −∞ e X2k+1 +∞; k+1 ; X0 = −1, allora Xk `e 2 periodica: Xk = (−1) −1 < X0 < 0, allora X2k 0 e X2k+1 0; X0 = 0, allora Xk = 0 per ogni k; 0 < X0 < 1, allora X2k 0 e X2k+1 0; k X0 = 1, allora Xk `e 2 periodica: Xk = (−1) ; X0 > 1, allora X2k +∞ e X2k+1 −∞.
Figura 3.10 f (x) = −x3
Figura 3.11 f 2 (x) = x9
Esercizio 3.6. Assegnato X0 ∈ R , determinare in forma chiusa la traiettoria del s.d.d. dell’Esempio 3.26. Esercizio 3.7. Stabilire il comportamento asintotico del s.d.d. {R, f } con f (x) = (x + |x|) /4. Esercizio 3.8. Stabilire il comportamento asintotico del s.d.d. {[−π, π] , f } con (π − |x|) . f (x) = x + 2 Esercizio 3.9. Dimostrare le implicazioni contenute negli Algoritmi I e II. Esercizio 3.10. Risolvere l’Esercizio 3.4 utilizzando i risultati di questo paragrafo.
3.4 Teorema delle contrazioni
101
3.4 Teorema delle contrazioni In questo paragrafo, che pu` o essere saltato in una prima lettura, enunciamo un risultato di grande importanza teorica e numerica: il Teorema delle Contrazioni. Nel caso particolare dei problemi studiati in questa trattazione, esso consente di stabilire l’esistenza e l’unicit` a di punti fissi per s.d.d. {I, f} con f non necessariamente derivabile e di effettuare una approssimazione numerica di tali punti fissi. Tale approssimazione `e assai utile quando l’equazione {α ∈ I : α = f (α)} non `e risolubile in forma chiusa. Definizione 3.27. Sia I ⊆ R un intervallo. Una funzione f : I → I `e una contrazione se esiste una costante τ < 1 tale che |f (x) − f (y)| ≤ τ |x − y|
∀x, y ∈ I
Si noti che una contrazione `e sempre continua, anzi uniformemente continua. Teorema 3.28. (Teorema delle contrazioni) Sia I un intervallo chiuso di R , ed f : I → I sia una contrazione. Allora il s.d.d. {I, f} ha un unico equilibrio α . Inoltre, per ogni dato iniziale X0 ∈ I, posto Xk+1 = f (Xk ), risulta: lim Xk = α . k
Pi` u precisamente, vale la seguente stima: |Xk − α|
0, esiste una costante δ > 0 tale che |X0 − α| < δ e Xk = f k (X0 ), k ∈ N, implicano |Xk − α| < ε
∀k ∈ N.
3.5 La nozione di stabilit` a
103
Viceversa, α si dice equilibrio instabile se non `e stabile, cio`e se esiste ε0 > 0 tale che, per ogni δ > 0, si possono determinare X0 ∈ I e k > 0 tali che |X0 − α| < δ X − α > ε0 . k
La definizione precedente merita una attenta riflessione. La propriet` a di stabilit` a per un equilibrio α ha il seguente significato: il dato iniziale X0 = α produce una traiettoria costante coincidente con l’equilibrio; inoltre, un dato iniziale X0 “leggermente diverso” da α d` a luogo ad una traiettoria che, per tutti i suoi valori, “si discosta di poco” dall’equilibrio. Lo studio della stabilit` a di un equilibrio ha enorme importanza nelle applicazioni: infatti il dato iniziale non `e quasi mai noto con precisione, tuttavia `e spesso possibile stimare l’errore con cui viene determinato. Si verifichi che gli equilibri degli Esempi 3.17 e 3.18 sono stabili (il primo scegliendo δ = ε, il secondo con δ = ε/ (1 − ε), ovviamente per ε ∈ (0, 1)), mentre lo 0 `e instabile per (2x, R). Definizione 3.33. Un equilibrio α del s.d.d. {I, f} si dice equilibrio globalmente attrattivo se, per ogni X0 ∈ I, posto Xk = f k (X0 ), risulta lim Xk = α. k
Definizione 3.34. Un equilibrio α del s.d.d. {I, f} si dice equilibrio localmente attrattivo se esiste η > 0 tale che, per ogni X0 ∈ I ∩ (α − η, α + η), posto Xk = f k (X0 ), risulta lim Xk = α. k
Si osservi che gli equilibri degli Esempi 3.17 e 3.18 non sono attrattivi (neanche localmente), pur essendo entrambi stabili. Definizione 3.35. Un equilibrio α del s.d.d. {I, f} si dice equilibrio globalmente asintoticamente stabile se valgono le seguenti condizioni: 1) α `e stabile; 2) α `e globalmente attrattivo. α si dice equilibrio localmente asintoticamente stabile se `e stabile e localmente attrattivo. Osservazione 3.36. Se f `e una contrazione in I, allora dal Teorema 3.28 segue che {I, f} `e un s.d.d. con un unico equilibrio che risulta globalmente asintoticamente stabile. Esempio 3.37. Nel caso lineare, {R, f} con f (x) = ax + b, se vi `e un equilibrio attrattivo (cio`e |a| < 1) allora esso `e anche globalmente asintoticamente stabile (ed `e unico). Se f non `e lineare la questione `e pi` u delicata. Esempio 3.38. Per acquisire familiarit` a con le varie definizioni, il lettore provi che per il s.d.d. {R, f} con f (x) = x3 + x/2 , lo 0 `e un equilibrio stabile e localmente attrattivo, ma non globalmente attrattivo. Dunque 0 `e localmente asintoticamente stabile.
104
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Per comprendere la definizione successiva, `e opportuno ricordare la nozione di distanza di un punto x da un insieme chiuso C: dist (x, C) = min {|x − c| : c ∈ C} . Definizione 3.39. Un insieme A ⊂ I si dice attrattore (o pozzo, o insieme localmente attrattivo) per un s.d.d. {I, f} se valgono tutte le condizioni seguenti: 1) A `e chiuso, cio`e contiene tutti i suoi punti di accumulazione; 2) A `e invariante, cio`e f (A) = A; 3) esiste η > 0 tale che, per ogni x ∈ I che verifica dist(x, A) < η, vale lim dist f k (x) , A = 0; k
4) A `e minimale, cio`e non vi sono sottoinsiemi propri di A che verificano 1), 2) e 3). Definizione 3.40. Se A `e un attrattore per {I, f} allora l’insieme
x ∈ I : lim f k (x) ∈ A k
`e detto bacino di attrazione di A per il s.d.d. {I, f}. Esempio 3.41. Un equilibrio localmente attrattivo `e un attrattore. Esempio 3.42. Il s.d.d. {R, f} con f (x) = x e1−x ha due equilibri: 0 e +1 . L’equilibrio 0 `e instabile e non `e attrattivo, +1 `e localmente asintoticamente stabile, l’intervallo [0, +1] `e un insieme invariante ma non `e un attrattore (non verifica la 4) ). Osservazione 3.43. Assegnato un s.d.d. {I, f}, l’insieme 1 f k (I) T = k≥1
`e sempre invariante, cio`e f (T ) = T . Infatti, se si tiene conto delle inclusioni f k+1 (I) ⊆ f k (I) , si ottiene: ⎛ ⎞ ⎛ ⎞ 1 1 1 1 T = f k (I) = f f k (I) = f ⎝ f k (I)⎠ = f ⎝ f k (I)⎠ = f (T ) . k≥1
k≥2
k≥2
k≥1
6
Spesso, ma non sempre, l’insieme T = k≥1 f k (I) `e un attrattore o, perlomeno, l’unione di pi` u attrattori di {I, f}. Questo dipende dal fatto che, per ogni 6k X0 ∈ I, le iterate f k (X0 ) approssimano T nel senso che f k (X0 ) ∈ j=1 f j (I) e dalle inclusioni f k+1 (I) ⊆ f k (I) segue che lim f k (X0 ) appartiene alla k
chiusura di T .
3.5 La nozione di stabilit` a
105
Definizione 3.44. Un’orbita periodica {α0 , α1, . . . , αs−1}, di minimo periodo s, si dice orbita stabile per un s.d.d. {I, f} se i punti α0 , α1, . . . , αs−1 sono equilibri stabili per f s . Definizione 3.45. (equivalente alla precedente) Un’orbita periodica {α0 , α1 , . . . , αs−1}, di minimo periodo s, si dice orbita stabile per un s.d.d. {I, f} se per ogni ε > 0 esiste δ > 0 tale che assegnato j ∈ {0, . . . , s − 1} allora
e
Xj ∈ I :
k−j f (Xj ) − αk(mod s) < ε
|Xj − αj | < δ ∀k > j
dove k (mod s) denota l’unico intero in {0, 1, . . . , s − 1} congruo a k modulo s (cio`e l’unico intero che d` a lo stesso resto di k quando `e diviso per s). Definizione 3.46. Un’orbita periodica si dice localmente asintoticamente stabile se `e contemporaneamente un’orbita stabile ed un insieme localmente attrattivo. Esempio 3.47. Studio grafico del s.d.d. {(0, 1) , f} , f (x) = 3, 1 x − x2 . Utilizzando l’Osservazione 3.14 si pu` o mostrare che ha un’unica orbita 2 periodica {γ, β} e che essa `e localmente asintoticamente stabile, mentre non `e globalmente asintoticamente stabile a causa della presenza dei due equilibri 0 e 21/31. Tali equilibri non sono n´e stabili, n´e localmente attrattivi. Si noti che i singoli valori γ o β (appartenenti all’orbita periodica) non sono attrattori qualora vengano considerati singolarmente (si vedano le Figure 3.12, 3.13). Definizione 3.48. Un insieme R ⊂ I si dice insieme repulsivo (o repulsore) per il s.d.d. {I, f} se valgono tutte le seguenti condizioni:
γa
αa βa
Figura 3.12 f (x) = 3, 1 x − x2
Figura 3.13 f 2 con f (x) = 3, 1 x − x2
106
3 Sistemi dinamici discreti: equazioni scalari ad un passo
1) R `e chiuso; 2) R `e invariante, cio`e f (R) = R; 3) esiste un intorno aperto U di R (cio`e R ⊂ U , R\U `e chiuso) tale che, per ogni intorno V di R esiste X0 ∈ V \R tale che f k (X0 ) ∈ / U per infiniti valori di k; 4) R `e minimale, cio`e non vi sono sottoinsiemi propri di R verificanti 1),2),3). La definizione di insieme repulsivo formalizza quella di un insieme R trasformato in s`e stesso da f, con la propriet` a che tutti i punti prossimi ad R e non appartenenti ad R vengono allontanati da R per infiniti valori di k. Definizione 3.49. Un equilibrio repulsivo `e un repulsore costituito da un unico punto. Osservazione 3.50. Un equilibrio `e repulsivo se e solo se `e instabile. Attenzione, la repulsivit` a non `e la negazione di attrattivit` a: ad esempio, tutte le orbite periodiche di {R, − x} oscillano attorno all’equilibrio 0 che `e stabile ma non `e n´e attrattivo, n´e repulsivo. Osservazione 3.51. Se f : I → I `e un omeomorfismo (continua, invertibile con inversa continua) ed A `e! attrattivo per il s.d.d. {I, f}, allora A `e un repulsore per il s.d.d. I, f −1 . Se f : I → I `e un omeomorfismo ed A `e un repulsore per {I, f} allora A `e ! attrattivo per I, f −1 . Osserviamo che se alle traiettorie di {I, f} si d` a un’interpretazione di evolu! zione di una grandezza nel tempo, allora le traiettorie di I, f −1 si ottengono invertendo la freccia temporale.
Figura 3.14 I = [−1, 1] , f (x) = x3 Figura 3.15 I = [−1, 1] , f (x) =
√ 3 x sign(x)
Esempio 3.52. Consideriamo il s.d.d. {I, f} con I = [−1, 1] e f (x) = x3 . Ci sono tre punti fissi: 0 e ±1; non vi sono !orbite periodiche. L’equilibrio √0 `e attrattivo per {I, f}, repulsivo per I, f −1 (esplicitamente, f −1 (x) = 3 x
3.6 Condizioni di stabilit` a basate sulle derivate
107
√ se x ≥ 0, f −1 (x) = − 3 −x se! x < 0). Gli equilibri −1 e +1 sono repulsivi per {I, f}, attrattivi per I, f −1 . Pi` u precisamente, 0 `e localmente asintoticamente stabile ! per {I, f}, mentre ±1 sono localmente asintoticamente stabili per I, f −1 .
3.6 Condizioni di stabilit` a basate sulle derivate Quando una funzione f : I → I `e dotata di una o pi` u derivate continue, `e possibile ottenere informazioni sulla stabilit` a e/o la stabilit` a asintotica di equilibri del s.d.d. {I, f} mediante semplici test. Teorema 3.53. (Condizione del primo ordine di stabilit` a) Se α `e un equilibrio per il s.d.d. {I, f} e f `e di classe C 1 , allora: |f (α)| < 1
⇒
α localmente asintoticamente stabile
|f (α)| > 1
⇒
α instabile
Prova. Sia |f (α)| < 1. Per la continuit` a di f esistono d > 0 e r < 1 tali che |f (x)| ≤ r < 1 se x ∈ (α − d, α + d). Per il teorema di Lagrange, se x, t ∈ (α − d, α + d), allora esiste x tale che |f (x) − f (t)| = f (x ) |x − t| ≤ r |x − t| . Quindi la Definizione 3.32 di stabilit` a `e verificata scegliendo δ = min {ε, d}. Inoltre, se x ∈ (α − d, α + d), allora k k−1 k k (x) − f k−1 (α) ≤ · · · ≤ rk |x − α| . f (x) − α = f (x) − f (α) ≤ r f Dunque, da limk rk = 0 segue che α `e anche localmente attrattivo e quindi localmente asintoticamente stabile. a di f esistono m > 1 e d > 0 tali che Sia ora |f (α)| > 1. Per la continuit` |f (x)| ≥ m > 1 per x ∈ (α − d, α + d). Per il teorema di Lagrange, se x = α e o appartenere a (α − d, α + d) per tutti i k, x ∈ (α − d, α + d), allora f k (x) non pu` altrimenti si avrebbe k k−1 k k (x) − f k−1 (α) ≥ · · · ≥ mk |x − α| f (x) − α = f (x) − f (α) ≥ m f che sarebbe assurdo perch´e limk mk = +∞ e |x − α| = 0.
Esempio 3.54. (Ricerca degli zeri di una funzione mediante approssimazioni successive) Se g : [a, b] → [a, b] `e una funzione continua, il problema della ricerca dei suoi zeri `e equivalente alla ricerca dei punti fissi in [a, b] della funzione f cos`ı definita: f (x) = x + g (x). Infatti, g (α) = 0 se e solo se
108
3 Sistemi dinamici discreti: equazioni scalari ad un passo
f (α) = α. Se α `e un equilibrio attrattivo allora, comunque si prenda X0 nel bacino di α, la successione definita da Xk+1 = Xk + g (Xk ) converge ad α. Se, ad esempio, g ∈ C 1 e |1 + g (α)| < 1, il Teorema 3.53 garantisce la convergenza del metodo. Se f (x) = x + g (x) `e una contrazione (vedi il paragrafo 3.4) il metodo funziona per ogni scelta di X0 in [a, b]. A volte, anche se la condizione |1 + g (x)| < 1 non `e verificata si pu` o adattare il metodo sostituendo ad f la funzione ϕ: ϕ (x) = x + ψ (x) g (x) con ψ ∈ C 1 che non si annulla in [a, b] e tale che risulti |ϕ (α)| < 1; in tal caso le approssimanti sono generate in modo ricorsivo da Yk+1 = Yk +ψ (Yk ) g (Yk ). Definizione 3.55. Diciamo che un equilibrio di un s.d.d. {I, f}, con f in C 1 (I), `e iperbolico se |f (α) | = 1, superattrattivo se f (α) = 0 e neutro se |f (α)| = 1. Tornando allo studio della stabilit` a basato sulle propriet` a delle derivate, osserviamo che il caso |f (α)| = 1 non viene chiarito dal Teorema 3.53 e, in effetti, pu` o corrispondere a situazioni molto diverse fra loro. Quando l’esame della derivata prima di f nell’equilibrio non consente di concludere, `e necessario approfondire l’analisi: cosa che faremo nel seguito. Premettiamo allo scopo la definizione seguente. Definizione 3.56. Un punto α di equilibrio per il s.d.d. {I, f} si dice • semistabile superiormente se per ogni ε > 0 esiste δ > 0 tale che α ≤ x < α + δ implica f k (x) − α < ε per ogni k ∈ N; • attrattivo superiormente se esiste η > 0 tale che α ≤ x < α + η implica limk f k (x) = α; • asintoticamente stabile superiormente se `e semistabile superiormente e attrattivo superiormente; • instabile superiormente (o repulsivo superiormente) se non `e semistabile superiormente; La definizione precedente corrisponde a limitare le propriet` a formalizzate nelle Definizioni 3.32, 3.34 e 3.34 a valori iniziali maggiori di α. Il lettore pu` o facilmente riformulare tale definizione in un intorno sinistro di α, ottenendo le definizioni di semistabilit` a, attrattivit` a, asintotica stabilit` a e repulsivit` a inferiori.
3.6 Condizioni di stabilit` a basate sulle derivate
109
Teorema 3.57. Sia α un equilibrio del s.d.d. {I, f}, con f ∈ C 1 , f (α) = 1. Allora
f convessa in un intorno di α
⇒
α semistabile inferiormente
f concava in un intorno di α
⇒
α semistabile superiormente
Se la convessit` a (rispettivamente, la concavit` a) di f `e stretta, allora α `e inferiormente asintoticamente stabile e superiormente repulsivo (rispettivamente, superiormente asintoticamente stabile e inferiormente repulsivo).
Figura 3.16 f convessa
Figura 3.17 f concava
Prova. Limitandoci al caso di funzioni convesse (f (x) ≥ f (α) + f (α) (x − α) ∀x), basta osservare che esiste δ > 0 tale che x−δ ≤ x≤ α
⇒
x ≤ f (x) ≤ α
che diventa x < f (x) < α, se la convessit` a `e stretta.
In Figura 3.16 e 3.17 illustriamo con esempi grafici il senso del teorema precedente. Il Teorema 3.57 vale anche se f non `e n´e di classe C 1 , n´e convessa (o concava) purch´e valgano le disuguaglianze evidenziate nella prova: l’argomento si applica se α = f (α) e x ≤ f (x) (rispettivamente x ≥ f (x)) in un intorno sinistro (rispettivamente destro) di α. Teorema 3.58. (Condizione di stabilit` a del secondo ordine) Sia α un equilibrio per il s.d.d. {I, f}, con f ∈ C 2 e f (α) = 1. Allora valgono le seguenti conclusioni:
110
3 Sistemi dinamici discreti: equazioni scalari ad un passo
f (α) > 0
⇒
α
f (α) < 0
⇒
α
inferiormente asintoticamente stabile superiormente repulsivo superiormente asintoticamente stabile inferiormente repulsivo
Se f (α) si annulla, si pu` o proseguire l’analisi utilizzando l’argomento basato sulla convessit`a o concavit` a di f separatamente in un intorno destro o sinistro di α, ottenendo il seguente risultato. Teorema 3.59. (Condizione di stabilit` a del terz’ordine) Sia α equilibrio per il s.d.d. {I, f} con f ∈ C 3 , f (α) = 1 e f (α) = 0. Valgono le seguenti conclusioni: f (α) > 0
⇒
α instabile
f (α) < 0
⇒
α localmente asintoticamente stabile
Il lettore provi a formulare e dimostrare una condizione di stabilit` a nel caso f ∈ C 4 se f (α) = 1
f (α) = 0
f (α) = 0.
Rimane da studiare il caso f (α) = α
f (α) = −1 .
(3.4)
Prima di procedere, si suggerisce di effettuare lo studio con il metodo grafico di qualche esempio in cui si verificano le condizioni (3.4) (come f (x) = 3x2 − x ), e di riflettere sul caso lineare affine gi` a studiato (ad esempio, f (x) = 2 − x). Nel caso lineare affine si ha stabilit` a ma non asintotica stabilit` a: pi` u precisamente, infinite orbite 2 periodiche oscillano attorno all’equilibrio. Questo fatto suggerisce di studiare il comportamento oscillante del generico s.d.d., considerando separatamente le due successioni corrispondenti agli indici pari e dispari: {X2k }k∈N , {X2k+1 }k∈N . Lemma 3.60 Sia α un equilibrio per il s.d.d. {I, f}. Allora α `e un equilibrio localmente asintoticamente stabile per {I, f} se e solo se α `e un equilibrio localmente asintoticamente stabile per {I, f 2 }.
3.6 Condizioni di stabilit` a basate sulle derivate
111
Prova. α `e un equilibrio per {I, f } dunque (Osservazione 3.15) α `e un equilibrio per {I, f 2 }. Sia ora α un equilibrio localmente asintoticamente stabile per il s.d.d. {I, f }; allora, per ogni ε > 0 esiste δ > 0 tale che se X0 ∈ (α − δ, α + δ) si ha f k (X0 ) in (α − ε, α + ε) per ogni k e lim f k (X0 ) = α. In particolare, le relazioni precedenk
ti per k pari; dunque α `e localmente asintoticamente stabile per il s.d.d. & % valgono I, f 2 . Viceversa, sia α equilibrio per {I, f } e α sia localmente asintoticamente stabile per & % I, f 2 . Ne segue: per ogni ε > 0 esiste δ > 0 tale che se X0 ∈ (α − δ, α + δ); allora f 2k (X0 ) ∈ (α − ε, α + ε) per ogni k e lim f 2k (X0 ) = α. Rimangono da considerare k
le iterate dispari di f : per la continuit` a di f in α esiste δ1 , 0 < δ1 ≤ δ tale che, posto ε1 = min (ε, δ), da X0 ∈ (α − δ1 , α + δ1 ) segue f (X0 ) ∈ (α − ε1 , α + ε1 ); dunque f 2k+1 (X0 ) = f 2k (f (X0 )) ∈ (α − ε, α + ε) ; lim f 2k+1 (X0 ) = lim f 2k (f (X0 )) = α. k
k
Teorema 3.61. Sia f : I → I con f ∈ C , f (α) = α e f (α) = −1. Allora 3
2f (α) + 3 (f (α))2 > 0
⇒
α localmente asintoticamente stabile
2f (α) + 3 (f (α)) < 0
⇒
α instabile
2
Prova. Posto g (x) = f 2 (x), x ∈ I, consideriamo i due s.d.d. {I, f } e {I, g}. Grazie al Lemma 3.60 ed al Teorema 3.59, `e sufficiente verificare che: 2 (ii) g (α) = 0 (iii) g (α) = −2f (α) − 3 f (α) . (i) g (α) = 1 Le tre verifiche sono un delicato ed istruttivo esercizio sulla derivazione delle funzioni composte che il lettore `e invitato a svolgere da solo prima di confrontare il risultato con i passaggi che seguono. g (x) = (f (f (x))) = f (f (x)) f (x) g (α) = f (f (α)) f (α) = f (α) f (α) = (−1) (−1) = 1 2 g (x) = f (f (x)) f (x) = f (f (x)) f (x) + f (f (x)) f (x) 2 g (α) = f (α) f (α) + f (α) f (α) = 0 2 g (x) = f (f (x)) f (x) + f (f (x)) f (x) = 3 = f (f (x)) f (x) + 3f (f (x)) f (x) f (x) + f (f (x)) f (x) 2 g (α) = −2f (α) − 3 f (α) .
112
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Esempio 3.62. Se la funzione f `e un polinomio di secondo grado ed α `e un punto fisso di f tale che f (α) = −1, allora α `e localmente asintoticamente stabile per {R, f}. Infatti, f ≡ 0 e l’affermazione segue dal Teorema 3.61. Si provi che l’attrattivit` a non `e globale. Tabella 3.1 Schema riassuntivo per lo studio della stabilit` a di un equilibrio α quando f `e dotata di derivate ⎧ ⎪ |f (α)| < 1 ⇒ α l.a.s. ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎧ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ f (α) = 1 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ ⎨ f (α) = α |f (α)| = 1 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ f (α) = −1 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩ |f (α)| > 1 ⇒ α r.
⎧ ⎪ f (α) < 0 ⇒ s.l.a.s. & i.r. ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ f (α) > 0 ⇒ s.r. & i.l.a.s. ⎪ ⎪ ⎪ ⎪ ⎨ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ f (α) = 0 ⎪ ⎪ ⎪ ⎩
⎧ ⎪ ⎨ f (α) < 0 ⇒ α l.a.s. ⎪ ⎩ f (α) > 0 ⇒ α r.
⎧ 2 ⎪ ⎪ ⎨ 2f (α) + 3 (f (α)) > 0 ⇒ α l.a.s. ⎪ ⎪ ⎩ 2f (α) + 3 (f (α))2 < 0 ⇒ α r.
Legenda: l.a.s. = localmente asintoticamente stabile s.l.a.s. = superiormente localmente asintoticamente stabile i.l.a.s. = inferiormente localmente asintoticamente stabile r. = repulsivo s.r. = superiormente repulsivo i.r. = inferiormente repulsivo
3.7 Strategie di pesca
113
3.7 Strategie di pesca In questo paragrafo discutiamo un esempio di applicazione dei modelli dinamici allo scopo di ottimizzare i risultati di una attivit` a quali la caccia o la pesca. Consideriamo una specie ittica la cui dinamica (non disturbata da fattori esterni) sia descritta, in una opportuna unit` a di misura, dalla legge ricorsiva Xk+1 = 1, 5Xk − 0, 5Xk2 . I passi del s.d.d. sintetizzano il succedersi delle stagioni riproduttive: si suppone che la dinamica logistica (si veda l’Esempio 1.13) con la scelta dei parametri 1, 5 e 0, 5 descriva in modo soddisfacente l’effetto congiunto dell’attivit` a riproduttiva e della competizione tra individui della stessa specie. Studiamo l’effetto che hanno su questa specie due diverse strategie di pesca. PRIMA STRATEGIA - Quantit` a prefissata di pescato (in ogni passo): dopo ogni stagione riproduttiva, si cattura una fissata quantit` a di pescato b. Corrispondentemente la dinamica `e descritta da Xk+1 = 1, 5Xk − 0, 5Xk2 − b. Se 0 < b < 1/8, allora si verifica facilmente (mediante il test della derivata del Teorema 3.53) che vi sono due equilibri positivi, α1 ≥ α2 > 0 , α1,2 =
1 1√ 1 − 8b ± 2 2
con α1 stabile e attrattivo, α2 repulsivo; per evitare l’estinzione, b va scelto in modo tale che valga α2 = α2 (b) < X0 , cio`e (poich´e X0 `e un dato mentre b `e la quantit` a che possiamo scegliere) b deve verificare: ⎧ 1 ⎪ ⎨ 0 1/8 non vi sono equilibri e tutte le traiettorie portano all’estinzione: f (x) < x per ogni x implica Xk+1 < Xk per ogni k, dunque esiste il limite ma non pu` o essere finito perch´e non vi sono equilibri (vedi Teorema 3.22).
114
3 Sistemi dinamici discreti: equazioni scalari ad un passo
I)
α
2
III)
II)
α
1
α
1
I) 0 < b = 0,04 < 1/8; 2
X = 1,5 0
II) b = 1/8 < X 0 −X 0 ;
X 0 = 1,5
III) b = 0,18 > 1/8;
X = 1,5 0
Figura 3.18 Prima strategia di pesca: quantit` a prefissata
Dunque, ogni b ≤ 1/8 `e una quantit` a sostenibile di pescato per una strategia che prevede un quantitativo fisso di pescato in ogni stagione di pesca, purch´e b non sia eccessivo rispetto alla popolazione iniziale. Tuttavia quella a quantit` a prefissata di pescato `e una strategia insoddisfacente, perch´e quanto pi` u ci si avvicina alla massima quantit` a sostenibile (cio`e b si avvicina ad 1/8 e corrispondentemente α1 si avvicina ad α2 e ad 1/2) tanto pi` u alto `e il rischio che una minima fluttuazione dipendenteda fattori non controllabili porti la popolazione verso l’estinzione: se b < X0 − X02 /2, allora tutta l’evoluzione si svolge in (α2 , α1 ), tuttavia una piccola perturbazione pu` o portare nella regione {x < α2 } che si trova nel bacino di −∞. SECONDA STRATEGIA – Quantit` a proporzionale di pescato (in ciascun passo): si cerca di catturare una frazione fissata r della popolazione di pesci, con r nell’intervallo (0, 1). Corrispondentemente, il s.d.d. diventa Xk+1 = 1, 5Xx − 0, 5Xk2 − rXk , cio`e: Xk+1 = (1, 5 − r) Xk − 0, 5Xk2 .
3.7 Strategie di pesca
115
In tal caso gli equilibri risolvono 0, 5α2 = (0, 5 − r) α , dunque α1 = 1 − 2r
α2 = 0.
Posto f (x) = (1, 5 − r) x − 0, 5x2, risulta f (x) = (1, 5 − r) − x e f (0) = 1, 5 − r, cio`e lo 0 `e stabile ed attrattivo se e solo se 0, 5 < r < 2, 5. Ma a noi interessa r ∈ (0, 1) e, dunque, 0 `e instabile (che `e una buona propriet` a per la strategia in esame) se 0 < r ≤ 0, 5 (l’instabilit` a per r = 0, 5 segue dal Teorema 3.58). Studiamo l’altro equilibrio α1 = 1 − 2r. Da f (1 − 2r) = 0, 5 + r segue che • se 0 < r < 0, 5 allora α1 `e stabile; • se r > 0, 5 allora α1 `e repulsivo; • se r = 0, 5 allora α1 = α2 = 0 `e equilibrio stabile superiormente (repulsivo inferiormente). Cerchiamo equilibri stabili positivi e quindi, per 0 < r < 0, 5 , α1 = 1 − 2r `e l’unico equilibrio positivo ed `e stabile. Poich´e α1 `e attrattivo, allora Xk converge ad α1 > 0 ed il pescato P (pari a rXk ) tende a stabilizzarsi nel lungo periodo al valore P (r) = r (1 − 2r) = r − 2r 2 . La scelta di r che massimizza il pescato P nel lungo periodo `e rmax = 1/4 con Pmax = 1/8. Dunque 1/8 `e il massimo pescato sostenibile con la strategia a frazione fissa ed `e compatibile con la stabilit` a. Confronto delle due strategie di pesca. Il massimo pescato sostenibile `e lo stesso nei due casi. Tuttavia vi `e una enorme differenza: nel primo caso corrisponde ad una situazione instabile, nel secondo ad una stabile. Seguendo la seconda strategia, se il pescato supera il valore 1/8 o se la popolazione diminuisce per altri motivi, anche la quantit` a di pescato diminuisce, permettendo alla popolazione di riprendersi. Dunque la strategia a proporzione fissata ` e decisamente superiore. Tuttavia `e difficile da applicare per la difficolt` a di valutare la popolazione Xk e, di conseguenza, la quantit` a ottima di pescato Xk /4 in ciascuna stagione k. In pratica, si tenta di applicare una “efficacia” costante della pesca: ad esempio, pescare solo un numero fissato di giorni alla settimana (nella sola stagione di pesca, ben lontana dal periodo riproduttivo) dovrebbe dare un risultato proporzionale a Xk , il cui valore `e difficile misurare con precisione. Osserviamo inoltre che con i parametri da noi scelti nell’equazione di partenza il massimo pescato sostenibile Pmax `e il 25% della popolazione. In generale, anche con altri parametri, se si tenta di ottenere risultati superiori al massimo sostenibile si determina un drammatico calo della popolazione e di conseguenza un altrettanto drammatico calo nella pesca.
116
3 Sistemi dinamici discreti: equazioni scalari ad un passo
I)
II)
α2
α1
III)
α2
α1
r = 1/8 < 1/2;
X = 0,2 < α
II) r = 1/8 < 1/2;
X = 1,3 > α
III) r = 1/2;
X = 1,3
I)
0
0
0
1
1
α =α 1
2
α1
Figura 3.19 Seconda strategia di pesca: quantit` a proporzionale
Esercizio 3.12. Verificare che con altri parametri, ad esempio 1, 7 e 0, 7, o, pi` u in generale, con 1 + a ed a, con 0 < a < 2, si ottengono gli stessi risultati qualitativi dell’esempio analizzato. Esercizio 3.13. Osserviamo che modelli di strategia di pesca pi` u realistici dovrebbero tenere conto del fatto che riproduzione ed attivit` a di pesca avvengono in tempi successivi. Ad esempio, proporzione fissata pescata prima della riproduzione: Yk+1 = 1, 5 (1 − r) Yk − 0, 5 (1 − r)2 (Yk )2 ; oppure, proporzione fissata pescata dopo la riproduzione: Zk+1 = 1, 5 (1 − r) Zk − 0, 5 (1 − r) (Zk )2 . Si provi a confrontare tali dinamiche, ed a modellare la prima strategia (quantit` a prefissata) con la pesca effettuata prima oppure dopo la riproduzione.
3.8 Studio qualitativo e stabilit` a delle orbite periodiche Quando una funzione f : I → I `e dotata di una o pi` u derivate continue, `e possibile ottenere informazioni sulla stabilit` a e/o la stabilit` a asintotica di orbite periodiche del s.d.d. {I, f} mediante semplici test. Cominciamo, per semplicit` a, a considerare s.d.d. con orbite di periodo 2, esplicitando le Definizioni 3.45 e 3.46. La coppia {α0 , α1 } costituisce un’orbita 2 periodica (o 2 ciclo) per il s.d.d. {I, f} se
3.8 Studio qualitativo e stabilit` a delle orbite periodiche
α0 = α1
f (α0 ) = α1
117
f (α1 ) = α0
e quindi f 2k (α0 ) = α0
k ∈ N.
f 2k+1 (α0 ) = α1
Definizione 3.63. Il 2 ciclo {α0 , α1} `e localmente asintoticamente stabile se per ogni ε > 0 esiste δ > 0 tale che X0 ∈ (α0 − δ, α0 + δ) ⇒
X1 ∈ (α1 − δ, α1 + δ) ⇒
⎧ ⎨ f 2k (X0 ) − α0 < ε, f 2k+1 (X0 ) − α1 < ε ∀k ⎩ lim f 2k (X0 ) = α0 k ⎧ ⎨ f 2k (X1 ) − α1 < ε,
lim f 2k+1 (X0 ) = α1
⎩ lim f 2k (X1 ) = α1
lim f 2k+1 (X1 ) = α0
k
k
2k+1 f (X1 ) − α0 < ε ∀k k
cio`e, se |X0 − α0 | < δ e |X1 − α1 | < δ , posto Xk = f k (X0 ), k ∈ N, allora: • i termini pari X2k rimangono uniformemente vicini ad α0 e convergono ad α0 ; • i termini dispari X2k+1 rimangono uniformemente vicini ad α1 e convergono ad α1 . Un 2 ciclo `e detto repulsivo quando `e un insieme repulsivo. Per discutere la eventuale stabilit` a di un 2 ciclo {α0 , α1 } relativo al s.d.d. {I, f} studiamo il s.d.d. {I, g} dove g = f 2 , analogamente alla discussione svolta per un equilibrio α con f (α) = −1 (Lemma 3.60 e Teorema 3.61). Premesso che un equilibrio di f 2 corrisponde o a un equilibrio o a un 2 ciclo di f, con dimostrazione analoga a quella del Lemma 3.60, si pu` o provare il seguente Lemma 3.64 Sia f : I → I una funzione continua. Allora {α0 , α1 } `e un 2 ciclo per il s.d.d. {I, f} se e solo se ! α0 , α1 = f (α0 ) sono equilibri di I, f 2 ma non di {I, f} . Un 2 ciclo {α0 , α1 } per {I, f} `e stabile (rispettivamente attrattivo, repulsivo) se e solo se sono stabili (rispettivamente, attrattivi, repulsivi) entrambi gli ! equilibri distinti α0 ed α1 per I, f 2 . Ne segue, applicando il Teorema 3.53 agli equilibri di f 2 , che se {α0 , α1 } `e un 2 ciclo di {I, f} t.c. f 2 (α0 ) < 1 e f 2 (α1 ) < 1 allora {α0 , α1 } `e un 2 ciclo localmente asintoticamente stabile; se {α0 , α1 } `e un 2 ciclo di {I, f} t.c. f 2 (α0 ) > 1 o allora {α0 , α1 } `e un 2 ciclo repulsivo.
2 f (α1 ) > 1 (3.6)
118
3 Sistemi dinamici discreti: equazioni scalari ad un passo
Osserviamo che la (3.6) `e una condizione la cui verifica diretta negli esempi e nelle applicazioni conduce a calcoli inutilmente laboriosi di composizione e derivazione. Invece, l’enunciato seguente, del tutto equivalente a (3.6), `e pi` u esplicito e pu` o essere utile nei calcoli. Teorema 3.65. Sia f ∈ C 1 (I) e sia {α0 , α1} un 2 ciclo per il s.d.d. {I, f}. Allora |f (α0 ) f (α1 )| < 1
⇒
{α0 , α1 } localmente asintoticamente stabile
|f (α0 ) f (α1 )| > 1
⇒
{α0 , α1 } repulsivo
Prova. Basta applicare (3.6) sfruttando la relazione
f 2 (α0 ) = f (f (α0 )) f (α0) = f (α1 ) f (α0 ) = f 2 (α1 ) .
Esempio 3.66. Determiniamo eventuali orbite 2 periodiche del s.d.d. {[0, 1] , 13x (1 − x) /4}. A tal fine, dopo aver osservato che 13 x (1 − x) = x 4
⇔
x = 0 oppure x =
9 13
esplicitiamo l’iterata seconda di f ( )( ) 13 13 13 169 13 13 f 2 (x) = x (1 − x) 1 − x(1 − x) = x (1 − x) 1 − x + x2 4 4 4 16 4 4 I suoi punti fissi, diversi da 0 e 9/13, sono le soluzioni di f 2 (x) = x, tali che f (x) = x, cio`e 2197 2 2873 221 − x + x− =0 64 64 16
⇔
x1,2
√ 17 ± 17 = . 26
Da f (x) = 13 (1 − 2x) /4, si deduce: √ √ 1 1 17−√17 17+√17 f x +∞. Lo 0 `e un equilibrio stabile e localmente attrattivo, mentre { x, − x} `e un 2 ciclo repulsivo.7 Esercizio 4.30. Calcolare numericamente gli zeri di f : R → R, f (x) = ex − 3, con un errore minore di 10−3 .
4.7 Sistemi dinamici discreti nel campo complesso L’ambiente naturale in cui studiare il (sistema dinamico discreto associato al) metodo di Newton `e il piano complesso C. Infatti, il metodo, se ben inizializzato, converge ad uno zero della funzione; tuttavia, gi` a nel caso dei polinomi, il Teorema fondamentale dell’Algebra garantisce l’esistenza di soluzioni in C, dunque le soluzioni cercate possono non essere numeri reali. Nell’ambiente complesso, assegnata la funzione g di cui si cercano gli zeri complessi, il metodo e la funzione iterata corrispondente Ng hanno formulazione identica al caso reale; invece ci`o che non vale in C `e l’interpretazione geometrica come metodo delle tangenti. Precisiamo la nozione di s.d.d. nel caso di iterazioni che trasformano un generico sottoinsieme del piano complesso C in s`e stesso. Faremo uso di definizioni valide in un ambito pi` u generale di quello considerato nel Capitolo 3. Il lettore `e invitato verificare l’analogia formale di tali definizioni con quelle del caso reale. Definizione 4.51. Se I = ∅ `e un sottoinsieme di C e f : I → I , la coppia {I, f} `e detta sistema dinamico discreto su I, del primo ordine, autonomo, in forma normale. 7
√ L’esistenza di x > 1/ 2 segue dal teorema degli zeri e da 1 2x 2√ π = 2 > = arctan √ . √ 1 + x2 3 4 2
x=1/ 2 La non esistenza di altri valori positivi tali che arctan x = 2x/ 1 + x2 (che originerebbero altri 2 cicli!) segue dallo studio di (Nf )2 .
4.7 Sistemi dinamici discreti nel campo complesso
171
Definizione 4.52. α `e un equilibrio per il s.d.d. {I, f}se α ∈ I e α = f (α). Definizione 4.53. Un equilibrio α del s.d.d. {I, f} si dice equilibrio stabile se, ∀ε > 0, esiste un δ > 0 tale che |X0 − α| < δ, X0 ∈ I e Xk = f k (X0 ) implicano |Xk − α| < ε ∀k ∈ N. Viceversa, α si dice equilibrio instabile (o repulsivo) se non `e stabile, cio`e se esiste ε0 > 0 tale che, per ogni δ > 0, si possono determinare X0 ∈ I e k > 0 tali che |X0 − α| < δ |Xk − α| > ε0 . Per confronto con le definizioni dei paragrafi 3.1 e 3.5, si osservi che l’insieme {z ∈ C : |z − α| < δ} `e un disco, mentre l’insieme {x ∈ R : |x − α| < δ} `e un intervallo.
a
a +d
Figura 4.27 Disco di centro α e raggio δ in C
Definizione 4.54. Un equilibrio α di un s.d.d. {I, f} si dice equilibrio localmente attrattivo se esiste η > 0 tale che, per ogni valore iniziale X0 ∈ I ∩ {z ∈ C : |z − α| < η}, posto Xk = f k (X0 ), risulta lim Xk = α. k
Definizione 4.55. Un equilibrio α del s.d.d. {I, f} si dice equilibrio localmente asintoticamente stabile se `e stabile e localmente attrattivo. Per funzioni derivabili f continua a valere il criterio di stabilit` a del Teorema 3.53, pur di sostituire il modulo di numero reale con quello di numero complesso. Teorema 4.56. Se α `e un equilibrio per il s.d.d. {I, f}, con I ⊂ C, f in C 1 (I), allora
172
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
|f (α)| < 1
⇒
α localmente asintoticamente stabile
|f (α)| > 1
⇒
α instabile
Prova. La dimostrazione di tale teorema nel caso complesso `e formalmente identica al caso reale, salvo il fatto che non vale il teorema di Lagrange. Si pu` o comunque usare l’identit` a seguente: f (z) − f (w) =
z
w
f (u) du =
1
f (w + t (z − w)) (z − w) dt
0
(valida se il segmento che congiunge z a w `e contenuto in I) da cui si ottiene |f (z) − f (w)| ≤ max f |z − w| e max |f | pu` o essere stimato in un opportuno disco di centro α in modo tale che risulti max |f | < 1.
Alla luce del Teorema 4.56 `e naturale conservare anche nel caso complesso la terminologia della Definizione 3.55 (equilibri superattrattivi, neutri). Riconsideriamo dal punto di vista dei sistemi dinamici complessi il metodo di Newton per la ricerca delle radici di un polinomio nel campo complesso. Teorema 4.57. Sia p un polinomio non costante di variabile complessa. Definiamo p (z) Np (z) = z − p (z) dove `e sottointesa l’eventuale semplificazione tra fattori comuni di p e p . Valgono le seguenti conclusioni: 1) Np `e definita e derivabile nell’insieme I di tutti i punti del piano complesso salvo gli zeri di p che non siano anche zeri di p. In particolare, senza ulteriori condizioni, `e definita e continua in tutti gli zeri di p. 2) L’insieme dei punti fissi di Np in I coincide con l’insieme delle radici complesse di p. 3) Tutti i punti fissi di Np sono localmente asintoticamente stabili per il s.d.d. {I, Np }. 4) Gli zeri semplici di p sono superattrattivi per il s.d.d. {I, Np }. Prova. Sia α una radice di p con molteplicit` a m. Allora p (z) = (z − α)m q (z) con q (α) = 0 e p (z) (z − α) q (z) =z− Np (z) = z − p (z) (z − α) q (z) + mq (z) Np (α) = α.
4.7 Sistemi dinamici discreti nel campo complesso
173
Viceversa, se Np (α) = α, allora α − p (α) /p (α) = α cio`e8 p (α) = 0. Infine 2 (p (z)) − p (z) p (z) p (z) p (z) = . (Np ) (z) = 1 − 2 (p (z)) (p (z))2 Dunque, se α `e uno zero semplice di p, cio`e p (α) = 0 e p (α) = 0, allora (Np ) (α) = 0 cio`e α `e stabile e superattrattivo. Se α non `e uno zero semplice, cio`e p (α) = p (α) = 0, allora esiste m ≥ 2 tale che p (z) = (z − α)m q (z) e q (α) = 0; ne segue (Np) (z) =
(z − α)mq (z) m (m − 1) (z − α)m−2 q (z) + 2m (z − α)m−1q (z) + (z − α)m q (z) 2 m (z − α)m−1 q (z) + (z − α)m q (z) q (z) m (m − 1) q (z) + 2m (z − α) q (z) + (z − α)2 q (z) = (mq (z) + (z − α) q (z))2 (Np) (α) = cio`e α `e attrattivo e stabile.
m (m − 1) q (α)2 m−1 0, allora q (x) = x2 − D ha radici ± D che coin 2reali semplici cidono con i punti fissi di Nq (x) = x + D /2x e sono localmente asintoticamente stabili e superattrattive per il s.d.d. {R\√{0} , Nq }. Inoltre √ + D ha come bacino di attrazione (0, +∞), mentre − D ha come bacino di attrazione (−∞, 0). Corrispondentemente {R\ {−b/2a} , Np } ha due punti fissi localmente asintoticamente stabili e superattrattivi: √ x = ϕ−1 ± D = −b ± b2 − 4ac /2a i cui bacini di attrazione sono rispettivamente (−b/2a, +∞) e√(−∞, −b/2a). • Se D < 0, allora q (x) = x2 − D ha radici immaginarie ±i −D che sono i punti asintoticamente stabili per {C\ {0} , Nq } con fissi localmente Nq (x) = x2 + D /2x, ma la dinamica di {R\ {0} , Nq } `e caotica. Corrispondentemente la dinamica di Np `e caotica e priva di punti fissi. Prova. Il caso D = 0 non √ richiede commenti. √ Se D > 0, 0 < X0 < D e Xk = (Nq )k (X0 ), allora valgono X0 < D < X1 e √ D < Xk+1 √ < Xk per k ≥ 1. La monotonia di X ed il Teorema 3.22 implicano limk Xk = √D. √ D < Xk+1 < Xk per k ∈ N e con lo stesso argomento Se D > 0 e D ≤ X0 , allora √ di monotonia limk Xk = D. √ Il caso D > 0 e X0 < 0 `e analogo (limk Xk = − D).
⎯ √D ⎯ - √D X0
⎯ √D
⎯ - √D
Figura 4.28 D > 0, dinamica di Nq (x) = x2 + D /2x , q (x) = x2 − D
176
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Figura 4.29 D < 0, dinamica di Nq (x) = x2 − 1 /2x, q (x) = x2 + 1 Veniamo al caso non banale D < 0. Per evitare complicazioni tecniche, studiamo solo il caso D = −1 cio`e q (x) = x2 + 1 (questo basta perch´e Nx2 +c e Nx2 +1 sono topolo√ gicamente coniugati se c `e positivo mediante il cambio di coordinate ψ (x) = c x , infatti ψ ◦ Nx2 +1 = Nx2 +c ◦ ψ). Gli esperimenti numerici e grafici suggeriscono la caoticit` a della dinamica. Questa pu` o essere dimostrata formalizzando il discorso seguente: consideriamo il prolungamento di Nx2 +1 (x) = x2 − 1 / (2x) con valore ∞ in x = 0 e in x = ∞. In tal modo, Nx2 +1 manda R∪ {∞} in s`e stesso ed `e topologicamente coniugata mediante la funzione τ : [0, 2π) → R∪ {+∞}, τ (x) = cot (x/2) = 1/tg (x/2) alla mappa del raddoppio di fase D : S → S, D (θ) = 2θ(modulo 2π) che sappiamo essere caotica (Esempio 4.21 e Teorema 4.30). Verifichiamo la coniugazione tra Nx2 +1 e D: (cos (x/2))2 − (sin (x/2))2 (cot (x/2))2 − 1 = = 2 cot (x/2) 2 sin (x/2) cos (x/2) cos x = = cot x = τ (D (x)) . sin x
Nx2 +1 (τ (x)) =
4.7 Sistemi dinamici discreti nel campo complesso
177
Le tesi formulate per la dinamica di Np si ottengono da quelle relative alla dinamica di Nq mediante il Lemma 4.60.
Il risultato precedente `e in realt` a un caso particolare del seguente teorema in cui i coefficienti a, b, c del polinomio p sono generici numeri complessi, con a non banale. Teorema 4.62. Siano a, b, c ∈ C ed a = 0. Se il polinomio p (z) = az 2 +bz +c ha due radici distinte z1 , z2 , allora il s.d.d. { C\ {(z1 + z2 ) /2} , Np }
con
Np (z) =
az 2 − c 2az + b
`e caotico sulla retta r perpendicolare al segmento di estremi z1 , z2 e passante per il punto medio (z1 + z2 ) /2. Inoltre tale retta r separa due semipiani aperti che sono i bacini di attrazione di z1 e z2 (stabili e superattrattivi). Se il polinomio p (z) = az 2 + bz + c ha una sola radice, allora tutti i punti di C sono nel bacino di attrazione di tale radice che risulta globalmente asintoticamente stabile.
z1
r z2
Figura 4.30 Il bacino di z1 `e ombreggiato, quello di z2 `e bianco Prova. Per il Lemma 4.60, nel primo caso p `e topologicamente coniugato in C a z 2 − 1 mediante una trasformazione lineare del piano complesso che trasforma z1 e z2 rispettivamente in −1 e +1, nel secondo caso, Np `e topologicamente coniugato in C a Nz 2 . La tesi segue dunque dal Teorema 4.42.
Osservazione 4.63. L’informazione relativa ai bacini di attrazione risale ad Arthur Cayley9 (1879), mentre la descrizione della dinamica su r `e molto pi` u recente. 9
Arthur Cayley, 1821-1895.
178
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Finora siamo stati intenzionalmente vaghi nella descrizione del s.d.d. associato ad Np con p polinomio di secondo grado: anche se Np `e definito in ogni z ∈ C diverso da (z1 + z2 ) /2 = −b/2a tuttavia esiste una infinit` a di valori complessi a partire dai quali le iterazioni di Np non generano una successione. Infatti, az 2 − c se p (z) = az 2 + bz + c, allora Np (z) = e, 2az + b • se b2 − 4ac = 0, allora Np (z) = z/2 e {C\ {0} , Np } `e un s.d.d. ben definito; • se b2 − 4ac = 0, vi sono una infinit` a di punti (insieme che denotiamo con Z) contenuti nella retta r perpendicolare al segmento [z1 , z2 ] nel suo punto medio, a partire dai quali le iterate di Np portano al valore vietato −b/2a in un numero finito di passi; dunque in tale caso il s.d.d. definito correttamente `e {C\Z , Np }. Per provarlo basta studiare il caso p (z) = z 2 + 1, z1,2 = ±i (il caso genesegue rico per coniugazione topologica): in questo semplice caso Np (z) != z 2 − 1 /2z e risolvendo in z l’equazione z ∈ C : w = z 2 − 1 /2z si √ ottengono i due rami di Np−1 : Np−1 (w) = w ± w 2 + 1. Cos`ı Z `e l’insieme di tutti i valori che si ottengono iterando Np−1 a partire da 0: √ √ ϕj1 ◦ϕj2 ◦· · ·◦ϕjk (0), jk = 1, 2, ϕ1 (z) = z+ z 2 + 1, ϕ2 (z) = z− z 2 + 1. In tal modo `e immediato dedurre che Z `e infinito e contenuto in R (ϕ1 `e strettamente monot`ona). Esempio 4.64. Sia p (z) = z 3 − 1. Allora Np (z) = 2z 3 + 1 /3z 2 , i cui punti fissi localmente attrattivi sono 1, e2πi/3 , e4πi/3 . Si provi ad effettuare un esperimento numerico con un computer: scelta una griglia di punti nella regione quadrata di vertici (±1 ± i) 9/5, a partire da ciascuno di tali punti si calcoli il valore delle prime 60 iterazioni di Np ; per la superattrattivit` a, se |X60 − 1| < 1/4 `e ragionevole supporre che X sia nel bacino di attrazione 0 di 1 e decidiamo di colorarlo in grigio, se X60 − e2πi/3 < 1/4 `e ragionevole di attrazione di e2πi/3 e decidiamo di colorarlo supporre che X0 sia nel bacino 4πi/3 in nero, se X60 − e < 1/4 `e ragionevole supporre che X0 sia nel bacino di attrazione di e4πi/3 e decidiamo di colorarlo in bianco. Se le risorse di calcolo lo consentono, senza rendere eccessivamente lunghi i tempi di attesa, si sostituisca 60 con 100. Qualche commento su come sono stati ottenuti i diagrammi: la Figura 4.31 rappresenta i bacini di attrazione delle tre radici complesse di 1 rispetto alla dinamica di Nz3 −1 . Nei punti di una griglia 200 × 200 collocata nel quadrato del piano complesso {z ∈ C : |Re (z)| ≤ 2, |Im (z)| ≤ 2} si calcolano le iterate di Nz3 −1 fino a che si ottiene un valore che differisce meno di 0, 5 da una delle tre radici complesse dell’unit` a (1, exp 2πi/3, exp 4πi/3). Quando `e soddisfatto tale test di prossimit` a si arrestano i calcoli e si assegna un colore convenzionale: grigio in prossimit` a ad 1, nero in prossimit` a ad exp (2πi/3), bianco in prossimit` a ad exp (4πi/3).
4.7 Sistemi dinamici discreti nel campo complesso
179
Figura 4.31 Dinamica del Metodo di Newton relativa a f (z) = z 3 − 1: bacini di a di grigio 1, e2πi/3 , e4πi/3 denotati con varie tonalit`
La Figura 4.32 illustra mediante diverse tonalit` a di grigio i bacini di attrazione per il metodo di Newton Nzn −1 quando n varia da 1 a 12. L’algoritmo `e pi` u raffinato del precedente ed utilizza delle routine di calcolo interne al Mathematica versione 4.1: per ciascun punto della griglia in {z ∈ C : |Re (z)| ≤ 1, 3 , |Im (z)| ≤ 1, 3} si calcolano 35 iterazioni (ricordiamo che tutti gli zeri sono semplici e dunque superattrattivi) poi si attribuisce un valore all’argomento del numero complesso ottenuto (che sar` a praticamente indistinguibile dall’argomento dell’attrattore corrispondente). Esaminiamo comparativamente i vari casi della Figura 4.32. Se n = 1 allora z = 1 `e globalmente asintoticamente stabile e la dinamica `e particolarmente semplice (ricordiamo che Nz−1 (z) = 1). Tutte le traiettorie sono definitivamente costanti. Se n = 2, si conferma quanto detto in precedenza nello studio dettagliato di Nz2 −1 . Ricordiamo che la frontiera (o bordo) dei due bacini pur essendo geometricamente banale (`e una retta), `e sede di una dinamica caotica e contiene un insieme infinito e denso a partire dal quale le traiettorie sono definite solo per un numero finito di passi.
180
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Figura 4.32 Bacini di attrazione in C delle radici n-esime complesse dell’unit` a per la dinamica associata al metodo di Newton Nz n −1 con n = 1, . . . , 12
Quando si passa ad n ≥ 3 la situazione si complica moltissimo: tutti i bacini hanno una frontiera (comune a ognuno di essi) che necessariamente (essendo n > 2) `e un oggetto topologicamente complicato, che presenta molte propriet`a di simmetria e autosimilarit` a, ma non `e un oggetto geometrico elementare. La Figura 4.32 suggerisce una ricchezza di propriet` a delle frontiere che non `e possibile visualizzare graficamente nei dettagli. Osserviamo che se il bordo che separa i bacini di attrazione non `e una curva nel senso elementare abbiamo una manifestazione di comportamento caotico o quantomeno poco prevedibile, di tipo nuovo; la competizione tra pi` u attrattori pu` o determinare l’esistenza di regioni di tipo frattale di dimensione maggiore di 1 nelle quali si ha una dipendenza sensibile dallo stato iniziale: collocando lo stato inziale X0 nel bordo di un bacino di attrazione, ci si trova automaticamente sul bordo di tutti gli n bacini10. Inoltre la ramificazione di tale bordo rende problematiche le previsioni sulla dinamica asintotica per un generico dato iniziale, a meno di non esssere ben all’interno di un bacino.
10 Ricordiamo che z appartiene al bordo dell’insieme E ⊂ C se per ogni r > 0 esistono w ∈ E e u ∈ C\E tali che |z − w| < r e |z − u| < r. Dunque z nel bordo di tutti i bacini significa che per ogni r > 0 esistono w1 , . . . , wn tali che |z − wj | < r ed ogni wj `e nel bacino della j-esima radice complessa di 1.
4.7 Sistemi dinamici discreti nel campo complesso
181
Nel caso di polinomi p di terzo grado, la dinamica in C di Np `e estremamente complessa ed al tempo stesso ricca di strutture topologicamente ed esteticamente interessanti. Concludiamo con lo studio qualitativo di alcuni altri esempi di dinamica complessa. Ci limitiamo alle dinamiche generate da polinomi, perch´e non presentano problemi di dominio, essendo trasformazioni di tutto C in s`e stesso. Esempio 4.65. Sia f (z) = az, a ∈ C. La moltiplicazione per il numero complesso a corrisponde ad una rotazione del piano complesso di angolo pari all’argomento θ di a composta con una omotetia pari al modulo |a| di a: a = |a| (cos θ + i sin θ) = |a| eiθ
θ ∈ [0, 2π) .
Dunque tutte le traiettorie di {C, az} sono del tipo Xk = ak X0 . Il disegno seguente evidenzia i primi passi di alcune traiettorie di {C, az} di punto iniziale X0 = 1. a = (8/7) (cos π/6 + i sin π/6)
8 a= _ 7
æ
( ÷ _23 + _2i )
a = (7/8) (cos π/6 + i sin π/6)
7 a= _ 8
æ
( ÷ _23 + _2i )
Figura 4.33 Traiettorie a spirale del s.d.d. {C, az} : convergenti se |a| < 1 , divergenti se |a| > 1
Dunque: • se |a| < 1, allora 0 `e l’unico equilibrio di {C, az} ed esso `e anche globalmente asintoticamente stabile; • se |a| > 1, allora 0 `e ancora l’unico equilibrio, ma in tal caso `e repulsivo; • se a = 1, allora tutti i punti di C sono equilibri e tutte le traiettorie sono costanti; • se |a| = 1 ma a = 1, allora 0 `e nuovamente l’unico equilibrio, stabile ma non attrattivo: le traiettorie ruotano attorno all’origine; sono tutte periodiche
182
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
se l’argomento di a `e un sottomultiplo di 2π, in caso contrario non esistono orbite periodiche. Osserviamo che restringendo il dominio di f alla circonferenza unitaria S = {z ∈ C : |z| = 1}, il s.d.d. {S, az} con |a| = 1 e a = 1, `e topologicamente transitivo e manifesta dipendenza sensibile dai dati iniziali. Pi` u interessante `e la dinamica generata in C dai polinomi quadratici. ! Esempio 4.66. Il s.d.d. C, z 2 ha due equilibri, 0 e 1. 0 `e localmente asintoticamente stabile e il suo bacino `e {z ∈ C : |z| < 1}. 1 `e repulsivo. Tutti i punti z di modulo unitario e diversi da 1 sono valori iniziali di traiettorie che ruotano sulla circonferenza di raggio 1. Tutti i punti z ∈ C tali che |z| > 1 sono valori iniziali di traiettorie che divergono all’infinito: Xk+1 = Xk2 ,
|X0 | > 1
⇒
lim |Xk | = +∞ k
Come nell’esempio precedente, tutti i polinomi quadratici az 2 + bz + c presentano l’alternativa tra i dati iniziali le cui traiettorie sono divergenti e quelli le cui traiettorie rimangono limitate. 2 Esercizio 4.31. Dato il polinomio k q (z) = z + c, con c, z ∈ C, provare che se |z| > |c| % + 1 allora& limk q (z) = +∞ e di conseguenza per ogni traiettoria del s.d.d. C, z 2 + c vale l’alternativa: `e divergente oppure `e contenuta nel disco {z ∈ C : |z| ≤ |c| + 1}.
L’esercizio precedente potrebbe far pensare che la dinamica del sistema di! namico C, z 2 + c sia relativamente semplice. In realt`a, se c = 0, allora il bordo che separa i due insiemi di dati iniziali in cui le traiettorie divergono o rimangono limitate hanno una struttura molto complicata che prende il nome di insieme di Julia, dal nome del matematico francese Gaston Julia (18931978) che ne ha studiato le propriet` a assai prima che l’avvento dei computers ne consentisse un’efficace visualizzazione mediante simulazioni numeriche. Si dice insieme pieno di Julia e!si denota con Kc l’insieme dei punti iniziali di traiettorie del s.d.d. C, z 2 + c che rimangono limitate. Dunque l’insieme di Julia `e il bordo dell’insieme pieno di Julia. Per effettuare simulazioni numeriche `e utile sfruttare il seguente risultato generale che contiene il Teorema 4.18. Teorema 4.67. Se un polinomio p complesso ha un’orbita periodica attrattiva allora nel bacino dell’orbita vi deve essere almeno uno zero della derivata di p. Questo risultato suggerisce, per trovare le orbite periodiche di q (z) = z 2 + c, di iterare a partire da X0 = 0. Inoltre assicura che di orbite periodiche e stabili ve ne `e al pi` u una. Accenniamo brevemente ai sistemi dinamici di ordine superiore al primo nel campo complesso.
4.7 Sistemi dinamici discreti nel campo complesso 2
2
1
1
0
0
-1
-1
-2 -2
-1
0
1
2
-2 -2
2
2
1
1
0
0
-1
-1
-2 -2
-1
0
1
2
-2 -2
2
2
1
1
0
0
-1
-1
-2 -2
-1
0
1
2
-2 -2
183
-1
0
1
2
-1
0
1
2
-1
0
1
2
Figura 4.34 Insiemi pieni di Julia Kc , c = 0; c = 0, 01 + 0, 4i; c = −1; c = −0, 7 + 0, 2i; c = −0, 09 + 0, 7i; c = −0, 41 + 0, 59i
184
4 Complessit` a dei sistemi dinamici non lineari: biforcazioni e caos
Definizione 4.68. Se I `e un qualunque sottoinsieme di C ed F : I ×I ×···×I → I n termini
`e una funzione continua, la coppia {I n , F } `e detta sistema dinamico discreto su I, di ordine n, autonomo, in forma normale. Ad un s.d.d. di ordine n `e associato un sistema di infinite equazioni della forma Xk+n = F (Xk+n−1 , Xk+n−2, . . . , Xk ) k ∈ N. (4.5) Ogni n-upla di condizioni iniziali {X0 , X1 , . . . , Xn−1} determina in modo unico la successione che risolve (4.5), che `e detta traiettoria del s.d.d. corrispondente alla n-upla di condizioni iniziali. Esempio 4.69. Sia F : C × C → C definita da F (z, w) = z + w. Si ottiene: Xk+2 = Xk+1 + Xk cio`e la definizione ricorsiva che, con i dati iniziali X0 = 0 e X1 = 1 genera i numeri di Fibonacci, e, per una generica coppia di numeri complessi X0 e X1 genera la successione $ $ √ %n √ %n √ 1+ 5 √ 1− 5 1 1 √ 2X1 − 1 − 5 X0 + √ 2X1 + 1 + 5 X0 . 2 2 2 5 2 5
5 Sistemi dinamici discreti: equazioni vettoriali
In questo capitolo consideriamo l’evoluzione a tempi discreti di quantit` a vettoriali, anzich´e scalari. Ci limitiamo allo studio di leggi lineari (o lineari affini) ad un passo, che descrivono le variazioni di tali quantit` a a passi successivi. Sono discusse alcune applicazioni a modelli della demografia e della genetica. Per una buona comprensione di questo capitolo `e opportuno conoscere alcuni risultati elementari di algebra lineare che, per completezza, sono riportati in Appendice D.
5.1 Definizioni e notazione Consideriamo un semplice esempio: il modello di Leslie (si veda l’Esempio 1.16) per una popolazione X divisa in classi di et` a disgiunte e di ampiezza uguale al passo temporale; per semplicit`a consideriamo solo tre classi d’et`a, in ordine progressivo di anzianit` a. A, B e C denotano le tre corrispondenti successioni scalari A = {Ak }
B = {Bk }
C = {Ck }
a al dove Ak , Bk e Ck indicano la consistenza numerica di ciascuna classe d’et` T tempo k. Con X indichiamo il vettore a tre componenti X = A B C . Se indichiamo con a, b, c i tassi di natalit` a, rispettivamente nelle classi A, B, C, e con α, β e γ i tassi di mortalit`a delle classi A, B e C, si ottiene il sistema che descrive l’evoluzione della popolazione. Per semplicit` a, supporremo γ = 1 (il che equivale a dire che gli individui della classe C non hanno speranza di vita superiore ad un intervallo temporale): ⎧ ⎨ Ak+1 = aAk + bBk + cCk Bk+1 = (1 − α) Ak ⎩ Ck+1 = (1 − β) Bk Con notazione vettoriale, otteniamo la legge ricorsiva Salinelli E , Tomarelli F : Modelli dinamici discreti, 2a edizione. c Springer-Verlag Italia 2009, Milano
186
5 Sistemi dinamici discreti: equazioni vettoriali
Xk+1 = M Xk (5.1) avendo posto
⎡
⎤ Ak Xk = ⎣ Bk ⎦ Ck
⎡
⎤ a b c M = ⎣1 − α 0 0⎦. 0 1−β 0
` immediato esprimere in forma chiusa (provarlo per induzione) il termine E generale di (5.1) Xk = Mk X0
∀k ∈ N
k volte
dove M = M · M· · · · · M ed M · M `e l’usuale prodotto righe per colonne. Tuttavia, nonostante la conoscenza esplicita (non ricorsiva) della successione X, rimane un problema di calcolo: infatti, la moltiplicazione fra matrici `e una operazione lunga anche se effettuata con procedure di calcolo automatico, e deve essere effettuata anche per valori grandi di k. Ad esempio, sapere che al tempo 50 risulta X50 = M50 X0 , non d` a molta informazione sulla suddivisione in classi di et`a della popolazione X50 , a meno di non calcolare effettivamente M50 . Nella pratica anche la dimensione della matrice M `e ben maggiore di tre, il che aumenta in modo sostanziale la complessit`a computazionale del problema. Un poco di algebra lineare pu` o per` o fornire molte informazioni qualitative su Mk X0 , anche senza effettuare il calcolo esatto, o ridurre la complessit`a computazionale se la matrice ha una particolare struttura (come in effetti avviene nel caso del modello di Leslie). k
Ricordiamo due importanti definizioni di algebra lineare (rinviamo all’Appendice D per ulteriori dettagli). Definizione 5.1. Sia M una matrice quadrata di ordine n. Si dicono autovalori di M le radici (nel piano complesso C) del suo polinomio caratteristico P (λ) = det (M − λI) : {λ ∈ C : P (λ) = 0} . Per il Teorema fondamentale dell’Algebra, una matrice M di ordine n ha esattamente n autovalori nel campo complesso (purch´e si contino con la stessa molteplicit` a delle radici di P (λ)). Definizione 5.2. Un vettore V ∈ Rn \ {0} si dice autovettore della matrice quadrata M di ordine n se esiste un numero complesso λ tale che MV = λV.
5.2 Applicazioni alla genetica
187
In tal caso λ `e necessariamente un autovalore della matrice M (associato all’autovettore V). Se `e possibile determinare n autovettori linearmente indipendenti V1 , . . . , Vn , di una matrice M, di ordine n, allora1 V1 , . . . , Vn formano una base di Rn ; pertanto ogni vettore W ∈ Rn pu` o essere rappresentato (in modo unico) mediante tale base come W = c1 V 1 + c 2 V 2 + · · · + c n V n
(5.2)
e questo consente, in tali ipotesi, un semplice calcolo2 dell’espressione Mk W: Mk W = Mk c1 V1 + c2 V2 + · · · + cn Vn = c1 λk1 V1 + · · · + cn λkn Vn (5.3) ove λj `e l’autovalore associato a Vj , j = 1, 2, . . . , n. Qualora non vi siano n autovettori linearmente indipendenti l’esplicitazione di Mk W `e pi` u tecnica (si veda l’Osservazione 5.9). Nel seguito, analogamente al caso scalare, chiameremo orbita o traiettoria una qualsiasi successione di vettori {Xk } che risolve il sistema (5.1). Esercizio 5.1. Determinare, nei vari casi, la soluzione esplicita del s.d.d. vettoriale Xk+1 = M Xk con il dato iniziale X0 : ⎡ ⎤ 0 1 1 0 0 2 3T 2 3T 13 ; 2) M = ⎣ 2 −1 0 ⎦ , X0 = 4 −1 0 ; 1) M = , X0 = 1 2 02 3 −2 −3 ⎡ ⎤ 1 0 −1 2√ 3T 2 − 1 3 −1 . 3) M = ⎣ 0 −1 0 ⎦ , X0 = −1 0 −1
5.2 Applicazioni alla genetica Le caratteristiche dei singoli individui di una specie biologica sono determinate dai geni ereditati dai genitori. Quando un determinato gene G presenta due sole forme dette alleli (allele G e allele g), ogni individuo ereditando un allele da ciascun genitore, pu` o avere nel suo patrimonio genetico quattro tipi di coppie di alleli del gene G: (G, G), (g, g), (G, g), (g, G). I primi due tipi sono detti omozigoti, gli altri eterozigoti. 1
Questo non `e sempre vero, tuttavia questa ipotesi `e verificata in molti casi; ad esempio, se M `e una matrice simmetrica: Mij = Mji , ∀i, j, o se gli autovalori di M sono tutti semplici. 2 Ricordiamo che se λ `e autovalore di una matrice quadrata S con autovettore associato V = 0, allora λk `e autovalore di Sk con autovettore associato V.
188
5 Sistemi dinamici discreti: equazioni vettoriali
Consideriamo, per semplicit`a, il caso in cui l’ordine degli alleli non ha influenza, cio`e consideriamo indistinguibili (G, g) e (g, G). Dunque, abbiamo tre tipi di individui relativamente alle caratteristiche determinate dal gene G: due omozigoti (G, G), (g, g) e un eterozigote (G, g). Legge di Hardy -Weinberg Supponiamo che due geni allelomorfi G e g siano presenti nella popolazione in proporzioni rispettivamente p e q con p, q ∈ [0, 1] e p + q = 1 e che 1) non vi siano mutazioni da G a g o viceversa; 2) nessuno degli individui (G, G), (g, g) o (G, g) sia avvantaggiato rispetto agli altri e gli accoppiamenti avvengano in modo casuale; 3) il numero di individui della popolazione sia molto grande; 4) non vi siano immigrazioni di geni G o g per effetto di incroci con popolazioni contigue. Allora le proporzioni dei due alleli rimangono invariate nelle generazioni successive. Inoltre, le proporzioni di individui rispettivamente G omozigoti, g omozigoti ed eterozigoti sono, a partire dalla prima generazione, p2 , q 2 e 2pq. Ad esempio, se G determina la colorazione cutanea ed `e recessivo3 , mentre g impedisce la formazione del pigmento (gene dell’albinismo), supponendo alla generazione 0 che le percentuali dei due alleli siano rispettivamente 99, 9% e 0, 1% (cio`e p = 0, 999 e q = 0, 001), allora tali percentuali si conservano inalterate nelle generazioni successive. Inoltre, a partire dalla generazione 1 vi `e una frazione q 2 = 0, 000001 pari allo 0, 0001% (un individuo su un milione) di individui albini omozigoti e vi `e una frazione 2pq = 0, 001998 cio`e lo 0, 1998% di albini eterozigoti (complessivamente in tale situazione quasi due individui su mille sono albini). Osservazione 5.3. Si noti che nella pratica si pone il problema inverso: si osserva la popolazione e si deduce, tramite la legge di Hardy-Weinberg la frequenza di ciascuno dei due geni. Osservazione 5.4. Le ipotesi 1) - 4) nella legge di Hardy-Weinberg corrispondono alla stabilit` a (assenza di evoluzione); se una o pi` u fra esse vengono meno si hanno spinte evolutive: • [non 1)] mutazioni g → G o viceversa; • [non 2)] vantaggio di individui con una determinata composizione genetica (migliore fitness) e conseguente selezione naturale; • [non 3)] limitazione numerica della popolazione; • [non 4)] migrazione dei geni da popolazioni contigue. 3
Se un individuo eterozigote (G, g) presenta le qualit` a corrispondenti al gene G, allora G si dice dominante, se presenta quelle legate al gene g, allora G si dice recessivo.
5.2 Applicazioni alla genetica
189
Prova. (della legge di Hardy-Weinberg) Non `e necessario conoscere P0 cio`e p al tempo 0 (Q0 , cio`e q al tempo 0, si deduce da Q0 = 1 − P0 ), n´e il numero di maschi o femmine. Scriviamo un s.d.d. del primo ordine per Pk cio`e esprimiamo Pk+1 in funzione del valore di Pk . Siano, nella generazione k, M ed F rispettivamente i numeri (incogniti) di maschi e di femmine. Siano, nella generazione k + 1: A a b N
la proporzione di omozigoti (G, G) la proporzione di omozigoti (g, g) la proporzione di eterozigoti (G, g) il numero totale di individui.
Un individuo (G, G) riceve due alleli G dai genitori della generazione k (uno da ciascun genitore) e vi sono (Pk M ) (Pk F ) possibili modi di riceverli dalle diverse possibili coppie di genitori M F . Dunque la frazione di omozigoti (G, G) `e A=
(Pk M ) (Pk F ) = Pk2 . MF
Corrispondentemente, vi sono Pk2 N individui omozigoti (G, G) nella generazione k + 1 ed essi hanno complessivamente 2Pk2 N alleli G. Analogamente, sempre nella generazione k + 1, vi `e una frazione 2Pk (1 − Pk ) di individui eterozigoti, cio`e vi sono 2Pk (1 − Pk ) N individui eterozigoti, ed essi hanno in totale 2Pk (1 − Pk ) N alleli G e 2Pk (1 − Pk ) N alleli g. La popolazione ha complessivamente 2Pk2 + 2Pk (1 − Pk ) N = 2Pk N alleli G (gli omozigoti (g, g) non ne hanno), mentre il totale di alleli `e 2N . Dunque la frazione Pk+1 di alleli G nella k + 1 generazione `e 2N Pk = Pk Pk+1 = 2N cio`e Pk `e costante in k: Pk = P0 = p per ogni k, e per sostituzione • gli individui G omozigoti nella generazione k + 1 sono p2 N , cio`e la frazione 2 p del totale; • gli individui g eterozigoti nella generazione k + 1 sono 2pqN , cio`e la frazione 2pq del totale; • gli individui g omozigoti nella generazione k + 1 sono q2 N , cio`e la frazione q2 del totale.
La legge di Hardy-Weinberg spiega perch´e gli alleli recessivi non scompaiono dalla popolazione. Supponiamo ora, a differenza delle ipotesi precedenti, che venga meno la condizione 2: ad esempio, gli omozigoti (g, g) sono sterili o muoiono prima della maturit` a sessuale e g `e recessivo. Allora G ha un vantaggio selettivo e g `e un gene letale (bench´e recessivo). Principio di selezione Se gli individui omozigoti (g, g) non si riproducono, mentre gli eterozigoti e gli omozigoti (G, G) si riproducono normalmente, allora la frazione di g alleli nella generazione k-esima `e dato (in assenza di mutazioni) da
190
5 Sistemi dinamici discreti: equazioni vettoriali
Qk =
Q0 1 + kQ0
dove Q0 `e la frazione iniziale. Dunque l’allele letale g tende ad estinguersi (sia pur lentamente). Prova. Siano come nel caso precedente Pk2 , 2Pk Qk e (1 − Pk )2 le proporzioni di (G, G), (G, g) , (g, g) della popolazione alla (k + 1)-esima generazione, composta da N individui. Ci interessa la frazione di alleli recessivi g presenti nella popolazione che giunger` a a riprodursi, cio`e 2 Pk + 2Pk (1 − Pk ) N = Pk (1 + Qk ) N . Essi hanno 2Pk (1 + Qk ) N alleli in totale. Ma l’allele g `e presente solo negli eterozigoti, cio`e ve ne sono 2Pk Qk N , dunque la frazione di alleli g nella popolazione della (k + 1)-esima generazione che giunge a riprodursi `e: Qk+1 =
2Pk Qk N Qk . = 2Pk (1 + Qk ) N 1 + Qk
Otteniamo cos`ı un s.d.d. non lineare del primo ordine Qk+1 = f (Qk ) con f funzione di Moebius (si veda il paragrafo 2.7 ed in particolare l’Esempio 2.68). Con la otteniamo la soluzione esplicita sostituzione Wk = Q−1 k Qk =
Q0 . 1 + kQ0
` opportuno fare qualche considerazione sul principio di selezione. Abbiamo E gi` a osservato che la frazione di g alleli tende a zero, ma lentamente: se, ad esempio, nella popolazione iniziale vi `e solo l’1% di tali alleli, cio`e Q0 = 0, 01 allora Q1 = 1/101 = 0, 0099009901 ossia Q1 non `e molto diverso da Q0 ; per Q0 Q0 dimezzare la frazione iniziale (Qk = Q0 /2) occorre risolvere = 2 1 + kQ0 dunque k = 1/Q0 = 100 , cio`e occorrono 100 generazioni (circa 2500 anni per una popolazione umana). Il principio di selezione `e attivo in natura nei casi in cui gli omozigoti (g, g) sono sterili mentre gli eterozigoti e gli omozigoti (G, G) non lo sono. Vi `e chi ha pensato di applicare il principio di selezione alla specie umana nel caso di alleli non letali e che non impediscono la riproduzione, ma corrispondono a caratteristiche fisiche o mentali non desiderate in determinati contesti culturali, cercando di simulare l’effetto descritto con prescrizioni sociali (eugenetica negativa): divieto di avere figli e perfino soppressione della prole, con l’intento di eliminare dalla popolazione il tratto non desiderato (se l’allele g `e recessivo tale “forzatura” sociale ovviamente poteva essere esercitata solo sugli omozigoti (g, g) prima che vi fosse la possibilit` a di determinare il corredo genetico). A prescindere da considerazioni etiche, e dalla soggettivit` a con cui possono essere considerate non desiderabili determinate caratteristiche degli individui, le considerazioni quantitative precedenti illustrano il motivo della totale inefficacia della eugenetica negativa sulla popolazione umana: la
5.2 Applicazioni alla genetica
191
lentezza dell’effetto `e tale da rendere certa una variazione dei “gusti” sulle caratteristiche desiderate prima che gli effetti risultino rilevanti. A questo bisogna aggiungere che sul lungo periodo l’ipotesi di assenza di mutazioni `e assai debole. Infine, la differenza biologica `e sempre una ricchezza e, in particolare la variet` a genetica in una specie va preservata perch´e spesso, caratteri apparentemente insignificanti (e relativamente poco diffusi) si rivelano sorprendentemente abbinati a maggiori resistenze a determinate patologie. Esaminiamo infine gli effetti di una mutazione senza vantaggio selettivo; supporremo che nessuno dei due alleli sia dominante e che la probabilit` a di riprodursi degli individui non dipenda dall’allele. Siano Pk e Qk rispettivamente la frazione di alleli G e g nella popolazione alla generazione k prima della mutazione. In assenza di mutazione, avremmo Pk+1 = Pk e Qk+1 = Qk per la legge di Hardy-Weinberg. Assumiamo invece che una frazione s ∈ (0, 1) di alleli G muti in alleli g prima della riproduzione. Ripetendo l’argomento della prova di Hardy-Weinberg, otteniamo: Pk+1 = (1 − s) Pk
∀k
k
Pk = (1 − s) P0 Riassumendo, abbiamo ottenuto il Principio di mutazione Se 1) la frazione di alleli G che mutano in g `e s ∈ (0, 1) e non vi `e mutazione di g in G; 2) nessuno degli individui (G, G), (g, g) o (G, g) `e avvantaggiato rispetto agli altri e gli accoppiamenti avvengono in modo casuale; 3) il numero di individui della popolazione `e molto grande; 4) non vi sono immigrazioni di geni G o g per effetto di incroci con popolazioni contigue allora la proporzione di G alleli nella k-esima generazione `e k
Pk = (1 − s) P0 . Osserviamo che Pk tende a zero ma non cos`ı rapidamente come potrebbe sembrare, perch´e s `e in generale piccolo. Le variazioni sono pi` u rapide se le generazioni hanno breve durata temporale, come nel caso di alcuni batteri. Osservazione 5.5. Nei tre esempi precedenti si `e dedotta l’evoluzione del vet T tore Pk Qk dallo studio della quantit` a scalare Pk , sfruttando la semplice ed esplicita relazione tra Pk e Qk : Pk + Qk = 1. Esempio 5.6. (Geni legati al sesso) Le caratteristiche dei singoli individui (dette fenotipi ) sono determinate dalle caratteristiche genetiche (dette genotipi ). Molti fenotipi sono determinati da coppie di geni, detti alleli. Se un allele
192
5 Sistemi dinamici discreti: equazioni vettoriali
a `e dominante mentre l’altro allele `e recessivo, allora un individuo presenta il carattere recessivo α se e solo se entrambi gli alleli della corrispondente coppia nel suo corredo cromosomico sono recessivi: sono cio`e (α, α). Per taluni caratteri le donne hanno una coppia di alleli, mentre gli uomini ne hanno uno solo (ereditato dalla madre): questi caratteri sono detti caratteri legati al sesso. Daltonismo ed emofilia sono esempi (che comportano svantaggi, pur non essendo letali) di tali caratteri legati al sesso. Pertanto, se un uomo eredita l’allele a, presenter` a il fenotipo dominante (a), se eredita l’allele α, presenter` a il fenotipo recessivo (α). Poich´e gli alleli che corrispondono al daltonismo o all’emofilia sono entrambi recessivi, vedremo nel seguito come sia molto pi` u probabile che tali fenotipi (caratteri legati al sesso) si manifestino nell’uomo che nella donna. Da una coppia costituita da una donna di genotipo (a, α) ed un uomo (a) (entrambi non affetti dalla malattia, perch´e a `e dominante), un eventuale figlio maschio erediter`a al 50% l’allele a o l’allele α dalla madre, e dunque ha il 50% di probabilit` a di essere di genotipo (α), cio`e di presentare manifestamente la malattia (fenotipo α); una eventuale figlia femmina avr` a con pari probabilit` a uno dei due genotipi (a, a) o (a, α) e in ogni caso non manifester` a la malattia (nel secondo caso, sar`a portatrice sana). Vogliamo studiare l’andamento del carattere nell’arco di pi` u generazioni. Limitatamente alla popolazione femminile nella generazione k, siano Pk la proporzione di a alleli e Qk = 1 − Pk la proporzione di α alleli . Analogamente, siano Pk e Qk le corrispondenti frazioni (con Pk + Qk = 1) nella popolazione maschile alla generazione k-esima. Siano, rispettivamente, u, v, w le frazioni nella popolazione femminile alla generazione (k + 1)-esima di omozigoti dominanti (a, a), eterozigoti (a, α) ed omozigoti recessivi (α, α). Si deduce ⎧ ⎨ u = P k Pk v = P k Qk + Pk Q k ⎩ w = Q k Qk Se vi sono D donne nella generazione (k + 1)-esima, esse avranno complessivamente 2D alleli del tipo in esame. Gli a alleli sono 2uD (dovuti agli omozigoti dominanti) pi` u vD (dovuti agli eterozigoti) cio`e (2u + v) D = D (2Pk Pk + Pk Qk + Pk Qk ) = da Pk +Qk =1=Pk +Qk
= D (Pk Pk + Pk Qk + Pk Pk + Pk Qk ) = = D (Pk + Pk ) . La frazione Pk+1 di a alleli nella popolazione femminile alla (k + 1)-esima generazione `e D (Pk + Pk ) 1 Pk+1 = = (Pk + Pk ) . 2D 2 Venendo agli uomini, che hanno un solo allele, la frazione di essi che possiede l’allele a (rispettivamente α) nella generazione k coincide con la proporzione di
5.2 Applicazioni alla genetica
193
alleli a (rispettivamente α) nella stessa generazione, cio`e Pk (rispettivamente Qk ). Per passare alla frazione di uomini con allele dominante alla generazione k + 1 occorre calcolare la probabilit` a che un uomo erediti l’allele dominante a. Poich´e lo eredita da una donna della generazione k, risulta Pk+1 = Pk
Qk+1 = Qk .
Riassumendo, la frazione di a allele (dominante) tra uomini e donne verifica il sistema dinamico discreto vettoriale ad un passo ⎧ ⎨ Pk+1 = 1 (Pk + Pk ) 2 ⎩ Pk+1 = Pk 1◦ metodo di analisi dell’Esempio 5.6 Per sostituzione, ci riduciamo ad un sistema dinamico discreto scalare a due passi (sostituiamo k +1 a k nella prima equazione, poi utilizziamo la seconda): Pk+2 =
1 1 1 (Pk+1 + Pk+1 ) = Pk+1 + Pk 2 2 2
ossia 2Pk+2 − Pk+1 − Pk = 0 L’equazione caratteristica 2λ2 − λ − 1 = 0 ammette le soluzioni λ1 = 1 e λ2 = −1/2; quindi P k = c1 + c2
1 − 2
k ∀k ∈ N .
Imponendo le condizioni iniziali P0 e P1 ricaviamo poi ⎧ ⎪ ⎨ c1 = P0 + 2P1 P 0 = c1 + c2 3 ⇒ 1 2 ⎪ P 1 = c1 − c2 ⎩ = (P c 2 0 − P1 ) 2 3 Osserviamo che
P0 + 2P1 . 3 Poich´e l’attuale popolazione `e il risultato del succedersi di molte generazioni precedenti, possiamo assumere k grande, e dunque Pk = c1 l’attuale frazione di alleli dominanti nell’attuale popolazione femminile (in questi discorsi il “dato iniziale” `e privo di significato). k−1 Poich´e anche Pk = Pk−1 = c1 + c2 (−1/2) `e prossimo a c1 , possiamo lim Pk = c1 = k
194
5 Sistemi dinamici discreti: equazioni vettoriali
ritenere Pk = c1 sia l’identico valore della frazione di alleli a nella popolazione maschile. Dunque, la frazione di allele dominante a (rispettivamente allele recessivo α) si stabilizza su un valore c1 = r (rispettivamente 1 − r) sia per la popolazione maschile sia per la popolazione femminile. Ne segue che in ciascuna generazione le frazioni di omozigoti dominanti, eterozigoti ed omozigoti recessivi nella popolazione femminile sono, rispettivamente, u = r2
2
v = 2r (1 − r)
w = (1 − r) .
Per un particolare tipo di daltonismo, la frazione di α allele, e corrispondentemente la proporzione di maschi che presentano tale problema visivo risulta circa 1 − r = 0, 01. Invece, la frazione di donne con la stessa patologia `e 2 2 (1 − r) = (0, 01) = 0, 0001. 2◦ metodo di analisi dell’Esempio 5.6 Posto ( ) ( ) P 1/2 1/2 X= M= P 1 0 il vettore frazione di allele dominante delle popolazioni femminile e maschile `e una successione di valori che verifica il sistema dinamico discreto vettoriale Xk+1 = M Xk la cui soluzione `e Xk = Mk X0
T con X0 = P0 P0 . L’equazione caratteristica det (M − λI) = 0, cio`e 2λ2 − λ − 1 = 0 ammette le soluzioni λ1 = 1
λ2 = −1/2 .
Un autovettore V1 relativo a λ1 `e una soluzione del sistema lineare omogeneo (M − λ1 I) V1 = 0 ossia, in componenti ⎧ 1 1 ⎪ ⎨ − V11 + V12 = 0 2 2 ⎪ ⎩ V11 − V12 = 0
⇒
V11 = V12 .
T Scegliamo V1 = 1 1 . Analogamente, un autovettore V2 relativo all’autovalore λ2 risolve il sistema lineare omogeneo (M − λ2 I) V2 = 0 ossia, in componenti
5.2 Applicazioni alla genetica
195
⎧ 1 ⎪ ⎪ ⎨ V11 + 2 V12 = 0 1 ⇒ V11 = − V12 . ⎪ 2 ⎪ ⎩V + 1V = 0 11 12 2 T Scegliamo V2 = −1 2 . Per calcolare Mk X0 , scriviamo dapprima X0 come combinazione lineare di V1 e V2 : c 1 , c2 ∈ R X0 = c1 V1 + c2 V2 (le costanti c1 e c2 esistono e sono uniche); ne segue (vedi la (5.3)) Xk = M X0 = c1 1 V + c2 k
k
1
1 − 2
k V2 .
k
Poich´e lim (−1/2) = 0, si ricava k
( ) 1 lim Xk = c1 V = c1 . 1 k 1
T Dato che Xk = Pk Pk , si riottiene la conclusione che lim Pk = lim Pk = c1 = k
k
1 (P0 + 2P1 ) 3
cio`e dopo molte generazioni, le due frazioni si stabilizzano e sono uguali fra loro. La selezione genetica non elimina completamente le malattie recessive che non risultano letali prima del raggiungimento dell’et` a riproduttiva. Abbiamo gi` a osservato che la diversit`a biologica `e un fatto positivo per il patrimonio genetico di una specie in quanto a volte allo stesso genotipo recessivo si accompagnano pi` u caratteri del fenotipo, solo alcuni dei quali comportano svantaggi biologici. Un esempio classico a tale rigurado `e dato dalla resistenza alla malaria associata alla talassemia o anemia mediterranea. Osservazione 5.7. Il fatto di avere due metodi di analisi (scalare a pi` u passi o vettoriale ad un passo) `e di natura generale. Pi` u precisamente: un’equazione scalare lineare, omogenea, di ordine n Xk+n + an−1 Xk+n−1 + an−2 Xk+n−2 + · · · + a0 Xk = 0
a0 = 0
con assegnate condizioni iniziali X0 , X1 , . . . , Xk−1 , `e equivalente, come si pu`o verificare per semplice sostituzione, al sistema lineare ad un passo Vk+1 = FVk T con dato iniziale V0 = X0 X1 · · · Xk−1 , dove
196
5 Sistemi dinamici discreti: equazioni vettoriali
⎤ 0 ··· 0 ⎢ 0 ··· 0 ⎥ ⎥ ⎢ ⎢ 1 · · · 0 ⎥ ⎥ ⎢ F=⎢ .. . . .. ⎥ ⎢ . . . ⎥ ⎥ ⎢ ⎣ 0 0 0 0 ··· 1 ⎦ −a0 −a1 −a2 −a3 · · · −an−1 ⎡
0 0 0 .. .
1 0 0 .. .
0 1 0 .. .
T Vk = Xk Xk+1 · · · Xk+n−1
Ovviamente, il polinomio caratteristico `e lo stesso (a meno del segno!) e per questo `e indicato con lo stesso nome. F `e detta forma elementare di Frobenius. Viceversa, ogni s.d.d. vettoriale di dimensione n, Vk+1 = MVk , con det M = 0 e tutti gli autovalori della matrice M che hanno molteplicit` a geometrica 1 (non si esclude che alcune molteplicit`a algebriche siano maggiori di 1) pu` o essere trasformato in una “equazione lineare omogenea ad n passi” Zk+n = −
n
bn−j Zk+n−j
(5.4)
j=1
con condizioni iniziali Z0 = W0 Il polinomio
Z1 = W1
...
⎛ P (λ) = (−1)n ⎝λn +
n
Zn−1 = Wn−1 . ⎞ bn−j λn−j ⎠
j=1
`e il polinomio caratteristico di M calcolato in λ ⎡ 0 1 0 0 ⎢ 0 0 1 0 ⎢ ⎢ 0 0 0 1 ⎢ −1 UMU = ⎢ . .. .. .. ⎢ .. . . . ⎢ ⎣ 0 0 0 0 −b0 −b1 −b2 −b3
e W = U V0 dove ⎤ ··· 0 ··· 0 ⎥ ⎥ ··· 0 ⎥ ⎥ .. ⎥ .. . . ⎥ ⎥ ··· 1 ⎦ · · · −bn−1
Si noti che (5.4) `e una vera equazione ad n passi perch´e b0 = (−1)n det M = 0. In presenza di autovalori con molteplicit` a geometrica maggiore di 1 il s.d.d. vettoriale Vk+1 = MVk non `e equivalente ad una singola equazione ad n passi (perch`e ogni matrice in forma elementare di Frobenius ha solo autovalori con molteplicit` a geometrica esattamente uguale a 1), tuttavia il sistema vettoriale si disaccoppia in pi` u equazioni ciascuna delle quali `e equivalente ad una singola equazione a pi` u passi (la somma del numero di passi delle varie equazioni `e uguale ad n). Ci si potrebbe chiedere quale sia il metodo migliore: in realt` a coincidono. Tuttavia, la struttura ad un passo (equazione vettoriale) `e pi` u naturale in molti problemi e in dimensione alta `e pi` u semplice la trattazione diretta del
5.3 Stabilit` a di sistemi dinamici discreti vettoriali lineari
197
sistema vettoriale al fine di ottenere informazioni qualitative sulle soluzioni. In ogni caso, se la dimensione n del vettore `e grande, allora le radici del polinomio caratteristico non sono calcolabili esattamente ma possono essere solo stimate. In generale, non `e per`o vero che un qualsiasi sistema lineare vettoriale ad un passo Vk+1 = MVk sia riconducibile ad una equazione scalare, lineare di ordine n: se n > 1 allora In non `e simile ad una matrice nella forma elementare di Frobenius.
5.3 Stabilit` a di sistemi dinamici discreti vettoriali lineari Torniamo ad esaminare il caso generale del sistema dinamico discreto vettoriale, lineare, omogeneo, ad un passo (di dimensione n): Xk+1 = M Xk
∀k ∈ N
(5.5)
e supponiamo che λj ∈ C, j = 1, 2, . . . , n, siano gli autovalori di M. ` naturale definire equilibrio di (5.5) le soluzioni V ∈ Rn di V = MV, cio`e E gli autovettori di M associati all’autovalore 1 e, ovviamente, l’origine di Rn , che `e sempre un equilibrio perch´e 0 = M 0 per ogni M. Teorema 5.8. Se |λj | < 1 per ogni autovalore λj di M, allora 0 `e l’unico equilibrio del s.d.d. e tutte le soluzioni di (5.5) per qualunque condizione iniziale X0 verificano lim Xk = 0 . k
In tal caso, si dice che l’equilibrio 0 `e stabile ed attrattivo. Prova. Se esiste una base di autovettori Vj di M, allora, per ogni X0 , esistono (e sono uniche) n costanti c1 , . . . , cn tali che X0 =
n
cj V j
j=1 k
k
Xk = M X0 = M
n
cj V
j=1
Cos`ı lim Xk Rn k
j
=
n
cj Mk Vj =
j=1
n
cj λkj Vj .
j=1
4 4 n 4 4 disuguaglianza triangolare 4 k j4 = lim 4 cj λj V 4 ≤ k 4 4 j=1
n 4 4
omogeneit` a della norma 4 k j4 ≤ lim 4cj λj V 4 = k
j=1
n 4 4
4 4 |cj | 4Vj 4 λkj = teorema limite somma = lim k
=
n
j=1
j=1
4 4 4 4 |cj | 4Vj 4 lim |λj |k = 0. k
(5.6)
198
5 Sistemi dinamici discreti: equazioni vettoriali
Se non esiste una base di autovettori, la prova `e pi` u tecnica ma il risultato continua a valere. Si considera una base di Rn associata alla forma canonica di Jordan (Appendice D): tale base `e costituita da autovettori generalizzati; esplicitamente, a algebrica di λj . sono soluzioni di (M − λj In )mj W = 0 dove mj `e la molteplicit` M si decompone come M = S + T, dove S `e diagonale (i termini sulla diagonale sono gli autovalori) e T `e nilpotente, perci` o ST = TS, e si pu` o facilmente esplicitare l’espressione della potenza k-esima di M: Mk = Sk + kSk−1 T +
k (k − 1) k−2 2 T + · · · + kSTk−1 + Tk . S 2
(5.7)
Si noti che nella (5.7), per ogni k, possono essere diversi da O al pi` u i primi n addendi4 .
a
b
0 Figura 5.1 Illustrazione del Teorema 5.8: a)
1 0 1 0, 5 0 0 −0, 5 , b) 0 0, 3 0, 5 0
Dunque, la soluzione Xk si esprime come combinazione lineare finita degli autovettori generalizzati W j a coefficienti dipendenti dalla rappresentazione di X0 nella kh con 0 ≤ h ≤ n. Dunque, anche in quebase di Jordan, moltiplicati per λk−h j sto caso, vale limk→+∞ Xk = 0 per ogni dato iniziale X0 , grazie all’implicazione |λ| < 1 ⇒ lim kn λk = 0. k
Osservazione 5.9. Esplicitando l’argomento della dimostrazione precedente nel caso di matrice M non diagonalizzabile, a partire da (5.7) si pu` o provare che, indicati con Wj,i,r gli autovettori generalizzati di M nella base di Jordan, ove j = 1, . . . , J ; J `e il numero degli autovalori distinti di M ; i = 1, . . . , Jj ; Infatti: Tm = O se m `e la massima dimensione di un sottoblocco di Jordan, e vale m ≤ n.
4
5.3 Stabilit` a di sistemi dinamici discreti vettoriali lineari
199
Jj `e il numero dei sottoblocchi di Jordan relativi all’autovalore λj ; r = 1, . . . , si ; si `e la dimensione dell’i-esimo sottoblocco di Jordan relativo a λj ; Jj si `e la molteplicit` a dell’autovalore λj , mj = i=1
allora da X0 =
Jj si J
cj,i,r Wj,i,r
j=1 i=1 r=1
e
MWj,i,r = λj Wj,i,r + Wj,i,r+1 MWj,i,si = λj Wj,i,si
r < si
si esplicita il termine generale definito da Xk = Mk X0 : Jj si min(si ,k) J k λk−h+1 cj,i,r−h+1 Wj,i,r . Xk = j h − 1 j=1 i=1 r=1 h=1
Tale espressione si riduce alla (5.6) nel caso (diagonalizzabile) in cui vale mj = 1 per ogni j. Senza sviluppare in dettaglio l’analisi qualitativa delle traiettorie corrispondenti alle soluzioni del s.d.d. lineare omogeneno Xk+1 = M Xk , possiamo dire che i modi naturali delle soluzioni (potenze intere dell’autovalore, dalle cui combinazioni lineari vettoriali `e costituita la soluzione generale) hanno un andamento qualitativo che dipende solo dalla posizione del corrispondente autovalore nel piano complesso (in particolare, si ha convergenza a zero se |λ| < 1, divergenza all’infinito se |λ| > 1, mentre |λ| = 1 assicura la limitatezza). Alla luce dell’Osservazione 5.7, la Figura 2.7 fornisce informazioni qualitative anche sui modi naturali del caso vettoriale in esame. Esempio 5.10. Se M `e una matrice di ordine 2 con un solo autovalore λ di molteplicit` a algebrica 2 e geometrica 1, allora M non `e diagonalizzabile. Sia V un autovettore di M di norma 1 e sia U tale che (M − λIn ) U = V ed U = 1. Allora U `e un autovettore generalizzato indipendente da V ed M `e nella forma di Jordan rispetto alla base {V, U}. Infine, se X0 = aV + bU, allora Xk = aλk + bkλk−1 V + bλk U. Analizziamo ora i casi in cui gli autovalori λj non sono strettamente minori di 1 in modulo, ma verificano solo la disuguaglianza |λj | ≤ 1. Osserviamo che gli equilibri sono caratterizzati dalla condizione X = M X e dunque sono tutti gli autovettori dell’eventuale autovalore λ = 1. Limitiamoci, per semplicit` a, al caso n = 2 ed M reale. Nel seguito `e fissato X0 = c1 V1 + c2 V2
200
5 Sistemi dinamici discreti: equazioni vettoriali
dove V1 e V2 sono autovettori generalizzati (in particolare, almeno V2 `e sempre autovettore) di M corrispondenti alla base associata alla forma canonica di Jordan. 1) Se λ1 = 1, |λ2 | < 1, allora tutto lo spazio generato da V1 `e costituito da equilibri e la soluzione `e Xk = c1 V1 + c2 λk2 V2 e poich´e lim λ2k = 0, risulta k
lim Xk = c1 V1 k
dove c1 dipende solo dal valore iniziale. 0 `e un equilibrio stabile ma non attrattivo poich´e le soluzioni possono avere come limite qualunque multiplo di V1 , e tali multipli sono tutti equilibri. Questo `e il caso dell’Esempio 5.6. 2) Se λ1 = −1, |λ2 | < 1, ragionando come sopra, da λk2 → 0 segue k
Xk ∼ c1 (−1) V1 . La traiettoria di Xk approssima una traiettoria 2 periodica che, tramite c1 , dipende da X0 .medskip 3) Se λ1 = 1, λ2 = −1, abbiamo k
Xk = c1 V1 + c2 (−1) V2 cio`e un’orbita di periodo 2 (o 2 ciclo) dipendente, tramite c1 e c2 , da X0 . 4) Se λ1 = a + ib e λ2 = a − ib, a e b numeri reali tali che a2 + b2 = 1, allora esiste θ ∈ [0, 2π) tale che ( M=
) ( ) a −b cos θ − sin θ = . b a sin θ cos θ
M `e dunque una matrice di rotazione (cio`e moltiplicare a sinistra un vettore V ∈ R2 per M significa ruotarlo positivamente di un angolo di θ radianti). Dunque, se θ = 2πk/h con k, h ∈ Z primi fra loro, allora Xk ha un comportamento periodico di periodo |h|, cio`e Xk+l|h| = Xk
∀l ∈ N;
inoltre, Xk = X0 , ∀k ∈ N. Se non esistono tali h, k non si ha periodicit` a, ma comunque tutti gli Xk appartengono alla stessa circonferenza: Xk = X0 , ∀k ∈ N; inoltre si potrebbe provare che in tal caso ogni traiettoria `e densa in questa circonferenza.
5.3 Stabilit` a di sistemi dinamici discreti vettoriali lineari
201
X1
X2
X0 , X6
X3
X5
X4
2 3T Figura 5.2 Esempio di orbita (caso 4) : θ = π/3, X0 = cos (π/6) sin (π/6)
5) Se λ1 = λ2 = 1 ed esistono due autovettori V1 e V2 linearmente indipendenti, allora ∀k ∈ N.
Xk = c1 V1 + c2 V2 = X0
6) Se λ1 = λ2 = −1 ed esistono due autovettori V1 e V2 linearmente indipendenti, allora k
k
k
∀k ∈ N.
Xk = c1 (−1) V1 + c2 (−1) V2 = (−1) X0 7) Se λ1 = λ2 = 1 e
(
10 M= a1
) a = 0 (
allora Mk =
1 0 ka 1
)
e da X0 = c1 V1 +c2 V2 , si ottiene la soluzione seguente, o essere ) illimita( che pu` 0 . ta: Xk = Mk X0 = c1 V1 + c2 V2 + ka c1 V11 + c2 V12 8) Se λ1 = λ2 = −1 e ( M=
) ( ) −1 0 10 = (−1) a −1 −a 1 (
tenendo conto che k
M = (−1) k
10 −ka 1
a = 0 )
da X0 = c1 V1 +c2 V2 si ottiene la soluzione seguente, che pu` o essere illimitata: ) ( 0 k k 1 2 c1 V + c2 V − ka . Xk = M X0 = (−1) c1 V11 + c2 V12
202
5 Sistemi dinamici discreti: equazioni vettoriali
Le conclusioni relative agli ultimi due casi seguono dalla seguente decomposizione M = S + T con S matrice diagonale e T matrice nilpotente; poich´e ST = TS e T2 = O, si dimostra agevolmente (si veda l’Esercizio 5.7) che Mk = Sk + kTSk−1 .
Nodo stabile 0 < l 1 < l 2 < 1
Nodo instabile l 1 > l 2 > 1
Sella 0 < l 1 < 1, l 2 >1
(M diagonale) Nodo 0 < l 1 =l 2 1, allora esistono soluzioni illimitate; ad esempio, con X0 = Vj (autovettore relativo a λj ), si deduce 8 8 Mk X0 = Mk Vj = λkj X0 e lim 8Mk X0 8 = +∞. k
Per avere maggiori informazioni si pu` o studiare Yk = μ−k Xk dove si `e posto μ = maxj |λj | > 1. In tal caso, Yk rientra nei casi studiati in precedenza e si possono dedurre informazioni qualitative sul comportamento di Xk per k “grande”. Nel caso di s.d.d. vettoriali bidimensionali Xk+1 = MXk , con M matrice di ordine 2, `e ancora possibile ricorrere all’analisi grafica per rappresentare le traiettorie. Se ne pu` o dare una rappresentazione prospettica nello spazio a tre dimensioni
204
5 Sistemi dinamici discreti: equazioni vettoriali
(t, X1 , X2 ) come in Figura 5.4a, oppure considerare (Figura 5.4b) le proiezioni sul piano (X1 , X2 ), detto piano delle fasi, come nella Figura 5.3 che sintetizza i risultati dell’analisi precedente X1 X2
t
Figura 5.4. a) grafico di una traiettoria b) una traiettoria nel piano delle fasi Esercizio 5.2. Determinare la soluzione del s.d.d. vettoriale Xk+1 = MXk con 0 1 0 1 0 1 11 10 11 1) M = 2) M = 3) M = 01 01 11
5.4 Matrici strettamente positive e Teorema di Frobenius-Perron In questo paragrafo proviamo un risultato teorico sulle propriet` a algebriche delle matrici con tutti gli elementi positivi. Tale risultato sar` a utile nelle applicazioni demografiche del paragrafo successivo. Un sistema dinamico discreto, lineare positivo `e un sistema Xk+1 = MXk
k∈N
(5.8)
in cui tutte le componenti di Xk sono non negative per ogni valore di k. Questa situazione si verifica, ad esempio, se si parte da un dato X0 a componenti non negative e tutti gli elementi di M sono positivi, ed `e tipica di molte applicazioni economiche, gestionali, demografiche e della teoria dei giochi. Le propriet` a di non negativit` a della matrice M hanno conseguenze profonde ed eleganti; il risultato centrale `e il Teorema di Frobenius-Perron, che assicura che, se mij > 0 per ogni i, j, allora tutte le traiettorie del sistema (5.8) hanno lo stesso comportamento asintotico. Per condurre un’analisi accurata, precisiamo la definizione di positivit` a di una matrice.
5.4 Matrici strettamente positive e Teorema di Frobenius-Perron
205
Definizione 5.11. Una matrice M = [mij ] `e M ≥ O, debolmente positiva o non negativa, se mij ≥ 0 per ogni i, j M > O, positiva, se mij ≥ 0 per ogni i, j e mij > 0 per almeno una coppia di indici i, j M O, strettamente positiva, se mij > 0 per ogni i, j. 5 Analogamente, un vettore V si dice non negativo, positivo o strettamente positivo se, rispettivamente, Vj ≥ 0 per ogni j, V `e non negativo ed esiste j tale che Vj > 0, per ogni j, Vj > 0, per ogni j. Teorema 5.12. (Frobenius-Perron) Se M O, allora il suo autovalore di massimo modulo (detto autovalore dominante) risulta essere unico, reale, maggiore di zero e semplice (algebricamente e, dunque, geometricamente); inoltre, esiste un autovettore strettamente positivo VM associato a tale autovalore λM > 0. Teorema 5.13. Siano M > O ed h ∈ N tale che Mh O. Allora vale la tesi del Teorema di Frobenius-Perron per M. Teorema 5.14. Sia M ≥ O. Allora esiste un autovalore λM ≥ 0 ed un suo autovettore VM positivo tale che |λ| ≤ λM per ogni autovalore λ di M . I tre risultati precedenti sono “fini” come illustrato dagli esempi seguenti, e saranno provati in seguito. ( ) 1 1 Esempio 5.15. Se M = allora M O e per il Teorema 5.12 esi1 1 ste un autovalore dominante positivo e semplice (λM = 2) con autovettore T strettamente positivo 1 1 . ( ) 1 1 Esempio 5.16. La matrice A = non `e strettamente positiva, tuttavia 1 0 2 A O e per il Teorema 5.13 √ un autovalore dominante strettamente esiste positivo semplice λM = 12 1 + 5 , con autovettore strettamente positivo 1 √ T 5 1 . 2 1+ ( ) ( ) ( ) 10 01 00 Esempio 5.17. Siano B = , D= , E= . Nessuna delle tre 01 10 10 matrici ha una potenza strettamente positiva, tuttavia il Teorema 5.14 si applica. B ha autovalore dominante positivo λB = 1 che non `e semplice ed ha 5
Il lettore `e invitato a non confondere una matrice positiva con una matrice definita positiva: si confronti la Definizione 5.11 con quella di matrice definita positiva riportata nell’Appendice 0 1 D. 0 1 2 −1 12 Ad esempio, `e definita positiva ma non `e positiva. Viceversa, `e −1 2 21 strettamente positiva ma non `e definita positiva.
206
5 Sistemi dinamici discreti: equazioni vettoriali
molteplicit` a algebrica e geometrica uguale a 2. D ha due autovalori di massimo modulo (±1). E ha autovalore dominante λE = 0 che ha molteplicit` a algebrica pari a 2 e geometrica pari ad 1. Teorema 5.18. Se M O, oppure M > O ed esiste h tale che Mh O, allora tutte le traiettorie di Xk+1 = MXk verificano (λM )−k Xk = cM VM + σ (k) (5.9) M
dove λM `e l’autovalore dominante di M , V 0 il corrispondente autovettore dominante (vedi Teoremi 5.12 e 5.13), cM `e il coefficiente di X0 lungo la componente VM rispetto alla base di Jordan di M e σ (k) `e un infinitesimo per k → +∞. Prova. Siano λM e VM rispettivamente l’autovalore dominante semplice e positivo ed il corrispondente autovettore positivo di M, la cui esistenza `e assicurata dai Teoremi 5.12 e 5.13. Se X0 = cM VM + j cj Vj dove Vj sono autovettori generalizzati che con VM formano una base di Rn , allora Xk = cM λM k VM + Wk dove il vettore Wk `e una somma finita (a coefficienti indipendenti da k) di termini a crescita al pi` u kn λkj , con |λj | < |λM |. Pertanto possiamo scrivere λM −k Xk = cM VM + σ (k).
Il teorema precedente riduce l’analisi del comportamento di lungo periodo delle traiettorie al calcolo dell’autovalore ed autovettore dominanti (e viceversa: dalla eventuale conoscenza delle serie storiche di una grandezza generata da un sistema lineare strettamente positivo, si possono avere stime dell’autovalore dominante e dell’autovettore dominante). Questi fatti sono precisati nel Teorema seguente. Teorema 5.19. Se X0 > 0 e M O (o X0 > 0, M > O ed ∃h : Mh O), allora la soluzione X del s.d.d. vettoriale Xk+1 = MXk , k ∈ N, con dato iniziale X0 , tende ad allinearsi con il corrispondente autovettore dominante VM O di M : Xk VM lim = . (5.10) k Xk VM T
Inoltre l’autovettore dominante VM 0 di MT `e ortogonale ad ogni autovettore di M diverso da VM e ad ogni autovettore generalizzato di M diverso da VM ; infine, se cM `e il coefficiente VM nello sviluppo di X0 rispetto alla base di Jordan di M, allora vale cM > 0 . (5.11)
5.4 Matrici strettamente positive e Teorema di Frobenius-Perron
207
Prova. Basta provare che T
VM ⊥ V
∀ V autovettore generalizzato di M diverso da VM .
(5.12)
Infatti (5.12) implica che lo spazio generato da tutti gli autovettori generalizzati di M diversi da VM interseca l’“ottante” {X ∈ Rn : X ≥ 0} solo in 0, dunque X0 > 0 implica (5.11). Infine (5.10) ` e una immediata conseguenza di (5.11) e del Teorema 5.18. Rimane dunque da provare la (5.12). Se λj `e un autovalore diverso da λM e Vj `e il corrispondente autovettore, si ottiene: T
T
T
λj Vj , VM = M Vj , VM = Vj , MT VM = T
T
= λM Vj , VM = λM Vj , VM , T
ne segue Vj , VM = 0 poich´e λj = λM . Se gli autovettori di M non formano una base, si consideri la base di Jordan costituita da autovettori generalizzati di M ; in tal caso, per ogni fissato blocco massimale di Jordan B di dimensione r corrispondente all’autovalore λj (con riferimento al Teorema D.6 ed alla Figura D.2 dell’Appendice D, si noti che ad ogni autovalore possono corrispondere pi` u blocchi di Jordan) ordiniamo ed etichettiamo la sottobase relativa a tale blocco B come segue: Vj−r+1 , Vj−r+2 , . . . , Vj−1 , Vj
con Vj autovettore,
dunque MVj = λj V ,
MVj−s = λj Vj−s + Vj−s+1 ,
s = 1, . . . , r − 1 .
(5.13) T
Se ne deduce: Vj−r+1 , Vj−r+2 , . . . , Vj−1 , sono tutti ortogonali a VM . Infatti T a procedere per induzione sappiamo che Vj `e ortogonale a VM , dunque baster` T j−s+1 M j−s MT ⊥V implica V ⊥V . Questa implicazione si prova come provando che V segue: da (5.13) segue λj Vj−s = MVj−s − Vj−s+1 e T
T
T
λj Vj−s , VM = M Vj−s − Vj−s+1 , VM = M Vj−s , VM = T T T = Vj−s , MT VM = λM Vj−s , VM = λM Vj−s , VM T
che implica Vj−s , VM = 0 poich´e λj = λM .
Prova. del Teorema di Frobenius-Perron. Nel seguito le disuguaglianze fra vettori vanno intese nel senso di confronto con 0 della differenza, cio`e: V ≥W ⇔ V−W ≥0 ;
V > W ⇔ V− W > 0;
V W ⇔ V−W 0 .
Sia λM = max {λ ∈ R : ∃X > 0 tale che MX ≥ λX} . Si noti che l’insieme di cui si calcola il massimo ` e non vuoto (contiene λ = 0), chiuso (si possono scegliere sempre gli X in modo tale che X = 1) e limitato:
Mji Xi = Mij Xi max Xi ≤ Mij max Xi ⇒ λ ≤ Mij . (MX)j = i
i,j
i
i,j
i
i,j
208
5 Sistemi dinamici discreti: equazioni vettoriali
Dunque, tale λM esiste e verifica 0 ≤ λM < +∞. Fino a questo punto `e stata usata solo l’ipotesi M ≥ O. Se, inoltre, M O allora λM ≥ minj Mjj > 0. Dunque 0 < λM < +∞. Sia VM > 0 tale che MVM ≥ λM VM . (I) Proviamo che λM `e un autovalore e VM `e il corrispondente autovettore che verifica VM 0. Poich´e M O segue MX 0 per ogni X > 0, dunque oppure MVM = λM VM . M MVM −λM VM 0 Se MVM > λM VM , allora Y = MVM > 0 e dunque MY λM Y. Allora λM potrebbe essere leggermente aumentato contraddicendo la sua definizione come massimo. Dunque vale MVM = λM VM . Inoltre, poich´e VM > 0 implica MVM 0, allora MVM = λM VM implica VM 0. (II) Proviamo che |λ| < λM per ogni autovalore λ di M. Sia λ = λM un autovalore di M ed Y = 0 l’autovettore corrispondente a λ. Defi di componenti Yj = |Yj | , con j = 1, · · · , n, e consideriamo il niamo il vettore Y vettore MY di componenti: MY = mj1 |Y1 | + mj2 |Y2 | + · · · + mjn |Yn | ≥ |mj1 Y1 + mj2 Y2 + · · · + mjn Yn | j
cio`e
≥ (MY) MY = |λ| Y ≥ (λY) MY
e dalla definizione di λM segue |λ| ≤ λM . Per provare la disuguaglianza stretta, consideriamo la matrice Mδ = M − δIn dove δ > 0 `e scelto in modo tale che Mδ O 1 (ad esempio, ponendo δ = minij Mij ). 2 Dall’identit` a (μ − δ) In − Mδ = μIn − M, per ogni μ ∈ C, segue che (λM − δ) e a di Mδ , vale (λ − δ) sono autovalori di Mδ . Inoltre, per la stretta positivit` |λ − δ| ≤ λM − δ
(5.14)
poich´e λM − δ `e il massimo autovalore di Mδ . Se |λ| = λM e λ = λM si ha una contraddizione con (5.14). Si `e usato il fatto (illustrato in Figura 5.5) che la sottrazione di una quantit` a positiva da un numero complesso riduce maggiormente (a parit` a di modulo) il modulo del numero reale positivo. a geometrica uguale ad 1. (III) Proviamo che λM ha molteplicit` Supponiamo per assurdo che esista un altro autovettore Y linearmente indipendente da VM . Dalla disuguaglianza VM 0 segue l’esistenza di una costante reale α tale che, posto W = αVM +Y si abbia W > 0 ma non valga W 0. Tuttavia, da M O segue λM W = MW 0 che `e una contraddizione.
5.4 Matrici strettamente positive e Teorema di Frobenius-Perron l
l-d
-d
209
l M- d
0
Figura 5.5 |λ| = λM = λ e δ > 0
⇒
lM
|λ − δ| > λM − δ
(IV) Proviamo che λM ha molteplicit` a algebrica pari ad 1. Supponiamo per assurdo che la molteplicit` a algebrica di λM sia maggiore di 1. Abbiamo allora almeno due autovettori generalizzati VM e U associati a λM tali che (M − λM In ) U = VM (M − λM In ) VM = 0 Sia W l’unico autovettore strettamente positivo di MT corrispondente a λM , allora WT (M − λM In ) = 0 6 5 0 = W T (M − λM In ) U = W, VM
(M − λM In ) W = 0
che `e una contraddizione perch´e VM 0 e W 0.
Si osservi che si `e implicitamente provato anche l’enunciato del Teorema 5.14 con una tesi lievemente diversa: autovettore VM debolmente positivo; ma un autovettore per definizione non pu` o essere nullo, il che prova completamente la tesi del Teorema 5.14. Per provare il Teorema 5.13 basta osservare che A = Mh verifica le ipotesi √ del Teorema 5.12 e tra gli autovalori di M ed A intercorre la relazione λM = h λA . Osservazione 5.20. In alcuni casi pu` o essere utile una stima dell’autovalore dominante, senza dover ricorrere al calcolo effettivo. Vale il seguente risultato: Se M ≥ O e λM ≥ 0 `e il suo autovalore dominante, allora, se Cj ed Rj sono rispettivamente le somme degli elementi della j-esima colonna e j-esima riga di M, valgono min Cj ≤ λM ≤ max Cj
(5.15)
min Rj ≤ λM ≤ max Rj
(5.16)
j
j
j
j
210
5 Sistemi dinamici discreti: equazioni vettoriali
M Infatti, posto M = [mij n ], se V M≥ 0 `e unMautovettore associato a λM tale che M V = 1, allora j mij Vj = λM Vi e sommando anche in i si ottiene j=1 jM T C j j Vj = λM da cui (5.15). Ragionando su M si ottiene la (5.16).
Esempio 5.21. Consideriamo la seguente matrice strettamente positiva: ⎡ ⎤ 123 M = ⎣2 2 2⎦ 411 Da (5.15) si ottiene 5 ≤ λM ≤ 7, ma da (5.16) si ottiene 6 ≤ λM ≤ 6 cio`e λM = 6 senza scrivere il polinomio caratteristico.
5.5 Applicazioni alla demografia Riprendiamo l’analisi del modello demografico di Leslie (vedi l’Esempio 1.16). Se indichiamo con Y j il numero di individui di et` a j (j = 1, 2, . . . , n), ϕj il tasso di fertilit` a (nati per individuo) degli individui di et` a j e σj il tasso di sopravvivenza di individui di et` a j fino all’et` a j + 1, ad ogni tempo discreto k (con passo uniforme, pari all’ampiezza delle classi di et`a) si ha un T vettore Yk = Yk1 Yk2 . . . Ykn che descrive la struttura della popolazione. L’evoluzione di Y `e descritta dall’equazione Yk+1 = LYk ove
⎡
· · · ϕn−1 ··· 0 ··· 0 . .. . .. 0 0 · · · σn−1
ϕ1 ⎢ σ1 ⎢ ⎢ L =⎢ 0 ⎢ .. ⎣ .
ϕ2 0 σ2 .. .
⎤ ϕn 0 ⎥ ⎥ 0 ⎥ ⎥ .. ⎥ . ⎦ 0
Al tempo k + 1 il numero degli individui della i-esima classe `e dato da i = nj=1 Lij Ykj mentre la popolazione totale al generico tempo k `e pari Yk+1 n a i=1 Yki . Se σi > 0, i = 1, . . . , n − 1 e ϕj > 0, j = 1, . . . , n, allora la matrice L pur non essendo strettamente positiva ha una potenza strettamente positiva (Ln O). (vedi Figura 5.6). Allora, per il Teorema 5.13, L ha un autovalore dominante λL > 0 semplice e tale che |λ| < λL per ogni altro autovalore λ di L. Inoltre, alle traiettorie del s.d.d. Yk+1 = LYk si applica il Teorema 5.18: in particolare, la distribuzione asintotica della popolazione `e descritta dall’autovettore dominante (che `e strettamente positivo per il Teorema di Frobenius-Perron), cio`e la ripartizione tra le varie classi d’et` a `e proporzionale alle componenti dell’autovettore dominante positivo VL .
5.5 Applicazioni alla demografia
⎡
⎢ ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎣0 0 ⎡
⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎣0 0 ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
0
0 0
0 0
0 0
0 0
0 0
0 0
⎤⎡ ⎢ 0⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ 0 ⎢ 0⎥ ⎥⎢ 0 ⎢ 0⎥ ⎥⎢ 0 ⎥ 0 ⎥⎢ ⎢0 0 ⎦⎣ 0 0 0 ⎤⎡ ⎢ ⎥ ⎥⎢ ⎢ ⎥ ⎥⎢ ⎥ ⎥⎢ ⎢ ⎢ 0⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ 0 ⎦ 0 ⎣0 0 0 ⎤⎡ ⎢ ⎥ ⎥⎢ ⎢ ⎥ ⎥⎢ ⎥ ⎥⎢ ⎢ ⎢ ⎥ ⎥⎢ ⎢ ⎥ ⎥⎢ ⎢ ⎥ ⎥⎢ ⎦ 0 ⎣ 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0 0
0 0 0
0 0 0
0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
0
0
0
0
0
0
0
⎤⎡ ⎢ ⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ 0 ⎢ 0⎥ ⎥⎢ 0 ⎥ 0 ⎥⎢ ⎢0 0 ⎦⎣ 0 0 0 ⎤⎡ ⎢ ⎥ ⎥⎢ ⎢ ⎥ ⎥⎢ ⎥ ⎥⎢ ⎢ ⎢ ⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ ⎢ 0⎥ ⎥⎢ ⎦ 0 ⎣0 0 0 ⎤⎡ ⎢ ⎥ ⎥⎢ ⎢ ⎥ ⎥⎢ ⎥ ⎥⎢ ⎢ ⎢ ⎥ ⎥⎢ ⎢ ⎥ ⎥⎢ ⎢ ⎥ ⎥⎢ ⎦ ⎣ 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0
0 0
0 0 0
0 0 0
0 0 0
0 0 0
0 0 0
211
⎤ ⎥ ⎥ ⎥ ⎥ 0⎥ ⎥ 0⎥ ⎥ 0⎥ ⎥ 0⎥ ⎥ 0⎦ 0 ⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ 0⎥ ⎥ 0⎦ 0 ⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦
Figura 5.6 L, L2 , . . . , L9 con L matrice di Leslie di ordine 9 (i quadratini neri indicano gli elementi strettamente positivi)
L’autovettore dominante rappresenta la cosiddetta distribuzione stabile d’et` a cio`e descrive in quali proporzioni la popolazione tende a ripartirsi nelle varie classi (in assenza di perturbazioni). In dipendenza dai valori di sopravvivenza e fertilit` a l’autovalore dominante descrive la prospettiva di crescita od estinzione della popolazione: λL > 1 popolazione in crescita esponenziale popolazione che tende ad un equilibrio (strettamente positivo) λL = 1 0 < λL < 1 popolazione che si avvia all’estinzione in modo esponenziale. Se 0 < λL < 1, allora 0 `e un equilibrio stabile ed attrattivo. Se λL = 1, allora ogni multiplo positivo dell’autovettore dominante VL (associato a λL ) `e un equilibrio stabile ma non attrattivo (semiretta di equilibri).
212
5 Sistemi dinamici discreti: equazioni vettoriali
Se λL > 1, allora 0 `e un equilibrio instabile e repulsivo. Si osservi nella Figura 5.6 come, al crescere della potenza di L aumentano le righe 0 e la diagonale 0 scende.L’autovalore e l’autovettore dominante possono essere calcolati con metodi numerici a partire dalla definizione algebrica oppure simulando il sistema per un periodo sufficientemente lungo: se X0 ha componente cL non nulla lungo VL nella base di Jordan di L, allora (grazie al Teorema 5.18) si ha: Xk+1 VL = lim λL−k c−1 λL = lim L Xk . k k Xk Osservazione 5.22. Se L `e una matrice di Leslie, allora il determinante vale 1+n det L = (−1) ϕn σ1 σ2 · · · σn−1 . Esempio 5.23. Un modello di ripartizione degli studenti. Consideriamo gli studenti che in un ateneo frequentano un corso di laurea di cinque anni. Siano: S j il numero di studenti iscritti all’anno j di corso, j = 1, 2, . . ., 5 Sk6 il numero dei laureati nell’anno k aj il coefficiente corrispondente alla frazione di abbandoni all’anno j pj il coefficiente di passaggio dall’anno j all’anno j + 1, j = 1, . . . , 4 p5 la frazione di laureati Mk gli immatricolati o trasferiti da altre sedi nell’anno k (`e un vettore a 6 componenti, l’ultima nulla). Ad ogni tempo discreto k si ha un vettore a sei componenti Sk che descrive la struttura della popolazione studentesca. Il modello di evoluzione `e descritto da Sk+1 = ASk + Mk con
⎡
0 0 0 0 1 − p 1 − a1 ⎢ p 1 − p − a 0 0 0 1 2 2 ⎢ ⎢ 1 − p 3 − a3 0 0 0 p2 ⎢ A=⎢ ⎢ 1 − p − a 0 0 0 p 3 4 4 ⎢ ⎢ 1 − p 5 − a5 0 0 0 p4 ⎣ 0
0
0
0
p5
⎤ 0 0⎥ ⎥ ⎥ 0⎥ ⎥ 0⎥ ⎥ ⎥ 0⎦ 0
Si noti che A ≥ O ma non vi sono potenze Ah O dato che Ah ha l’ultima colonna di 0 per ogni h. Inoltre, A `e di tipo matrice diagonale pi` u matrice nilpotente, pur non essendo nella forma di Jordan. Il calcolo degli autovalori `e immediato: 1 − p1 − a1 , 1 − p2 − a2 , . . . , 0. Per un’analisi del modello si possono utilizzare i risultati del paragrafo 5.6. Esercizio 5.3. Dimostrare l’affermazione contenuta nell’Osservazione 5.22.
5.5 Applicazioni alla demografia
213
Figura 5.7 Popolazione residente in Italia, per sesso e classi di et` a (fonte ISTAT)
Figura 5.8 Due popolazioni (1998), ripartite per sesso e in classi di et` a di 10 anni
214
5 Sistemi dinamici discreti: equazioni vettoriali
5.6 Equazioni vettoriali lineari affini Consideriamo il sistema dinamico discreto lineare affine Xk+1 = AXk + B (5.17) dove B ∈ Rn ed A, matrice di ordine n, sono assegnati. Siamo interessati ad esplicitare Xk , cio`e a darne una espressione non ricorsiva e, successivamente, a studiare l’esistenza di eventuali equilibri e discuterne la stabilit` a. Seguendo lo stesso ragionamento formale del caso scalare affine (paragrafo 2.1, Teorema 2.5) sar`a utile effettuare un cambio di incognita per ricondursi al caso lineare: cerchiamo di adattare i passaggi della prova del Teorema 2.5, con le precauzioni dovute al fatto che A `e una matrice. Teorema 5.24. Se tutti gli autovalori di A sono diversi da 0 ed 1 , allora In − A `e invertibile e vale Xk = Ak (X0 − A) + A
(5.18)
−1
dove il vettore A = (In − A) B `e l’unico equilibrio del s.d.d. (5.17). Si osservi la forte analogia di (5.18) con la formula (2.4) relativa al caso lineare affine scalare. Prova. Nel seguito scriveremo brevemente I anzich´e In . La matrice I − A `e invertibile perch´e 1 non `e autovalore di A (come si deduce dalla forma di Jordan). Gli eventuali equilibri A del s.d.d. (5.17) risolvono A = AA + B la cui soluzione (unica) `e A = (I − A)−1 B. Sia Yk = Xk − A, ∀k. Sostituendo nell’equazione (5.17), si ricava:6 Yk+1 = Xk+1 − A = AXk + B − A = AXk + I− (I − A)−1 B = = AXk + (I − A)−1 (I − A) − (I − A)−1 B = = AXk − (I − A)−1 AB = AXk − A (I − A)−1 B = = A Xk − (I − A)−1 B = AYk . 6 Si ricordi che A e (I − A)−1 commutano, avendo supposto che tutti gli autovalori siano diversi da 0: −1 −1 −1 −1 = AA−1 A−1 − I = A −I = A (I − A)−1 = A A−1 − I A −1 −1 −1 −1 −1 −1 = (I − A) = (I − A) A. A = A (I − A)
5.6 Equazioni vettoriali lineari affini
215
Dunque Yk+1 = AYk da cui Yk = Ak Y0 e da Y0 = X0 − A, Xk = Yk + A, segue Xk = Ak (X0 − A) + A.
Nel caso generale (cio`e se fra gli autovalori di A vi sono anche 0 o 1) si decompone Rn come Rn = V0 ⊕ V1 ⊕ V2 dove V0 `e l’autospazio generalizzato associato all’autovalore 0; V1 `e l’autospazio generalizzato all’autovalore 1; V2 `e l’unione degli autospazi generalizzati di tutti gli altri autovalori. La matrice A nelle coordinate della forma ⎡ A0 O A = ⎣ O A1 O O
di Jordan si esprime come ⎤ O O⎦ A2
dove A0 , A1 , A2 sono matrici quadrate con A0 nilpotente. Tutti i vettori T W di Rn si decompongono come W = W0 W1 W2 . Il sistema (5.17) si disaccoppia in tre sistemi. T Ogni equilibrio A = A0 A1 A2 risolve A = AA + B cio`e (I − A1 ) A1 = B1
(I − A0 ) A0 = B0
(I − A2 ) A2 = B2 .
Poich´e (I − A0 ) e (I − A2 ) sono invertibili, A0 e A2 sono univocamente determinati −1
A0 = (I − A0 )
B0
−1
A2 = (I − A2 )
B2 .
Per` o (I − A1 ) non `e invertibile (`e nilpotente), pertanto possono esservi o meno soluzioni A1 e se esistono non sono uniche (precisamente, ve ne sono se e solo T se B1 ⊥ ker (I − A1 ) ). Le conclusioni sono riassunte nell’enunciato seguente. Teorema 5.25. Se fra gli autovalori di A vi sono anche 0 o 1 (o entrambi), T se e solo se la allora il sistema (5.17) ammette equilibri A = A0 A1 A2 T 1 componente B di B in V1 `e ortogonale al nucleo di (I − A1 ) . T In caso affermativo, le soluzioni Xk = X0 X1 X2 decomposte secondo V0 , V1 , V2 si esplicitano: k X0k = (A0 ) X00 − A0 + A0 k X2k = (A2 ) X20 − A2 + A2 W T X1k = XU k Xk dove U `e lo spazio associato al blocco di Jordan banale e V2 `e l’unione degli spazi associati ai blocchi di Jordan non banali relativi all’autovalore 0: U U W XU o esprimere k = kB per ogni k, con B componente di B in U, e Xk si pu` W W in dipendenza da B ed X0 in ciascun sottoblocco di Jordan non banale di
216
5 Sistemi dinamici discreti: equazioni vettoriali
dimensione l − j corrispondente all’autovalore 0. Dunque: ⎧ (I) 1 non `e autovalore, cio`e V1 = U ⊕ W = {0} ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨ oppure (II) 1 `e autovalore e B1j = 0 per ogni j, salvo ∃ equilibri A ⇔ ⎪ eventualmente le ultime componenti in ⎪ ⎪ ⎪ ⎪ ciascuno dei blocchi di Jordan non ⎪ ⎪ ⎩ banali dell’autovalore 1 Nel primo caso esiste un unico equilibrio −1
A = (I − A)
B=
& −1 0 −1 'T B I − A2 B . I − A0
Nel secondo caso esistono infiniti equilibri: T A = A0 A1 A2 T T A1 = AU AW = 0 AW T AW = costituito da vettori 0 0 . . . 0 Bl in ciascun blocco ldimensionale. • Se |λ| < 1 per ogni autovalore, allora siamo nel caso I e l’equilibrio A `e stabile ed attrattivo • Se esiste un autovalore λ tale che |λ| > 1, allora l’eventuale equilibrio (casi I o II) `e instabile • Se λ = 1 `e autovalore e vi `e equilibrio, allora siamo nel caso II ed A `e stabile se le molteplicit` a algebriche e geometriche dell’autovalore 1 coincidono (comunque A non `e attrattivo). Si suggerisce di confrontare la discussione svolta sugli equilibri e la loro stabilit` a con quella relativa alle equazioni alle differenze scalari ad m passi. Esempio 5.26. Sia M una matrice dan corrispondenti alla base e1 , e2 , nulle) ⎡ 0 0 ⎢ 1 0 ⎢ ⎢ 1 ⎢ ⎢ 1 ⎢ M=⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ con
di ordine 9 data, nelle coordinate di Jor. . . , e9 (le componenti non indicate sono ⎤ 0 1
⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ 1 0 ⎥ ⎥ 1 1 ⎥ λ1 0 0 ⎥ ⎥ 0 λ2 0 ⎦ 0 0 λ3
5.6 Equazioni vettoriali lineari affini
V0 = e1 ⊕ e2
V1 = e3 ⊕ e4 ⊕ e5 ⊕ e6
217
V2 = e7 ⊕ e8 ⊕ e9 .
I modi naturali sono individuati da 0, 1, k, k 2 , k 3 , λk1 , λk2 , λk3 . Osservazione 5.27. Il modello di ripartizione degli studenti considerato nell’Esempio 5.23 in una situazione stazionaria (Mk = M, ∀k, cio`e supposto costante il numero di immatricolati e di trasferimenti) rientra nella forma (5.10) studiata in questo paragrafo. Concludiamo con alcune considerazioni generali sui s.d.d. lineari positivi. Un sistema lineare affine Xk+1 = AXk + B pu` o non avere equilibri A che verificano A ≥ 0 anche se A O e B 0 (ad esempio, se n = 1, A = 2 e ` peraltro rilevante chiedersi quando, date A e B B = 1 allora A = −1). E non negative, anche gli equilibri risultano non negativi. Questa questione `e strettamente connessa con la stabilit`a. Enunciamo un risultato che illustra solo alcuni aspetti del problema. Teorema 5.28. Sia dato il s.d.d. vettoriale Xk+1 = AXk + B, dove A O, B 0. Allora sono equivalenti le condizioni seguenti: (i) |λ| < 1 per ogni autovalore λ di A, (ii) esiste A ≥ 0 equilibrio del sistema. In particolare, se vale (i) oppure (ii) allora tale A `e stabile ed attrattivo e A 0. Prova. (i) ⇒ (ii): Se |λ| < 1 per ogni autovalore λ, allora la matrice I−A `e invertibile, e per il Teorema 5.24 vi `e un unico equilibrio A stabile ed attrattivo7 . Inoltre, se si inizializza il sistema dinamico con un dato X0 ≥ 0, allora risulta Xk 0 per ogni k ≥ 1 e ne segue A ≥ 0 . Inoltre da AA ≥ 0, B O segue A = AA + B 0. (ii) ⇒ (i): Se esiste A ≥ 0 tale che (I − A) A = B, allora A = AA + B 0. Osservato che AT O e che A ed AT hanno gli stessi autovalori, denotiamo con λA > 0 l’autovalore dominante di A (e dunque anche di AT ) e con U un autovettore dominante strettamente positivo di AT (vedi Teorema 5.12): 7
Il Teorema 5.24 `e valido anche sostituendo l’ipotesi “autovalori diversi da 0 e 1” con “|λ| < 1 per ogni autovalore λ”. Infatti, basta modificare l’argomento della Nota 6 come segue: +∞ k A , dunque |λ| < 1 implica (I − A)−1 = k=0
A (I − A)
−1
=A
+∞
k=0
k
A =
+∞
k=0
A
k+1
=
+∞
k=0
A
k
A = (I − A)−1 A.
218
5 Sistemi dinamici discreti: equazioni vettoriali U0
Allora
AT U = λA U
B, U > 0.
5 6 (1 − λA ) A, U = A, I − AT U = (I − A) A, U = B, U > 0
e dalla disuguaglianza A, U > 0 segue λA < 1. Dunque, 0 < λA < 1 e 0 ≤ |λ| < λA < 1 per ogni λ autovalore.
Esercizio 5.4. Data la matrice quadrata A di ordine n i cui elementi sono tutti uguali a 1/ (2n) e un vettore B ∈ Rn , B 0, studiare il s.d.d. Xk+1 = AXk + B.
5.7 Sistemi dinamici discreti vettoriali non lineari Accenniamo al caso di sistemi di pi` u equazioni non lineari ad un passo. Definizione 5.29. Sia F : I n → I n una funzione continua. Allora la coppia {I n , F } `e detta sistema dinamico discreto vettoriale. Ad ogni s.d.d. {I n , F } vettoriale `e associato un sistema di infinite equazioni Zk+1 = F (Zk ), k ∈ N. Per ogni scelta di n dati iniziali Z0 , Z1 , . . . , Zn−1 vi `e una sola successione {Zk } che risolve tale sistema di equazioni: tale successione `e detta traiettoria del s.d.d. associata alla n-upla di dati iniziali. Tutte le definizioni formulate nel caso scalare circa i punti di equilibrio e la loro stabilit` a possono essere riformulate con ovvie modifiche nel caso vettoriale. T T Esempio 5.30. Sia n = 2, F (x, y) = f (x, y) g (x, y) , Zk = Xk Yk . Allora, ∀k ∈ N
Xk+1 = f (Xk , Yk ) Yk+1 = g (Xk , Yk ) Come nel caso scalare, non vi sono metodi generali per esplicitare le soluzioni di sistemi non lineari. Ci limiteremo a discutere il comportamento asintotico e la stabilit` a degli equilibri. ` utile introdurre la seguente definizione. E Definizione 5.31. Sia A una matrice quadrata di ordine n. Allora il numero A = max {AV : V ∈ Rn , V = 1} `e detta norma di A.
5.7 Sistemi dinamici discreti vettoriali non lineari
219
T Teorema 5.32. Siano n = 2, A = α1 α2 un equilibrio: F (A) = A, cio`e in componenti α1 = f (α1 , α2) α2 = g (α1 , α2 ) dove F : I 2 → I 2 `e una funzione munita di derivate parziali continue e ⎤ ∂f (α1 , α2 ) ⎥ ⎢ ∂x ∂y ⎥ ⎢ J (A) = ⎢ ⎥ ⎦ ⎣ ∂g ∂g (α1 , α2) (α1 , α2 ) ∂x ∂y ⎡ ∂f
(α1 , α2)
Se tutti gli autovalori di J verificano |λ| < 1, allora α `e un equilibrio stabile T T e localmente attrattivo (cio`e se X0 Y0 `e “vicino” ad α1 α2 , allora la traiettoria associata a tale dato iniziale converge ad A). Se esiste un autovalore λ tale che |λ| > 1, allora α `e instabile. Esempio 5.33. Modello di Lotka-Volterra (predatore-preda). Consideriamo due specie che interagiscono in un ambiente: le prede, descritte dalla successione X (X0 descrive quantitativamente la struttura della popolazione al tempo 0, X1 al tempo 1, ...). In assenza di predatori Xk evolverebbe secondo la legge di tipo lineare Xk+1 = aXk . Se consideriamo la presenza di una specie predatrice Y che si alimenta principalmente della specie X `e opportuno modificare la legge che descrive la dinamica come segue Xk+1 = aXk − bXk Yk . L’evoluzione dei predatori (per cui non si trascura la competizione sociale) `e descritta da Yk+1 = cYk − dYk2 + eXk Yk che tiene conto degli “incontri” con le prede. Nel quadrante x > 0, y > 0 vi sono quattro regioni determinate dall’intersezione delle rette di equazione y = a/b e y = (e/d) x + (c − 1) /d in cui Xk ed Yk hanno precise monotonie. Tutte le traiettorie “ruotano” in senso antiorario attorno all’equilibrio α la cui eventuale stabilit` a dipende dal valore numerico scelto per i parametri. Al variare dei parametri a, b, c, d, e, tutti positivi, con a > 1 e c > 1, il sistema presenta diversi comportamenti. Esaminiamo un esempio numerico: se a=2 allora
b=1
c = 1, 5
d=2
Xk+1 = 2Xk − Xk Yk Yk+1 = 1, 5Yk − 2Yk2 + Xk Yk
e=1
220
5 Sistemi dinamici discreti: equazioni vettoriali
cio`e
⎡
⎤ 2x − xy ⎦. F (x, y) = ⎣ 3 y − 2y2 + xy 2
Le equazioni soddisfatte dagli equilibri sono
α1 = α1 α2 0, 5α2 + α1 α2 = 2α22 Gli equilibri sono 3: (0, 0) , (0, 1/4), e (3/2, 1) . La parte di piano significativa `e il quadrante x > 0, y > 0 cui appartiene un solo equilibrio: (3/2 , 1). Poich´e J
3 ,1 2
(
1 −3/2 = 1 −1
√
) λ1,2 (J) = ±
2 i 2
per il Teorema 5.32 l’equilibrio (3/2, 1) `e stabile e localmente attrattivo. Nel quadrante x > 0, y > 0 vi sono quattro regioni determinate dall’intersezione delle rette di equazione
ex c-1 y = __ + ____ d d Xk+1 - Xk < 0
Xk+1 - Xk < 0
Yk+1 - Yk < 0
Yk+1 - Yk > 0
Xk+1 - Xk > 0
Xk+1 - Xk > 0
Yk+1 - Yk < 0
Yk+1 - Yk > 0
a y = __ b
c-1 ____ d
Figura 5.9 Piano delle fasi del modello di Lotka-Volterra
5.8 Schemi numerici per la risoluzione di problemi lineari
y=2
y=
221
1 1 x+ 2 4
in cui Xk ed Yk hanno precise monotonie. Tutte le traiettorie “ruotano” in senso antiorario attorno all’equilibrio α la cui eventuale stabilit` a dipende dal valore numerico scelto per i parametri. Per discutere la stabilit` a dell’equilibrio (0, 0) osserviamo che ( J (0, 0) =
) ( ) a0 2 0 = 0c 0 3/2
dunque (0, 0) `e stabile se e solo se |a| < 1 e |c| < 1 . Si verifichi che (0, 1/4) `e instabile.
5.8 Schemi numerici per la risoluzione di problemi lineari Spesso si deve affrontare il problema di calcolare le soluzioni di un sistema di equazioni algebriche lineari (vedi Appendice D): ad esempio, gli schemi numerici per la soluzione di equazioni differenziali lineari consistono nella risoluzione di tali sistemi con grande dimensione (numero di equazioni). Nell’Esempio 1.21 abbiamo incontrato uno schema alle differenze finite che consente di approssimare la soluzione di una equazione alle derivate parziali mediante la soluzione di un sistema di equazioni algebriche lineari. In teoria il Teorema di Rouch´e-Capelli e la regola di Cramer danno una risposta completa al problema di risolvere un tale sistema algebrico. Tuttavia tali metodi sono inapplicabili per la determinazione effettiva delle soluzioni se la dimensione del sistema non `e molto piccola oppure se la matrice associata non `e diagonale. Inoltre, negli schemi alle differenze finite che approssimano equazioni differenziali tale dimensione `e molto grande e la matrice associata non `e banale. ` dunque importante individuare schemi numerici efficienti per la soluzione E esatta o approssimata di sistemi lineari algebrici di dimensione elevata, perlomeno nei casi di matrici aventi particolare struttura (come avviene nel caso della discretizzazione di equazioni differenziali). Iniziamo considerando un esempio importante di matrice sparsa cio`e con molti termini nulli. Esempio 5.34. Si verifica8 che la matrice quadrata tridiagonale N × N (con elementi nulli fuori dalle tre diagonali principali) 8
Si possono usare leidentit` a: 2 α ; sin α2 = 1−cos 2
sin (α + β) = sin α cos β + sin β cos α .
222
5 Sistemi dinamici discreti: equazioni vettoriali
⎡
⎤ 2 −1 ⎢ −1 2 −1 ⎥ ⎢ ⎥ ⎢ ⎥ . .. ⎢ ⎥ −1 2 ⎢ ⎥ ⎢ ⎥ . . . .. .. .. T=⎢ (5.19) ⎥ ⎢ ⎥ ⎢ ⎥ .. .. ⎢ ⎥ . . −1 ⎢ ⎥ ⎣ −1 2 −1 ⎦ −1 2 2 kπ per 1 ≤ k ≤ N , associati agli ha autovalori λk (T) = 4 sin 2 (N + 1) autovettori Uk (T) di componenti (Uk )j = sin (jkπ/ (N + 1)). Ne segue che, per ogni N , la matrice T `e definita positiva e i suoi autovalori λ (T) verificano 0 < λk (T) ≤ 4 per ogni k; inoltre, λmin (T) = λ1 (T) ∼ k 2 π . N +1 Esempio 5.35. (Problema di autovalori per l’operatore −d2 /dx2 in un intervallo) La ricerca di costanti λ cui corrispondono funzioni u = u (x) non identicamente nulle che risolvono
−u (x) = λ u (x) 0 < x < l (5.20) u (0) = u (l) = 0 `e detto problema di autovalori. 2 Il problema (5.20) ha infinite soluzioni date dalle coppie λk = kπ l uk (x) = Ck sin kπx l con k = 1, 2, . . . e Ck costanti arbitrarie. Approssimando la derivata seconda con le differenze finite centrate: uk−1 − 2uk + uk−1 u (xk ) ∼ dove h2 h = l/ (N + 1) ; xk = kh ; uk ∼ u (xk ) ;
e
1≤k≤N
si ottiene il problema seguente (approssimazione numerica del problema (5.20)): Determinare le costanti λ per cui esiste un vettore non nullo T U = U1 U2 · · · UN soluzione del sistema lineare N × N : 1 TU = λU . h2 Quest’ultimo consiste nella determinazione degli autovalori della matrice h−2 T dove T `e la matrice tridiagonale (5.19): pertanto gli autovalori di h−2 T sono 2 kπ 4 1≤k≤N . λh,k = 2 sin h N +1 Si noti che, fissati l ed k, se h → 0, allora N → +∞ e λh,k λk , ∀k.
5.8 Schemi numerici per la risoluzione di problemi lineari
223
Esempio 5.36. (Metodo di Eulero esplicito per l’equazione del calore) Con riferimento all’Esempio 1.21 ed alle sue notazioni, una soluzione approssimata del problema ⎧ ∂2v ∂v ⎪ ⎪ x ∈ (0, a) , 0 < t < T ⎨ ∂t = ∂x2 ⎪ x ∈ [0, a] ⎪ ⎩ v (x, 0) = f (x) v (0, t) = v (a, t) = 0 t > 0
(5.21)
pu` o essere ottenuta mediante il metodo di Eulero esplicito, cio`e dallo schema numerico
α = h/s2 Wj,k+1 = αWj−1,k + (1 − 2α) Wj,k + αWj+1,k (5.22) W0,k+1 = WN,k+1 = 0
Figura 5.10 Discretizzazione alle differenze finite con Eulero esplicito (5.17)
In termini di sistemi dinamici discreti lo schema numerico (5.22) genera una traiettoria del s.d.d. vettoriale Wk+1 = BWk a partire da W0 , campionamento del dato iniziale f, con B = IN − αT, dove T `e la matrice tridiagonale (5.19), α = h/s2 , h `e il passo di discretizzazione temporale, s quello spaziale. ⎡
1 − 2α α ⎢ α 1 − 2α α ⎢ ⎢ ⎢ α 1 − 2α ⎢ ⎢ .. B=⎢ . ⎢ ⎢ ⎢ ⎢ ⎣
⎤ ..
. .. .. . . .. .. . . α α 1 − 2α α α 1 − 2α
⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦
224
5 Sistemi dinamici discreti: equazioni vettoriali
Effettuando esperimenti numerici con un computer `e facile verificare che, se vale la condizione di stabilit` a numerica 0 < α ≤ 1/2, allora il metodo di Eulero esplicito ha un buon comportamento, cio`e i valori numerici ottenuti approssimano la soluzione esatta. Viceversa, se vale la condizione di instabilit` a numerica α > 1/2, allora i valori numerici ottenuti oscillano senza controllo anzich´e approssimare la soluzione cercata. L’obiettivo `e quello di evitare le eventuali amplificazioni degli errori introdotti nella valutazione (con precisione aritmetica finita) del dato iniziale. La condizione α ≤ 1/2 (cio`e h ≤ s2 /2) va dunque imposta per ottenere risultati significativi; tuttavia essa risulta assai costosa nella pratica di calcolo: raddoppiare nello spazio i punti della griglia di discretizzazione comporta una quadruplicazione di tali punti nel tempo, cio`e il numero complessivo di punti ed il relativo tempo di calcolo aumentano di otto volte. Per tale motivo si preferisce utilizzare il metodo di Eulero implicito che risulta stabile senza alcuna condizione sul valore numerico di α = h/s2 , anche se tale metodo richiede la soluzione di un sistema lineare algebrico con matrice non diagonale, mentre nel caso di Eulero esplicito (5.22) il sistema algebrico `e gi`a risolto. Per comprendere il senso della condizione di stabilit` a numerica per il metodo di Eulero esplicito, facendo riferimento all’Esempio 5.36, osserviamo che la matrice T `e diagonalizzabile. Dunque anche B = IN − αT `e diagonalizzabile ed i suoi autovettori ed autovalori sono rispettivamente Uk (B) = Uk (T) λk (B) = 1 − αλk (T) = 1 − 4α sin
1≤k≤N 2 kπ 2 (N + 1)
1≤k≤N .
Allora gli autovalori di B sono tutti semplici; inoltre: λk (B) ≤ 1
⇔
0 ≤ α ≤ 1/2 .
Per il Teorema 5.8 e le considerazioni successive, relativamente al s.d.d. Wk+1 = BWk , possiamo affermare che l’equilibrio 0 risulta stabile se 0 ≤ α ≤ 1/2 ed attrattivo se 0 < α ≤ 1/2. Se si ha un errore di arrotondamento iniziale E0 (Ej,0 `e l’errore nella valutazione numerica di f (js)) allora si genera un errore Ek al passo k. Si verifica che tale errore risolve il s.d.d. Ek+1 = BEk con dato iniziale E0 . Concludendo, se vale la condizione di instabilit` a numerica gli inevitabili (per quanto piccoli) errori verranno amplificati dalle iterazioni successive, mentre se vale la condizione di stabilit` a numerica essi rimarranno “ben controllati”. Esempio 5.37. (Metodo di Eulero implicito per l’equazione del calore) Sempre con riferimento all’Esempio 1.21 ed alle sue notazioni, una soluzione approssimata del problema (5.21) pu` o essere ottenuta mediante il metodo di Eulero implicito, cio`e dallo schema numerico9 9
Se il dato al bordo (condizioni sui valori di v (0, t) e v (a, t)) per l’equazione (5.21) non `e 0, allora, a causa delle equazioni estreme si deve modificare il secondo membro
5.8 Schemi numerici per la risoluzione di problemi lineari
(1 + 2α) Vj,k+1 − αVj−1,k+1 − αVj+1,k+1 = Vj,k V0,k+1 = VN+1,k+1 = 0
225
(5.23)
In termini di sistemi dinamici discreti, lo schema numerico (5.23) genera una traiettoria del s.d.d. vettoriale AVk+1 = Vk a partire da V0 , campionamento del dato iniziale f, con A = IN + αT, dove T `e la matrice tridiagonale (5.19), α = h/s2 , h `e il passo di discretizzazione temporale, s quello spaziale.
⎡
1 + 2α −α ⎢ −α 1 + 2α −α ⎢ ⎢ ⎢ −α 1 + 2α ⎢ ⎢ .. A=⎢ . ⎢ ⎢ ⎢ ⎢ ⎣
⎤ .. ..
.
. . .. .. .. . . −α
⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ −α ⎥ 1 + 2α −α ⎦ −α 1 + 2α
Ora ciascun passo risolutivo risulta numericamente non banale perch´e corrisponde ad invertire la matrice tridiagonale A. Grazie all’analisi svolta nell’Esempio 5.34 osserviamo che A `e diagonalizzabile ed i suoi autovettori ed autovalori sono rispettivamente Uk (A) = Uk (T)
1≤k≤N
Figura 5.11 Discretizzazione alle differenze finite con Eulero implicito (5.18)
come segue:
2 3T Vk = Vk + αV0,k+1 0 · · · 0 αVN,k+1
226
5 Sistemi dinamici discreti: equazioni vettoriali
λk (A) = 1 + αλk (T) = 1 + 4α sin
kπ 2 (N + 1)
2 1≤k≤N .
Dunque λk (A) > 1
1 ≤ k ≤ N , ∀α > 0 .
Pertanto A `e sempre invertibile per gli autovalori della ogni α > 0, inoltre −1 matrice inversa verificano 0 < λk A−1 = (λk (A)) < 1 per ogni k. Il Teorema 5.8 assicura che per il s.d.d. Vk+1 = A−1 Vk l’equilibrio 0 risulta stabile ed attrattivo per ogni α > 0. In questo caso l’eventuale errore di arrotondamento Ek nella valutazione di Vk `e governato dal s.d.d. Ek+1 = A−1 Ek con dato iniziale E0 (errore di discretizzazione del dato iniziale), pertanto lo schema di Eulero implicito risulta numericamente stabile per ogni α > 0, cio`e per ogni h > 0 e per ogni s > 0. Riassumendo, abbiamo ricondotto la soluzione dell’equazione del calore ad una cascata di problemi algebrici lineari. Osserviamo che T, A, A−1 sono matrici definite positive per ogni α, mentre B `e definita positiva solo se 0 < α < 1/4 . In pratica, per risolvere il sistema AVk+1 = Vk non si inverte la matrice A (che ha dimensione N ) perch´e ci`o richiederebbe troppe operazioni (dell’ordine di N 2 ). Inoltre A `e tridiagonale, dunque occupa poco spazio in memoria (3N − 2 dati), mentre A−1 non `e una matrice sparsa e dunque occuperebbe troppo spazio in memoria (N 2 dati). Allora anzich´e invertire A si ricorre ad algoritmi numerici pi` u efficienti. Ne citiamo solo due: la decomposizione LU che `e un metodo diretto, ed il metodo SOR che `e un metodo iterativo. Li illustriamo, per semplicit` a, con riferimento alla matrice A = IN + αT che appare nello schema di Eulero implicito per l’equazione del calore. Esempio 5.38. (Il metodo LU) Assegnata la matrice A = IN + αT con T definito da (5.19), cerchiamo due matrici, una triangolare inferiore L, l’altra triangolare superiore U rispettivamente della forma ⎡
0 ··· ⎢ . ⎢ l1 1 . . ⎢ ⎢ L = ⎢ 0 ... ... ... ⎢ ⎢. .. .. ⎣ .. . . 0 · · · 0 lN−1 1 0
⎤ 0 .. ⎥ .⎥ ⎥ ⎥ 0⎥ ⎥ ⎥ 0⎦ 1
⎡
y1 z1 0 ⎢ ⎢ 0 y2 . . . ⎢ ⎢ U = ⎢ 0 ... ... ⎢ ⎢ . .. ⎣ .. . 0 ··· 0
··· ..
.
..
.
0
0 .. .
⎤
⎥ ⎥ ⎥ ⎥ 0 ⎥ ⎥ ⎥ zN−1 ⎦ yN
tali che valga l’uguaglianza A = LU. Per determinare gli elementi li , yi e zi delle due matrici effettuiamo il prodotto LU: ponendo il risultato uguale ad A, otteniamo:
5.8 Schemi numerici per la risoluzione di problemi lineari
227
y1 = (1 + 2α) yi = (1 + 2α) − zi = −α α li = − yi
α2 yi−1
i = 2, . . . , N (5.24)
i = 1, . . . , N − 1
Dunque, le sole quantit` a da calcolare e memorizzare sono le yi al variare di i = 2, . . . , N , da cui si deducono i valori di li e zi . Il problema di partenza AVk+1 = Vk pu` o essere riscritto nella forma L (UVk+1 ) = Vk : tale sistema `e equivalente ai due sottoproblemi UVk+1 = Wk
LWk = Vk
ove Wk `e un vettore intermedio. La soluzione effettiva dei due sistemi algebrici si ottiene come segue. Dalla prima equazione del sistema LWk = Vk si deduce il valore di W1,k mentre gli altri valori delle componenti del vettore Wk si determinano grazie alle relazioni ricorsive Wj,k = Vj,k +
αWj−1,k yj−1
j = 2, . . . , N .
Infine, risolvendo il sistema UVk+1 = Wk si determina immediatamente il valore WN,k+1 VN,k+1 = yN e a ritroso i valori delle restanti componenti del vettore Vk+1 : Vj,k+1 =
Wj,k + αVj+1,k+1 yj
j = 1, . . . , N − 1 .
Esempio 5.39. (Il metodo SOR) Il metodo LU sopra illustrato rappresenta un metodo diretto per risolvere un sistema lineare algebrico del tipo AVk+1 = Vk nel senso che le incognite vengono determinate in un unico passo. In alternativa, si possono considerare dei metodi iterativi. Il metodo SOR (Successive Over-Relaxation) si pu` o considerare un versione particolare del metodo di Gauss-Seidel, che a sua volta `e uno sviluppo del metodo di Jacobi. Il punto di partenza di tutti e tre questi metodi `e l’osservazione che il sistema (1 + 2α) Vj,k+1 − αVj−1,k+1 − αVj+1,k+1 = Vj,k pu` o essere riscritto nella forma equivalente Vj,k+1 =
1 (Vj,k + α (Vj−1,k+1 + Vj+1,k+1 )) 1 + 2α
(5.25)
228
5 Sistemi dinamici discreti: equazioni vettoriali
Questo semplice riarrangiamento isola i termini diagonali del membro sinistro. Il metodo di Jacobi consiste nel partire da un valore iniziale approssimato per Vj,k+1 con 1 ≤ j ≤ N − 1, sostituendolo nel membro di destra della (5.25) per ottenere un nuovo valore approssimato per Vj,k+1 . Tale processo viene iterato fino a quando l’approssimazione non cambia significativamente da una iterazione alla successiva: quando ci` o accade si interrompono le iteram zioni perch´e `e stata calcolata la soluzione cercata. Pi` u precisamente: se Vj,k+1 0 rappresenta la m-esima iterata di Vj,k+1 e Vj,k+1 `e l’approssimante iniziale, ci si aspetta che m lim Vj,k+1 = Vj,k+1 . m
Una volta calcolato
m Vj,k+1
m+1 Vj,k+1 =
m+1 si pu` o determinare Vj,k+1 a partire da
m 1 m + Vj+1,k+1 Vj,k + α Vj−1,k+1 1 + 2α
(5.26)
e il processo viene iterato fino a quando l’errore 2 8 8 m+1 m+1 m 82 m 8V V − V = − V k+1 j,k+1 k+1 j,k+1 j
diventa sufficientemente piccolo da non giustificare ulteriori iterazioni. A quem+1 sto punto si pu` o considerare Vj,k+1 come valore di Vj,k+1 . Si verifica che il metodo di Jacobi converge alla soluzione corretta per ogni α > 0. Il metodo di Gauss-Seidel rappresenta un raffinamento del metodo di Jacom+1 nella (5.26) bi. Punto di partenza `e l’osservazione che quando si calcola Vj,k+1 m+1 m `e gi`a noto il valore di Vj−1,k+1: si usa allora tale valore al posto di Vj−1,k+1 e dunque la (5.26) diventa m+1 Vj,k+1 =
1 m+1 m Vj,k + α Vj−1,k+1 + Vj+1,k+1 1 + 2α
(5.27)
Sintetizzando, possiamo affermare che il metodo di Gauss-Seidel utilizza un’approssimante appena questa diventa disponibile aumentando cos`ı, rispetto al metodo di Jacobi, la velocit` a di convergenza. La maggior efficienza del metodo di Gauss-Seidel `e dovuta anche al fatto che l’aggiornamento delle iterate avviene immediatamente riscrivendo la singola iterata calcolata al passo precedente10 , mentre applicando il metodo di Jacobi `e necessario memorizzare separatamente le vecchie iterate in quanto tutte vengono coinvolte nel calcolo delle iterate al passo successivo. Osserviamo infine che anche nel caso del metodo di Gauss-Seidel si pu`o dimostrare la convergenza per ogni valore di α > 0. Il metodo SOR rappresenta un raffinamento del metodo di Gauss-Seidel. Si parte dall’identit` a banale 10
m+1 m m+1 In memoria si sovrascrive Vj−1,k+1 su Vj−1,k+1 prima di calcolare Vj,k+1 .
5.8 Schemi numerici per la risoluzione di problemi lineari
m+1 m+1 m m Vj,k+1 = Vj,k+1 + Vj,k+1 − Vj,k+1
229
.
m → Vj,k+1 , si pu` o pensare che il termine Poich´e m → +∞ implica Vj,k+1 m+1 m Vj,k+1 − Vj,k+1 rappresenti un termine correttivo che deve essere aggiunto m a Vj,k+1 per renderlo pi` u vicino al vero valore Vj,k+1 . Si pu` o cercare di sovram+1 correggere (over-correct): precisamente, il valore Vj,k+1 viene determinato in due tempi a partire dalle relazioni 1 m+1 m+1 m Vj,k + α Vj−1,k+1 Yj,k+1 = + Vj+1,k+1 1 + 2α m+1 m+1 m m Vj,k+1 = Vj,k+1 + ω Yj,k+1 − Vj,k+1
dove ω > 1 si dice parametro di sovrarilassamento (over-relaxation). Si m+1 m+1 noti che il valore Yj,k+1 `e quello fornito dal metodo di Gauss-Seidel per Vj,k+1 : m+1 m invece, con il metodo SOR il termine Yj,k+1 − Vj,k+1 viene visto come una m+1 m correzione da apportare a Vj,k+1 al fine di ottenere Vj,k+1 . Si dimostra che il metodo SOR converge alla soluzione cercata per ogni valore di α > 0 a patto che 0 < ω < 2. Si pu` o inoltre dimostrare l’esistenza di un unico valore del parametro ω compreso fra 1 e 2 in corrispondenza del quale si ha la massima velocit`a di convergenza. Tale valore dipende dalla dimensione della matrice considerata e dalla tipologia dei suoi elementi. Consideriamo ora un semplice ma istruttivo esempio: il sistema di equazioni lineari algebriche ( ) ( ) ( ) 1 1 X1 B1 EX = B dove E= X= B= . 1 1, 01 X2 B2 Poich´e det E = 0 si sa che qualunque sia la scelta di B esiste una ed una sola soluzione del sistema. Tuttavia il sistema `e mal condizionato nel senso seguente: a piccole variazioni del dato B possono corrispondere grandi variazioni della soluzione. T T T Ad esempio, se B = 2 2, 01 allora X = 1 1 , se invece B = 2 1, 9 T allora X = 12 −10 . Ci`o si verifica perch´e (bench´e E sia definita positiva e strettamente positiva) il rapporto tra massimo e minimo autovalore di E `e molto grande; infatti, risolvendo l’equazione caratteristica λ2 − 2, 01λ + 0, 01 = 0 si ricavano gli √ autovalori λ1,2 = 201 ± 40001 /200, cio`e: λ1 = 4, 9875 × 10−3 da cui si ottiene
λ2 = 2, 005
λ2 ∼ 400 λ1 Si noti che λ2 `e stimabile senza calcolarlo effettivamente (Osservazione 5.20): 2 ≤ λ2 ≤ 2, 01.
230
5 Sistemi dinamici discreti: equazioni vettoriali
I problemi mal condizionati vanno affrontati con opportune manipolazioni preliminari alla soluzione numerica, allo scopo di evitare errori grossolani. Cerchiamo di formalizzare questo discorso discutendo la sensibilit` a delle soluzioni del sistema lineare MX = B (5.28) rispetto alle perturbazioni del vettore dato B. Consideriamo il problema perturbato M (X + δX) = (B + δB) (5.29) dove δB `e una perturbazione di B e X + δX `e la soluzione corrispondente al dato perturbato B + δB. Osserviamo che, grazie alla linearit` a, da (5.28) e (5.29) segue M δX = δB . Teorema 5.40. (Stima dell’errore relativo dovuto a perturbazioni del dato nella soluzione di un sistema lineare algebrico) Se M `e una matrice invertibile, (5.28) e (5.29) implicano δX δB ≤ X (M) X B 8 −1 8 dove X (M) = M 8M 8 `e detto numero di condizionamento della matrice non singolare M ed M = max (MX / X) `e la norma di M X =0
come trasformazione lineare in Rn (si veda la Definizione 5.31). Prova. Da (5.28) e (5.29) seguono δX = M−1 (B + δB) − X = M−1 (B + δB − B) = M−1 δB δB δB δB δX ≤ ||M−1 || ≤ ||M−1 || ||M|| ≤ X (M) . X X ||M|| X B
Osservazione 5.41. Nei casi in cui M `e una matrice simmetrica reale e definita positiva, vale X (M) = λmax (M) /λmin (M). Vediamo le conseguenze del Teorema 5.40 e dell’Osservazione 5.41 in qualche esempio concreto. Osserviamo che la matrice tridiagonale reale simmetrica dell’Esempio 5.34 pur essendo definita positiva `e mal condizionata: λmax (T) ∼ λmin (T)
N +1 π
2
Invece la matrice B = I − αT `e ben condizionata se 0 < α < 1/8 perch´e in tal caso 1 0 < < λmin (B) < λmax (B) < 1 . 2 −1
La matrice A−1 = (I + αT)
`e ben condizionata se α > 0 perch´e in tal caso
5.9 Esercizi di riepilogo
0
0, b > 0. A e B giocano a testa o croce con una moneta equa (la probabilit` a p di 1
Andrei A. Markov, 1856-1922. Uno dei fondatori del moderno calcolo delle probabilit` a. Salinelli E , Tomarelli F : Modelli dinamici discreti, 2a edizione. c Springer-Verlag Italia 2009, Milano
234
6 Catene di Markov
avere testa `e uguale alla probabilit` a q di avere croce: p = q = 1/2): chi vince un turno prende una moneta all’avversario. Vince la partita chi rovina l’avversario, ottenendo tutte le a + b monete. Poniamo a + b = s. Per descrivere la situazione del gioco ad un dato turno, consideriamo il numero Xk di monete possedute dal giocatore A (B ne possiede s − Xk ) prima di giocare il turno (k + 1)-esimo. ` comodo riportare in un diagramma le possibili storie della partita: si veda E la Figura 6.1. Per calcolare la probabilit` a che A dopo tre lanci della moneta possegga a + 1 monete, dobbiamo valutare la probabilit` a di ciascuno dei possibili “percorsi” che si concludono in tre tappe in a + 1 : 3 1 A perde A vince A vince a −→ a − 1 −→ a −→ a + 1 : probabilit` a 2 3 1 A perde A vince A vince a −→ a + 1 −→ a −→ a + 1 : probabilit` a 2 3 1 A perde A vince A vince a −→ a + 1 −→ a + 2 −→ a + 1 : probabilit` a 2 Poich´e i tre percorsi rappresentano tre storie diverse (eventi disgiunti) la probabilit` a richiesta `e data dalla somma delle probabilit` a di ciascun pecorso, cio`e da 3/8. Gli stati possibili sono i valori che pu` o assumere Xk nel corso della partita, cio`e {0, 1, . . . , s}. Pu` o essere utile visualizzare graficamente le possibili transizioni tra i vari stati: con riferimento alla Figura 6.2, utilizziamo gli archi orientati per rappresentare la probabilit` a di transizione da un valore ad un altro della somma posseduta da A . Ad ogni arco corrisponde una probabilit` a di transizione2 . a
a−3
a−2
a−1
a+1 a
a−1
a+2 a+1
a+3
Figura 6.1 Possibili andamenti del capitale di A corrispondenti a tre lanci consecutivi della moneta
2
Il lettore familiare con il calcolo delle probabilit` a pu` o osservare che la probabilit` a di transizione da uno stato E ad un altro stato F `e un esempio di probabilit` a condizionale, cio`e la probabilit` a che si cada in F essendo certi di partire dallo stato E.
6.1 Esempi, definizioni e notazioni
235
Figura 6.2 Grafo che illustra le possibili transizioni e le loro probabilit` a
Ciascuna di queste probabilit` a dipende dalla moneta ma non dipende dal numero di turni di gioco effettuati in precedenza. Avendo supposto che la moneta non sia truccata, e dunque che il gioco sia equo, 1/2 `e la probabilit` a di passare da j a j + 1 o da j a j − 1 monete, se 0 < j < s, invece `e 1 la probabilit` a di passare da 0 a 0 o da s ad s monete (sono due situazioni cui si pu` o pervenire, ma da cui non si pu` o uscire). Calcoliamo la probabilit` a che A vinca il gioco. Questo corrisponde al verificarsi di un evento dell’infinit` a di possibili (ma non tutti) sviluppi del gioco: A vince al primo turno A vince al secondo turno A vince al terzo turno .. . Ciascuno di questi eventi si realizza con un numero finito di percorsi nel grafo (tale numero cresce rapidamente al crescere del numero d’ordine del turno della vittoria) la cui probabilit` a `e data dal prodotto delle probabilit` a del verificarsi di ciascuna transizione. La probabilit` a di vittoria `e la somma delle probabilit` a di tali eventi. Posto P (j), j = 0, 1, . . ., s, la probabilit` a di vincere partendo con j monete, si ottiene 1 (P (j − 1) + P (j + 1)) j≥1 (6.1) 2 formula che ha una interpretazione geometrica: ogni terna di coordinate (j − 1, P (j − 1)), (j, P (j)), (j + 1, P (j + 1)) corrisponde a tre punti allineati nel piano. Inoltre, da P (0) = 0 e P (s) = 1 segue che tutte le coppie (j, P (j)) appartengono ad una retta passante per l’origine: P (j) =
j . s Dunque, la probabilit` a di vittoria per A (uguale alla probabilit` a di rovina per B) sostituendo i nostri dati iniziali `e a P (a) = . a+b P (j) =
236
6 Catene di Markov
Come si era gi`a osservato, pur essendo equo il gioco, le probabilit` a sono a favore di chi detiene un pi` u cospicuo capitale iniziale (si rifletta sul fatto che A in caso di vittoria conquista b monete, B invece ne conquista a). Una completa descrizione dell’evoluzione del gioco pu` o essere ottenuta utilizzando l’Algebra Lineare per esprimere in modo sintetico tutte le informazioni contenute nella Figura 6.2: T se Pk = Pk (0) Pk (1) . . . Pk (s) `e il vettore delle probabilit` a Pk (t) di avere t monete al tempo k, abbiamo un esempio di catena di Markov ad s + 1 stati descritta da ⎡ ⎤ 1 1/2 0 0 · · · 0 0 ⎢ 0 0 1/2 0 · · · 0 0 ⎥ ⎢ ⎥ ⎢ 0 1/2 0 1/2 · · · 0 0 ⎥ ⎢ ⎥ ⎢ .. .. ⎥ .. .. ⎢ . . .⎥ Pk+1 = MPk dove M = ⎢ 0 0 1/2 . ⎥. ⎢. . ⎥ . . . . . . ⎢. . . 0 1/2 0 ⎥ . ⎥ ⎢ ⎣ 0 0 0 · · · 1/2 0 0 ⎦ 0 0 0 . . . 0 1/2 1 Con tale notazione, se si inizia con j monete allora la probabilit` a di vittoria al tempo k, cio`e Pk (s), `e data dall’ultima componente del vettore Mk P0 , ove T P0 = 0 · · · 1 · · · 0 la cui unica componente non banale `e la j-esima. " # Esempio 6.2. Due urne contengono delle biglie colorate. La prima ne contiene 2 bianche e 3 nere, la seconda 4 bianche e 5 nere. Si estrae una biglia dalla prima urna, se ne registra il colore e la si reintroduce nella sua urna. Se era bianca si effettua la successiva estrazione dalla prima urna, se era nera, dalla seconda. Quindi si itera il procedimento. Ci si chiede qual `e la probabilit` a che alla quinta estrazione la biglia sia bianca. Si tratta di un esempio di catena di Markov a due stati: uno stato `e l’estrazione di una biglia bianca, l’altro `e l’estrazione di una biglia nera. Se la k-esima biglia estratta `e bianca, allora alla (k + 1)-esima estrazione la probabilit` a di estrarre bianca `e 2/5, quella di estrarre nera `e 3/5; se la k-esima biglia `e nera, allora alla (k + 1)-esima estrazione la probabilit` a di estrarre bianca `e 4/9, nera 5/9. Per risolvere il problema posto, consideriamo tutti i casi possibili e definiamo Pk la probabilit` a che la k-esima estrazione sia bianca e Qk = 1 − Pk la probabilit` a che sia nera. Sappiamo, estraendo dalla prima urna, che P1 = 2/5 e Q1 = 3/5. Se la k-esima estrazione `e bianca, allora la probabilit` a che la (k + 1)-esima sia ancora bianca `e 2/5; se la k-esima estrazione `e nera, allora la probabilit` a che la (k + 1)-esima sia bianca `e 4/9. Poich´e si tratta di eventi disgiunti la cui unione d` a tutti i casi in cui si pu` o ottenere bianca alla (k + 1)-esima estrazione, si ha: Pk+1 =
2 4 P k + Qk 5 9
(6.2)
6.1 Esempi, definizioni e notazioni
237
e ricordando che Pk + Qk = 1 Pk+1 =
4 2 − Pk . 9 45
Se esiste lim Pk = L ∈ R, allora vale anche Pk+1 → L e quindi k
L=
2 4 − L 9 45
⇒
L=
20 . 47
k−1
Esplicitamente, sappiamo Pk = 20/47 + (2/45) (P1 − 20/47) , k ∈ N\ {0}. Si potrebbe procedere con le stesse regole ma iniziando ad estrarre dalla seconda urna; tuttavia l’argomentazione precedente prova che la scelta della prima urna e la prima estrazione non influenzano la probabilit` a Pk per valori di k “grandi”. Dunque, se avessimo cominciato dalla seconda urna non sarebbe cambiato molto: Pk tende allo stesso valore L qualunque sia l’urna da cui si inizia, tuttavia P1 = 2/5 se si inizia dalla prima urna, mentre P1 = 4/9 se si inizia dalla seconda urna. T Comunque, posto Pk = Pk Qk possiamo tradurre la (6.2) nel modo seguente: ( ) 2/5 4/9 Pk+1 = MPk k≥1 dove M= . 3/5 5/9 Se vi fossero state biglie con pi` u di due colori, avremmo avuto una catena di Markov con pi` u di due stati ed avremmo utilizzato matrici di ordine corrispondente al numero dei colori. In generale, una catena di Markov `e un modello per descrivere una successione di esperimenti in ciascuno dei quali i risultati possibili (ad esempio, estrazione di una biglia bianca o nera) sono gli stessi in ogni esperimento. Tuttavia la probabilit` a di uno stesso evento (ad esempio, biglia bianca) dipende solo dal risultato dell’esperimento precedente. Nel caso in cui il parametro `e il tempo si usa anche dire che le catene di Markov descrivono fenomeni che dipendono dal passato solo tramite il presente. Diamo a questo punto una definizione formale. Qui e nel seguito il parametro k che descrive il processo `e sempre considerato come tempo. Definizione 6.3. Una catena di Markov finita e omogenea3 `e un processo descritto da un insieme finito Ω = {s1 , s2 , . . . , sn } di stati (o eventi) si distinti, tali che, per ogni coppia ordinata di stati sj , si , `e assegnata una probabilit` a mij di transizione dallo stato sj allo stato si , indipendente da k. Necessariamente le probabilit` a di transizione di una catena di Markov soddisfano le relazioni: Noi studieremo solo il caso, detto omogeneo, in cui M `e costante. Nei casi non omogenei si ha M = M (k).
3
238
6 Catene di Markov
0 ≤ mij ≤ 1
n
i, j = 1, . . . , n ;
mij = 1 ∀j = 1, . . . , n .
(6.3)
i=1
La probabilit` a con cui si pu` o presentare uno stato si al tempo k + 1 dipende solo dallo stato che si `e presentato al tempo k, cio`e mij = P Xk+1 = si | Xk = sj , Xk−1 = sjk−1 , . . . , X1 = sj1 , X0 = sj0 = = P (Xk+1 = si | Xk = sj ) . Come si `e fatto per l’Esempio 6.1 nella Figura 6.2, una catena di Markov pu` o essere descritta e visualizzata mediante un grafo orientato, cio`e un insieme di ` sottinteso che vertici (gli eventi) e di lati (frecce che collegano gli eventi). E ad ogni vertice A collegato mediante una freccia ad un altro vertice (incluso il vertice stesso A) e a ciascuna freccia `e associata una probabilit` a di transizione positiva; non si tracciano i cammini che corrispondono a probabilit` a di transizione nulla. Per una trattazione pi` u approfondita dei grafi si veda il Capitolo 7. Dal punto di vista algebrico, `e comodo rappresentare una catena di Markov mediante la matrice di transizione (o matrice stocastica) M = [mij ] i cui elementi sono le probabilit` a di transizione mij dallo stato sj allo stato si . La (6.3) assicura che M `e una matrice positiva e la somma degli elementi di ciascuna sua colonna `e pari a 1. Lemma 6.4 Sia M = [mij ] una matrice positiva di dimensione n. Valgono le seguenti conclusioni: (1) M `e stocastica se e solo se: T 1 `e autovalore di MT con autovettore associato 1 = 1 1 . . . 1 ; (2) se M `e stocastica, ogni suo autovalore λs soddisfa |λs | ≤ 1. ` sufficiente osservare che la condizione di stocasticit` Prova. (1) E a per una matrice positiva M equivale a MT ·1 = 1 e ricordare che M ed MT hanno gli stessi autovalori. (2) Se Vs `e autovettore associato a λs allora: n n n n n n
s s s |Vi | = |λs Vi | = mij Vj ≤ mij Vjs = |λs | i=1 i=1 i=1 j=1 i=1 j=1 n n n
s s Vj . mij Vj = = j=1
Poich´e
n
s r=1 |Vr |
i=1
= 0 si ottiene la tesi.
j=1
Si noti che una matrice stocastica pu` o ammettere pi` u autovalori di modulo unitario. Inoltre, possono esservi anche autovalori doppi, nulli o negativi come accade per le seguenti matrici stocastiche:
6.1 Esempi, definizioni e notazioni
(
1 0 0 1
)
(
0 1 1 0
)
(
1/2 1/2 1/2 1/2
239
)
o anche complessi se n ≥ 3 (cfr. Esercizio 6.13).4 T Siano M = [mij ] una matrice stocastica e Pk = Pk1 Pk2 . . . Pkn il vettore delle probabilit` a di ciascuno stato al tempo k (Pkj `e la probabilit` a di osservare lo stato sj al tempo k). Si ha per ogni k ∈ N: 0 ≤ Pkj ≤ 1 , j = 1, . . . , n ;
n
Pkj = 1 ∀k ∈ N .
(6.4)
j=1
Dalle ipotesi fatte, per ogni k ∈ N j Pk+1 = Pk1 mj1 + Pk2 mj2 + · · · + Pkn mjn
dunque le n equazioni alle differenze che descrivono la probabilit` a degli n stati ammissibili al tempo k+1 in funzione delle corrispondenti probabilit` a al tempo precedente, costituiscono un sistema dinamico discreto vettoriale, ad un passo, lineare omogeneo5 : Pk+1 = M Pk
∀k ∈ N (6.5)
Lemma 6.5 Se M `e stocastica e P `e una successione che soddisfa (6.5), allora la validit` a di (6.4) per un valore fissato k, implica la validit` a di (6.4) per ogni k > k. Prova. La (6.5) dice che Pk+1 `e combinazione lineare delle colonne di M con coefficienti dati dalle componenti di Pk . j ≥ 0 ∀j. Inoltre Da mij ≥ 0 e Pkj ≥ 0 ∀i, j segue Pk+1 n n n n n n n
j
h h Pk+1 = mjh Pk = mjh Pk = mjh Pkh = j=1
j=1
=
n
h=1
h=1
h=1
j=1
h=1
j=1
Pkh = 1.
1 ab , con a, b, c, d ≥ 0, il polinomio caratteristico P (λ) = cd 2 λ − (a + d) λ + (ad − bc) ha discriminante uguale a (a − d)2 + 4bc ≥ 0, dunque tutti gli autovalori sono reali; inoltre, per la regola dei segni di Cartesio, entrambi sono positivi se ad > bc, uno positivo e uno nullo se ad = bc, uno positivo e uno negativo se ad < bc. 4
0
Se n = 2 e M =
5
Attenzione: in alcune trattazioni si assume che mij rappresenti la probabilit` a di n j h T mhj Pk ossia Pk+1 = M Pk ; in tali casi transizione da i a j e quindi Pk+1 = h=1
`e la somma degli elementi di ogni riga di M ad essere uguale ad 1.
240
6 Catene di Markov
Ne segue anche j ≤1 Pk+1
∀j.
Si `e provata la validit` a di (6.4) per k = k + 1. Il caso generale (k > k) segue per induzione.
Riassumendo, il Lemma appena dimostrato afferma che una matrice stocastica trasforma un vettore distribuzione di probabilit` a in un altro vettore distribuzione di probabilit` a. In generale, una catena di Markov sar` a descritta dal s.d.d. vettoriale (6.5) con matrice M stocastica e con dato iniziale di tipo distribuzione di probabilit` a (distribuzione di probabilit` a iniziale), cio`e 0≤
P0j
≤ 1,
n
j = 1, . . . , n;
P0j = 1 .
(6.6)
j=1
La dinamica di tale sistema si svolge nel sottoinsieme proprio S di Rn : ⎧ ⎫ n ⎨ ⎬ S = V ∈ Rn : V j ≥ 0 ∀j , Vj = 1 , ⎩ ⎭ j=1
cio`e tutte le traiettorie sono contenute in S. (0,1)
(0,0,1)
1
(0,1,0)
n=1 (1,0) n=2
(1,0,0) n=2
Figura 6.7 n simplessi, n = 1, 2, 3
S `e detto n-simplesso. S `e convesso, chiuso e limitato e coincide con l’insieme di tutte le possibili distribuzioni di probabilit` a su un insieme di n stati. Il Lemma 6.5 pu` o essere riformulato nel modo seguente: il simplesso S `e invariante per la dinamica del s.d.d. vettoriale (6.5) nel senso che se P ∈ S allora MP ∈ S. Studieremo in dettaglio la dinamica del sistema (6.5) ristretta ad S. Sistemi dinamici vettoriali ad un passo del tipo (6.5) sono stati studiati nel Capitolo V. La loro soluzione esplicita `e:
Pk = Mk P0
∀k ∈ N
6.1 Esempi, definizioni e notazioni
241
Poich´e {s1 , . . . , sn } descrive una collezione disgiunta di tutti gli stati possibili, (k) si verifica che il generico elemento mij di Mk rappresenta la probabilit` a di transizione dallo stato j allo stato i in k passi, cio`e: (k)
mij = P (Xn+k = si | Xn = sj ) .
(6.7)
In generale, per ogni k e h in N, valgono le relazioni: (equazioni di Chapman-Kolmogorov)
(k+h)
mij
=
n
(k)
(h)
mir mrj .
r=1
Quando la matrice di transizione M ha l’autovalore 1 semplice e non ha altri autovalori di modulo unitario l’analisi asintotica della catena di Markov associata `e descritta in modo completo dal Teorema seguente. Teorema 6.6. Sia M una matrice stocastica, V1 , . . . , Vn una base di autovettori (o base di Jordan di autovettori generalizzati se necessario) di M cui corrispondono gli autovalori λ1 , . . . , λn verificanti λ1 = 1, |λj | < 1, ∀j = 1. Allora V1 > O, dunque non `e restrittivo supporre che V1 sia una distribuzione di probabilit` a Vj1 = 1 (6.8) j
cosa che faremo nel seguito. Inoltre ogni distribuzione di probabilit` a iniziale P0 , si pu` o rappresentare mediante n cj V j con c1 = 1 (6.9) P0 = j=1
e la corrispondente soluzione Pk del sistema dinamico (6.5) verifica Pk = c1 λk1 V1 + c2 λk2 V2 + · · · + cn λkn Vn
(6.10)
se V1 , . . . , Vn sono tutti autovettori (o in generale, se nella base sono presenti anche autovettori generalizzati, Pk = c1 λk1 V1 + Wk
(6.11)
dove il vettore Wk `e una somma finita con coefficienti indipendenti da k di termini a crescita al pi` u k mj λkj , con |λj | < 1) . Infine lim Pk = V1 . (6.12) k
Prova. Fissato P0 , per opportuni (unici) cj vale P0 = Le rappresentazioni (6.10) e (6.11) implicano lim Pk = c1 V1 , k
n j=1
da cui c1 Vj1 ≥ 0
cj V j .
∀j .
(6.13)
242
6 Catene di Markov
Poich´e risulta
n h=1
Pkh = 1, ∀k, si ricava 1 = lim k
cio`e c1 = 0 ,
n
1 h=1 Vh
n
Pkh = c1
h=1
n
Vj1
j=1
= 0 e c1 =
1 . V11 + V21 + · · · + Vn1
(6.14)
Da (6.4) e (6.13) segue che c1 V1 ha tutte le componenti non negative ed almeno a; una strettamente positiva, dunque `e lecito scegliere V1 distribuzione di probabilit` ne segue c1 = 1 e (6.12).
Abbiamo cos`ı provato che ogni distribuzione di probabilit` a iniziale P0 ha una componente non banale lungo V1 , anzi P0 coincide con V1 se tale autovettore `e stato selezionato (cosa sempre possibile) come una distribuzione di probabilit` a (si confronti la conclusione con l’Osservazione 5.19 valida nel caso di s.d.d. vettoriali la cui dinamica non `e confinata al simplesso S delle distribuzioni di probabilit` a). Osservazione 6.7. L’informazione c1 = 1 nella tesi del Teorema 6.6 pu`o apparire sorprendente ad una prima lettura. In realt` a diventa assai naturale se si considera che, per ogni matrice stocastica M la distribuzione di probabilit` a uniforme [1/n 1/n · · · 1/n]T `e autovettore relativo all’autovalore 1 per la sua trasposta MT , e nel caso in esame tale autovalore `e semplice per MT perch´e semplice per M; dunque, osservato che ogni distribuzione di probabilit` a iniziale P0 verifica P0 > 0, si pu` o ripetere l’argomento nella prova del Teorema 5.19 (senza usare il Teorema di Frobenius-Perron che serviva solo per la semplicit` a dell’autovalore di massimo modulo che qui vale 1 ed `e semplice per ipotesi) ottenendo che tutti gli autovettori generalizzati (diversi da V1 ) Vj j ≥ 2 sono ortogonali a [1/n 1/n · · · 1/n]T che a sua volta `e ortogonale al simplesso di tutte le distribuzioni di probabilit` a. La situazione illustrata nel Teorema 6.6 (autovalore dominante semplice uguale ad 1 associato ad un autovettore positivo) `e particolarmente semplice e ben ` utile saperla identificare in generale. descritta. E Definizione 6.8. Una catena di Markov regolare `e una catena di Markov con matrice di transizione M per cui esiste un valore di k tale che la matrice Mk `e strettamente positiva (Definizione 5.11). Dunque, una catena di Markov `e regolare se esiste un k intero positivo tale che la probabilit` a di transizione in k passi fra due suoi stati qualsiasi `e positiva. Esempio 6.9. La matrice stocastica (
0 1/2 M= 1 1/2
)
6.1 Esempi, definizioni e notazioni
243
`e regolare dato che (
0 1/2 M = 1 1/2
)(
2
) ( ) 0 1/2 1/2 1/4 = . 1 1/2 1/2 3/4 (
La matrice stocastica M=
1 1/2 0 1/2
)
non `e regolare; infatti (
1 1/2 M = 0 1/2
)(
2
e, supponendo che sia
(
M
k−1
si ottiene
(
M =M·M k
k−1
) ( ) 1 1/2 1 3/4 = 0 1/2 0 1/4
1 1/2 = 0 1/2
1 pk−1 = 0 1 − pk−1
)(
)
) ) ( 1 (pk−1 + 1)/2 1 pk−1 . = 0 (1 − pk−1 )/2 0 1 − pk−1
Per riconoscere se una matrice stocastica `e regolare risulta utile il seguente teorema. Teorema 6.10. Se una catena di Markov `e regolare, allora la sua matrice di transizione M ha esattamente un solo autovalore uguale ad 1 e tutti gli altri sono strettamente minori di 1 in modulo. A tale autovalore dominante `e associato un autovettore strettamente positivo. Prova. Sappiamo (vedi Lemma 6.4) che 1 `e un autovalore di M e che non vi sono autovalori di modulo maggiore di 1. Per il Teorema di Frobenius-Perron (Teoremi 5.12 e 5.13) se la catena `e regolare, allora M ha un autovalore dominante positivo e semplice che necessariamente `e l’autovalore 1. La stretta positivit` a del corrispondente autovettore segue dal Teorema di Frobenius-Perron: per la stretta positivit` a se ne pu` o determinare un multiplo strettamente positivo la cui somma delle componenti sia esattamente 1 (cio`e sia una distribuzione di probabilit` a).
I Teoremi 6.10 e 6.6 mostrano che i s.d.d. associati a catene di Markov regolari hanno notevoli propriet` a qualitative e quantitative: il quadro generale sar` a sintetizzato nel Teorema 6.37. Esempio 6.11. La matrice stocastica ⎡ ⎤ 1 0 1/3 M = ⎣ 0 1 1/3 ⎦ 0 0 1/3 non `e regolare, avendo autovalori λ1 = λ2 = 1 e λ3 = 1/3.
244
6 Catene di Markov
Definizione 6.12. Uno stato assorbente per una catena di Markov ad n stati, `e uno stato sj tale che mjj = 1. Esplicitamente, uno stato sj `e assorbente se il suo verificarsi al tempo k implica la certezza di riottenere sj al tempo k + 1. Osservazione 6.13. Se sj `e uno stato assorbente, la j-esima colonna della matrice di transizione M `e del tipo T (6.15) 0 ... 0 1 0 ... 0 ↑
j-esima posizione
Inoltre, ad sj corrisponde un autovalore di M uguale a 1 che ha (6.15) come autovettore associato. Definizione 6.14. Una catena di Markov assorbente `e catena di Markov che verifica le due condizioni seguenti: • esiste almeno uno stato assorbente; • da ogni stato iniziale si pu` o pervenire ad uno stato assorbente, cio`e per ogni (k) j esiste un indice i ed un intero k > 0 tali che si `e assorbente e mij > 0. Esempio 6.15. La seguente matrice ⎡
⎤ 0 0 0 M = ⎣1 0 0 ⎦ 0 1 1
`e associata ad una catena di Markov assorbente. Esempio 6.16. Consideriamo la catena di Markov assorbente a 5 stati (i primi due sono assorbenti) con matrice di transizione: ⎡ ⎤ 1 0 0, 2 0 0, 1 ⎢ 0 1 0, 2 0, 3 0, 2 ⎥ ⎥ ⎢ ⎥ M=⎢ ⎢ 0 0 0, 2 0, 3 0, 3 ⎥ . ⎣ 0 0 0, 2 0, 4 0, 2 ⎦ 0 0 0, 2 0 0, 2 Si noti che ci si pu` o trovare fuori dagli stati 1 e 2 per tempi arbitrariamente lunghi, ma in ogni evoluzione, ad ogni k, ad ogni stato vi `e probabilit` a positiva di cadere o nello stato 1 o nello stato 2. Esempio 6.17. Consideriamo la catena di Markov a quattro stati, non assorbente, con uno stato assorbente (il primo) e con matrice di transizione: ⎤ ⎡ 1 0, 2 0 0 ⎢ 0 0, 2 0 0 ⎥ ⎥ M=⎢ ⎣ 0 0, 3 0, 5 0, 5 ⎦ ; 0 0, 3 0, 5 0, 5 in questo caso, se si transita nel 3◦ o 4◦ stato, il primo diventa inaccessibile.
6.2 Analisi asintotica di modelli descritti da catene di Markov assorbenti
245
Osservazione 6.18. Si noti che la presenza anche di un solo stato assorbente in una catena di Markov con almeno 2 stati fa s`ı che la catena non possa essere regolare: infatti la corrispondente matrice di transizione M non `e strettamente positiva (nella colonna corrispondente allo stato assorbente vi sono degli zeri) e ciascuna sua potenza intera presenter` a almeno uno zero (dato che la suddetta colonna rappresenta un autovettore di M). Esercizio 6.1. Stabilire quali delle catene di Markov associate alle seguenti matrici di transizione sono regolari: Esercizio 6.2. Stabilire quali delle catene di Markov associate alle seguenti matrici di transizione sono assorbenti:
6.2 Analisi asintotica di modelli descritti da catene di Markov assorbenti In questo paragrafo descriviamo alcuni strumenti per lo studio qualitativo delle catene di Markov. La legge ricorsiva Pk+1 = MPk che definisce una catena di Markov (che `e un s.d.d. vettoriale lineare omogeneo) ci consente di calcolare le probabilit` a dei vari stati al tempo k + 1 se `e nota la probabilit` a di ciascuno di essi al tempo k (ricordiamo che ∀k ∈ N, Pk `e il vettore ad n componenti che determina la distribuzione di probabilit` a corrispondente agli n stati del sistema). In tali situazioni `e di grande interesse per le applicazioni risolvere il seguente problema: Problema 6.19. Assegnato uno stato iniziale si o, pi` u in generale, una distribuzione di probabilit` a P0 per lo stato iniziale6, calcolare o perlomeno stimare la probabilit` a che l’evoluzione si concluda in un prefissato stato finale sj cio`e lo si raggiunga e vi si rimanga definitivamente (quale che sia la storia con cui si perviene a tale stato). Studiamo il Problema 6.19 solo nel caso di catene assorbenti: come sar` a chiarito dal Teorema 6.23, se la catena `e assorbente allora il problema 6.19 `e significativo solo se lo stato finale sj `e assorbente, infatti, in tal caso la probabilit` a di rimanere indefinitamente in uno stato non assorbente sj risulta nulla. Per risolvere il problema si potrebbero determinare tutte le possibili evoluzioni che, partendo da P0 conducono ad sj , calcolarne le corrispondenti probabilit` a ed infine sommarle. Questa tecnica si rivela in pratica proibitiva. Tuttavia, nei casi in cui assegnato P0 sia possibile mostrare che esiste Prescrivere lo stato iniziale si , i ∈ {1, 2, . . . , n}, coincide con l’assegnazione del2 3T dove l’unica la distribuzione di probabilit` a iniziale P0 = 0 . . . 0 1 0 . . . 0 componente non banale `e quella di posizione i-esima. 6
246
6 Catene di Markov
P∞ = lim Pk k
e si sa calcolare P∞ , il problema posto `e risolto dal valore della componente j-esima di tale P∞ . Esempio 6.20. Se
( M=
1/2 1/2 1/2 1/2
)
allora non vi sono stati assorbenti e la permanenza definitiva nel primo o secondo stato `e un evento con probabilit` a nulla. Vi `e per`o una distribuzione di probabilit` a invariante (vedi Definizione 6.27) che `e strettamente positiva: T P = 1/2 1/2 . Esempio 6.21. Per la catena di Markov ⎡ 1 0 M = ⎣ 0 1/2 0 1/2
con matrice di transizione ⎤ 0 1/2 ⎦ 1/2
il primo stato `e assorbente, ma non vi sono transizioni dal primo stato al secondo o al terzo, n´e viceversa: il corrispondente Problema 6.19 problema `e disaccoppiato. Dunque la catena di Markov non `e assorbente. Studieremo il Problema 6.19 nel caso in cui la catena di Markov `e assorbente, denotando con P la successione di vettori di probabilit` a: Pk+1 = MPk con P0 assegnato, dove M ha ordine n. Premettiamo che, se M `e la matrice di transizione di una catena di Markov assorbente, allora non `e restrittivo supporre che gli stati assorbenti siano i primi m (1 ≤ m < n), eventualmente riordinando gli stati (cio`e con un cambio di coordinate in Rm di tipo permutazione della base, si vedano gli Esercizi 6.6 e 6.7). Dunque, posto h = n − m ≥ 1, abbiamo ) ) ( ( B I Pk Pk = (6.16) M= m Oh,m A Qk dove Im `e la matrice identit` a di ordine m, Oh,m `e la matrice di ordine h×m con tutti gli elementi nulli; infine A (quadrata di ordine h) pu` o essere la matrice nulla Oh , mentre B (di ordine m × h) non pu` o essere nulla perch`e la catena `e assorbente. Esempio 6.22. La catena di Markov con matrice di transizione ⎡ ⎤ 1 0 1/2 1/3 ⎢ 0 1 1/2 2/3 ⎥ ⎥ M=⎢ ⎣0 0 0 0 ⎦ 0 0 0 0 `e assorbente.
6.2 Analisi asintotica di modelli descritti da catene di Markov assorbenti
247
Il vettore Pk delle probabilit` a pu` o essere decomposto in due vettori Pk e Qk , dove Pk corrisponde alle prime m componenti di Pk (probabilit` a degli stati assorbenti), Qk corrisponde alle ultime h componenti di Pk (probabilit` a degli stati non assorbenti). Teorema 6.23. Sia M la matrice stocastica n × n di una catena di Markov assorbente con m stati assorbenti decomposta come in (6.16). Se si parte da uno stato non assorbente, o pi` u in generale da una distribuzione T di probabilit` a P0 = 0 Q0 , allora esiste la distribuzione di probabilit` a P∞ = T dove P ∞ Q∞ P∞ = lim Pk
Q∞ = lim Qk = 0
k
k
precisamente, posto h = n − m il numero di stati non assorbenti, si ottiene −1 Pk = P0 + B Ih − Ak (Ih − A) Q0 −1
P∞ = P0 + B (Ih − A)
Q0
T P k = P k Ak Q 0 T P∞ = P ∞ 0
T In particolare, a partire da P0 Q0 • se sj `e uno stato non assorbente, la probabilit` a che esso venga raggiunto definitivamente `e nulla; • se sj `e uno stato assorbente, la probabilit` a che esso venga raggiunto definitivamente `e pari alla componente j-esima di P∞ ; • se A = O, la dinamica `e banale: Pk = P0 + BQ0 k ≥ 1, Pk = 0 k ≥ 1. Prova. La catena di Markov `e descritta dalla relazione 1 0 1 0 10 Im B Pk+1 Pk = . Qk+1 Qk O A Si noti che `e corretto operare algebricamente come se Pk+1 , Qk+1 , Im , B, A fossero numeri perch´e si tratta di vettori e matrici le cui dimensioni soddisfano le relazioni richieste per l’effettuazione delle somme e dei prodotti righe per colonne. In particolare, il sistema dinamico associato alla catena di Markov si pu` o disaccoppiare in due sistemi dinamici discreti Pk+1 = Pk + BQk Qk+1 = AQk Dal secondo si ottiene Qk = Ak Q0
∀k ∈ N.
(6.17)
Poich´e i primi m sono tutti gli stati assorbenti della catena di Markov, tutte le colonne di B contengono almeno un termine strettamente positivo, dunque A ≥ O e
248
6 Catene di Markov
i aij < 1 ∀j implicano, per l’Osservazione 5.20, che tutti gli autovalori di A hanno modulo strettamente minore di 1. Allora limk Ak = O e da (6.17) segue7
lim Qk = 0. k
Sostituendo (6.17) nel primo sistema dinamico discreto, otteniamo Pk+1 = Pk + BAk Q0 la cui soluzione `e (verificarlo per induzione) k−1
j A Q0 = P0 + B Ih − Ak (Ih − A)−1 Q0 . Pk = P0 + B j=0
Il fatto che Ih − A sia sempre invertibile segue dal fatto che tutti gli autovalori di A hanno modulo strettamente minore di 1. Passando al limite per k → +∞, si ottiene P∞ = P0 + B (Ih − A)−1 Q0 .
Ricordiamo che P0 = [ P0 Q0 ] `e la distribuzione di probabilit` a iniziale e P0 , Q0 sono rispettivamente le distribuzioni di probabilit` a iniziale per gli stati assorbenti e non assorbenti e che, se si parte da uno stato assorbente sj cio`e P0j = 1, allora vi si rimane indefinitamente. Invece, `e interessante studiare il caso in cui P0 = 0 cio`e partire da stati non assorbenti (ovvero il caso in cui esiste l tale che Ql0 = 1). T
6.3 Passeggiate casuali, duelli e partite di tennis Applichiamo i risultati del paragrafo precedente ad alcuni esempi. Esempio 6.24. Consideriamo un ubriaco che esce da un bar: alla sua sinistra si trova un lago, alla sua destra la propria casa; supponiamo che l’ubriaco non stia mai fermo e che la probabilit` a che faccia un passo verso casa sia 0, 5 mentre la probabilit` a che faccia un passo nella direzione opposta, verso il lago, sia 0, 5. Egli continua a camminare in modo casuale fino a quando o arriva a casa o finisce nel lago!
lago a
b
bar
casa
c
d
Figura 6.3 Passeggiata a caso dell’ubriaco 7
Si noti che passare al limite nella prima equazione, tenendo conto di questo risultato a lim Pk+1 = (limk Qk = 0), anche supponendo che ∃ limk Pk , conduce all’identit` k
a alcuna informazione. lim Pk che non d` k
6.3 Passeggiate casuali, duelli e partite di tennis
249
Al solo scopo di ridurre la dimensione del problema, senza alterarne la sostanza, abbiamo ridotto le distanze in questione: la casa dista un passo dal bar, il lago due. Allora vi sono quattro stati, a, b, c, e d; il vettore che descrive le probabilit` a T di ciascuno stato al tempo k `e Wk = ak bk ck dk , mentre la matrice di transizione e la catena di Markov sono rispettivamente ⎡ ⎤ 1 0, 5 0 0 ⎢ 0 0 0, 5 0 ⎥ ⎥ T=⎢ Wk+1 = TWk . ⎣ 0 0, 5 0 0 ⎦ 0 0 0, 5 1 Si noti l’analogia con il gioco “testa o croce” con moneta equa qualora uno dei giocatori inizi con una somma pari alla posta e l’altro con una somma doppia. Utilizziamo un ragionamento (diverso da quello utilizzato per i lanci della ` utile separare gli stati assorbenti moneta) che si presta a generalizzazioni. E dagli altri scambiando secondo e terzo stato fra loro: A1 = a , A2 = d , B1 = b , B2 = c. Nelle nuove coordinate abbiamo ⎡ ⎤ 1 0 0, 5 0 ⎢ 0 1 0 0, 5 ⎥ ⎥ M=⎢ ⎣ 0 0 0 0, 5 ⎦ 0 0 0, 5 0
Pk+1 = MPk
(6.18)
e, al tempo k, Pk1 = prob. di A1 , Pk2 = prob. di A2 , Pk3 = prob. di B1 , Pk4 = prob. di B2 . La prima equazione 2 Pk+1 = Pk2 + 0, 5Pk3
dice che la probabilit` a di arrivare a casa dopo k + 1 passi `e data dalla somma della probabilit` a di essere a casa dopo k passi e di 0, 5 volte la probabilit` a di essere in b = B1 dopo k passi. Posto ⎡ ⎤ 1 0 0, 5 0 ) ( ⎢ 0 1 0 0, 5 ⎥ I2 B ⎥ = ⎢ M= (6.19) ⎣ 0 0 0 0, 5 ⎦ O A 0 0 0, 5 0 e
( P=
P1 P2
)
( Q=
P3 P4
)
T T P = P Q = P1 P2 P3 P4
riscriviamo a blocchi il s.d.d. di partenza
250
6 Catene di Markov
(
)( ) ( ) I2 B Pk Pk+1 = . Qk+1 Qk OA
Poich´e i calcoli si possono effettuare come se i blocchi fossero numeri, possiamo scrivere
Pk+1 = Pk + BQk Qk+1 = AQk Tutti gli autovalori di A hanno modulo strettamente minore di 1 perch´e si pu` o raggiungere almeno uno stato assorbente da ogni stato non assorbente (il lettore pu` o verificarlo nell’esempio). Dunque: Q k = Ak Q 0
Q∞ = lim Qk = 0. k
Sostituendo nella prima equazione, come nella dimostrazione del Teorema 6.23, otteniamo: (6.20) Pk+1 = Pk + BAk Q0 Segue Pk = P0 + B I2 − Ak (I2 − A)−1 Q0 −1
P∞ = lim Pk = P0 + B (I2 − A) k
Q0 .
a di partire dagli stati Ricordiamo che le componenti di P0 danno le probabilit` assorbenti A1 e A2 . Ma se si parte da un tale stato non lo si lascia pi` u ed il problema diventa banale. Quindi `e interessante studiare i casi in cui si parte da stati non assorbenti. In tali casi, cio`e se P0 = 0, le probabilit` a di finire in uno stato assorbente sono, con riferimento alla notazione (6.19): −1
lim Pk = B (I2 − A) k
(
0, 5 0 B= 0 0, 5
)
Q0
(
1 −0, 5 I2 − A = −0, 5 1
Inoltre, si ricava: −1
(I2 − A)
( =
)
) 4/3 2/3 . 2/3 4/3
Allora, se siamo sicuri che la passeggiata inizia dal bar ... abbiamo T P0 = 0 0 −1
B (I2 − A)
T Q0 = 0 1 ( Q0 =
1 2 3 3
)T
In conclusione, partendo dal bar, la probabilit` a di arrivare a casa `e 2/3 mentre quella di essere “assorbito” dal lago `e 1/3.
6.3 Passeggiate casuali, duelli e partite di tennis
251
Esempio 6.25. Immaginiamo una sequenza da film western in cui si svolga un duello simultaneo tra tre pistoleros A, B, C. Supponiamo che A, buon tiratore, abbia una percentuale di bersagli colpiti del 70%, B meno preciso abbia una percentuale del 50% mentre C decisamente scarso ha una percentuale del 30%. Il duello si svolge a turni successivi: in ciascun turno, ciascuno spara ad uno degli altri due scelto in modo tale da massimizzare le proprie chance di vittoria. Come migliore strategia ciascuno cerca di colpire il migliore dei due avversari rimanenti. Pertanto al primo turno A cerca di colpire B, mentre B e C cercano di colpire A. Se pi` u di uno sopravvive si passa ad un turno successivo. Ci si chiede quale dei tre ha le maggiori possibilit` a di sopravvivere, e pi` u in generale, quali sono le probabilit` a delle varie conclusioni possibili (con uno o nessun vincitore). Il problema presenta analogie interessanti con lo studio dei turni elettorali con pi` u di due candidati (o partiti) ed analizzarlo matematicamente conduce a delle conclusioni sorprendenti. Conviene studiare il caso generale, indicando con a, b e c le probabilit` a di colpire il bersaglio scelto rispettivamente da parte di A, B e C, con i vincoli 0 0 il vettore z = (I + A) x ha meno elementi nulli di quanti ne abbia x. Supponiamo per assurdo che x e z abbiano lo stesso numero di zeri, e quindi, a meno di opportune permutazioni, siano della forma 0 1 0 1 u w x= , z= , u 0, w 0 0 0 con u e w vettori colonna della stessa dimensione. Ponendo 1 0 A11 A12 A= A21 A22 dove l’ordine di A11 `e uguale alla dimensione di u, la relazione z = (I + A) x si riscrive come u + A11 u = w A21 u = 0 , dunque u 0 implica A21 = O contro l’ipotesi che A sia irriducibile.
Dal Teorema precedente segue immediatamente il seguente risultato che si preciser` a nel Teorema 7.28:
268
7 Matrici positive e grafi
Corollario 7.11. Se A > O `e una matrice irriducibile di ordine n, allora per ogni coppia di indici i, j ∈ {1, . . . , n} esiste un intero positivo q = q (i, j), q ≤ n, tale che (q) (7.3) aij > 0. Pi` u precisamente, q soddisfa: q ≤ m−1
se i = j;
q≤m
se i = j,
dove m `e il grado del polinomio minimo di A cio`e del polinomio ψ con coefficiente direttore uguale ad 1 e di grado minimo tale che ψ(A) = O. Prova. Per il Teorema 7.10
n I+ Ak = (I + A)n−1 O . k k=1 n−1
(7.4) (2)
(n−1)
Dall’ultima relazione segue che se i = j i numeri non negativi aij , aij , . . . , aij non possono essere tutti nulli. Inoltre, (I + A)n−1 O ed A > O implicano (2) A (I + A)n−1 O (vedi Esercizio 7.4), cio`e i numeri non negativi aii , aii , . . . , (n) aii non possono essere tutti nulli. Inoltre, se ψ (il polinomio minimo di A) ha grado m strettamente minore del polinomio caratteristico di A, esistono unici i polinomi q ed r tali che (1 + λ)n−1 = q (λ) ψ (λ) + r (λ)
grado di r < m.
Allora da ψ (A) = O segue (I + A)n−1 = q (A) ψ (A) + r (A) = r (A) = =
m−1
k=0
c k Ak = c 0 I +
m−1
c k Ak .
k=1
n−1
Dall’ultima relazione e da (I + A) O, segue che se i = j i numeri non negativi (2) (m−1) non possono essere tutti nulli. Inoltre, r(A) O implica aij , aij , . . . , aij (2)
(m)
A r(A) O (vedi Esercizio 7.4), cio`e i numeri non negativi aii , aii , . . . , aii possono essere tutti nulli.
non
Osservazione 7.12. Per il Teorema 7.10 se A ≥ 0 ed esiste k ∈ N tale che Ak O allora A `e irriducibile. Si noti poi che, nonostante il Corollario 7.11, l’implicazione opposta non vale: ad esempio ( ) 0 1 A= (7.5) 1 0 `e irriducibile, dunque verifica (7.3), ma non esiste alcuna sua potenza strettamente positiva. Infatti: ( )
1 0 q = 1 se i = j A2 = e ; Ak+2 = Ak . 0 1 q = 2 se i = j
7.1 Matrici irriducibili
269
Grazie al concetto di irriducibilit` a, Frobenius negli anni 1909-1912 estese il risultato di Perron del 1907 (che per semplicit` a espositiva nel Capitolo 5 `e chiamato Teorema di Frobenius-Perron, vedi Teoremi 5.12 e 5.13) come segue (per la dimostrazione vedi Gantmacher [5]). Teorema 7.13. (Frobenius) Una matrice quadrata A positiva e irriducibile ammette un autovalore reale positivo λA di molteplicit` a algebrica 1, tale che ogni altro autovalore λ ha modulo non superiore: λA ≥ |λ|. All’autovalore λA corrisponde un unico autovettore (a meno di costanti moltiplicative) strettamente positivo. Inoltre, se A ammette h autovalori di modulo pari a λA allora tali autovalori sono tutti diversi tra loro e sono radici dell’equazione h
λh − (λA ) = 0. In generale, l’insieme degli autovalori (spettro) di A `e invariante per rotazioni del piano complesso di angolo 2π/h. Illustriamo nel seguito alcune importanti conseguenze del Teorema 7.13. Teorema 7.14. Una matrice A positiva e irriducibile non pu` o avere due autovettori positivi linearmente indipendenti. Pi` u precisamente, ogni autovettore (anche generalizzato) di A diverso da VA T `e ortogonale a VA O , autovettore dominante per AT . Prova. Osservato che ogni autovalore di A relativo ad un autovettore positivo deve essere reale positivo, la dimostrazione `e identica a quella del Teorema 5.19 salvo il fatto che si usa il Teorema 7.13 al posto del Teorema 5.12 sia per A che per AT .
Il Teorema 7.13 giustifica l’introduzione della seguente Definizione 7.15. Sia A > O una matrice irriducibile con h autovalori λ1 , λ2 , . . . , λh di massimo modulo: λ1 = |λ2 | = · · · = |λh | . Allora A si dice: • primitiva se h = 1; • ciclica se h > 1. La matrice (7.5) `e irriducibile ma non `e primitiva. Il legame fra la nozione di primitivit` a e quanto visto nel Capitolo 5 `e chiarito dal seguente risultato (per la prova si veda ad esempio [5]). Teorema 7.16. Una matrice A > O `e primitiva se e solo se qualche potenza di A `e strettamente positiva: ∃k ∈ N\ {0} :
Ak O .
270
7 Matrici positive e grafi
Teorema 7.17. Se A `e una matrice primitiva di ordine n, indicato con VA l’autovettore positivo di norma 1 associato all’autovalore dominante λA , scelto un ordinamento decrescente degli autovalori rispetto ai moduli λA = λ1 > |λ2 | ≥ · · · ≥ |λn |, allora: • se λ2 = 0 allora per k → +∞ T Ak = (λA )k VA VA + O k m2 −1 |λ2 |k dove m2 `e la molteplicit` a algebrica di λ2 ; • se λ2 = 0 allora per k ≥ n − 1 T Ak = (λA )k VA VA . Inoltre, ogni soluzione del s.d.d. Xk+1 = AXk verifica −k
(λA )
Xk = cA VA + σ (k)
dove λA `e l’autovalore dominante di A, cA `e il coefficiente del dato iniziale X0 lungo la componente VA rispetto alla base di Jordan di A e σ (k) `e un infinitesimo per k → +∞. Infine, per ogni dato iniziale X0 > 0 la soluzione Xk verifica lim k
Xk VA = . Xk VA
Prova. La dimostrazione `e una conseguenza immediata dei Teoremi 5.18 e 5.19 con le precisazioni del caso relative all’infinitesimo σ (k) deducibili dall’Osservazione 5.9. Esercizio 7.6. Dimostrare che se una matrice quadrata A di ordine n `e riducibile allora deve avere almeno n − 1 elementi nulli. Esercizio 7.7. Dimostrare che una matrice A quadrata di ordine n `e riducibile se e = TT AT `e della solo se esiste una matrice di permutazione T tale che la matrice A forma 0 1 B C A= O D con B e D matrici quadrate. Si noti la diversa posizione della matrice O rispetto alla Definizione 7.4. Esercizio 7.8. Dimostrare che una matrice quadrata A di ordine n `e riducibile se: • •
n = 1 oppure A = O, oppure; per n ≥ 2 l’insieme degli indici {1, 2, . . . , n} pu` o essere separato in due insiemi disgiunti {i1 , i2 , . . . , ir } e {j1 , j2 , . . . , jn−r } con 0 < r < n, tali che aiα jβ = 0
α = 1, . . . , r, β = 1, . . . , n − r .
7.2 Grafi e matrici
271
Esercizio 7.9. Dimostrare che una matrice quadrata A di ordine n `e riducibile se e solo se il corrispondente operatore lineare A : Rn → Rn ha un sottospazio di coordinate invariante di dimensione r, con r < n. Esercizio 7.10. Verificare che la matrice ⎡ ⎤ 1/4 1/2 1/3 A = ⎣ 1/4 1/2 1/3 ⎦ 1/2 0 1/3 `e irriducibile. Esercizio 7.11. Mostrare con degli esempi che la somma di matrici irriducibili pu` o non essere una matrice irriducibile. Mostrare con degli esempi che la somma di matrici riducibili pu` o non essere una matrice riducibile.
7.2 Grafi e matrici Introduciamo ora la definizione formale di grafo e ne analizziamo alcune propriet` a sfruttando le analogie con quelle delle matrici irriducibili, discutendo successivamente l’applicazione ai grafi dei risultati precedentemente esposti. A differenza dei semplici esempi gi`a incontrati nel Capitolo 6, i grafi che compaiono nella modellazione di molti problemi reali (quali ad esempio orari ferroviari, linee aeree, reti di telecomunicazioni, supply chains) hanno dimensioni enormi: la grande quantit` a di nodi e lati ne rende molto difficile o praticamente impossibile una visualizzazione grafica. Per questo motivo `e importante definire e studiare le principali propriet` a strutturali e qualitative dei grafi, interpretandole con strumenti di Algebra Lineare. Definizione 7.18. Un grafo (orientato) G `e una coppia (V, L) ove V = {v1 , . . . , vn } `e un insieme finito di elementi detti nodi (o vertici) mentre L = {l1 , . . . , lm } ⊆ V × V `e un insieme di coppie ordinate di tali nodi, dette lati (o archi). Considerato un lato (vs , vk ) di un grafo G, il nodo vs si dice coda del lato, il nodo vk si dice testa del lato e il lato (vs , vk ) si dice uscente da vs ed entrante in vk . Per definizione, il lato (vs , vk ) `e diverso dal lato (vk , vs ). Si definisce sottografo di un grafo G = (V, L) un grafo G = (V, L) tale che V ⊆ V , L ⊆ L ed L contiene solo coppie di elementi in V. ` consuetudine visualizzare un grafo indicando i nodi mediante punti e i lati E mediante frecce che connettono tali punti (vedi Figura 7.1) con direzione dalla coda alla testa del lato.
272
7 Matrici positive e grafi
Figura 7.1 Esempio di grafo orientato: l’orientamento dei lati ` e dato dall’ordine delle coppie (vs , vk ) nella relazione L
Il grafo di Figura 7.1 ha nodi {1, 2, . . . , 9, 10}. Sono lati, ad esempio, le coppie ordinate (1, 2), (1, 1), (6, 5) e (5, 4) mentre non sono lati le coppie (2, 1), (4, 3), (4, 5) o (6, 9). I lati di tale grafo sono in tutto 14. Definizione 7.19. Dato un grafo orientato G = (V, L) con V = {v1 , . . . , vn } e L = {l1 , . . . , lm }, si dice cammino orientato C (da vi0 a vip ) una sequenza ! di nodi C = v , v , . . . , v tali che vik ∈ V per ogni k = 0, . . . , p, e i0 i1 ip vik−1 , vik ∈ L per ogni k = 1, . . . , p. I nodi vi0 e vip di dicono estremi del cammino C. L’intero p si dice lunghezza del cammino C. ! Un cammino orientato C = vi0 , vi1 , . . . , vip si dice: • semplice se tutti i suoi nodi sono distinti fra loro, cio`e vis = vik
∀s, k = 0, . . . , p : s = k;
• chiuso se i suoi estremi coincidono: vi0 = vip ; ! • ciclo (orientato) se il cammino stesso vi0 , vi1 , . . . , vip `e chiuso ed il ! cammino vi0 , vi1 , . . . , vip−1 `e semplice; • cappio (orientato) se `e un ciclo ridotto ad un solo nodo. Con riferimento al grafo di Figura 7.1, il cammino {1, 2, 9, 8, 3} `e semplice, il cammino {5, 4, 6, 5, 4, 6, 5} `e chiuso ma non `e un ciclo, il cammino {2, 9, 8, 3, 2} `e un ciclo, i cammini {1, 1} e {7, 7} sono cappi. Precisiamo le possibili relazioni fra coppie di nodi. Definizione 7.20. Dato un grafo orientato G = (V, L) si dice che: • un nodo vi ∈ V `e connesso con un nodo vj ∈ V , e scriviamo vi → vj , se k
esiste in G un cammino da vi a vj (useremo la notazione vi → vj quando sia necessario specificare che partendo da vi si arriva in vj in k passi); • un nodo vi ∈ V `e fortemente connesso con un nodo vj ∈ V , e scriviamo vi ↔ vj , se vi → vj e vj → vi .
7.2 Grafi e matrici
273
Un grafo orientato G si dice fortemente connesso se ha un solo nodo oppure se tutti i suoi nodi sono fortemente connessi fra loro. Nel grafo di Figura 7.1 il nodo 2 `e fortemente connesso con il nodo 8, il nodo 9 `e connesso con il nodo 5 (ma non `e vero il viceversa): quindi il grafo non `e fortemente connesso. Dato un grafo orientato G = (V, L), la relazione di connessione forte `e una relazione di equivalenza sull’insieme dei nodi V , che si pu` o quindi partizionare nel senso che esistono classi di equivalenza di nodi V1 , V2 , . . . , Vq tali che q > Vj e Vi ∩ Vj = ∅ se i = j. La definizione che segue caratterizza V = j=1
ciascun grafo indotto in G dai nodi appartenenti ad una classe di equivalenza. Definizione 7.21. Dato un grafo orientato G = (V, L) si dice componente fortemente connessa di G ciascun sottografo di G che sia fortemente connesso e massimale (cio`e non contenuto strettamente in un altro sottografo fortemente connesso). Esempio 7.22. Tutte le componenti fortemente connesse del grafo di Figura 7.1 sono quattro: V1 = {1}, V2 = {2, 9, 8, 3}, V3 = {4, 5, 6, 7} e V4 = {10}. Esercizio 7.12. Dato un grafo orientato G = (V, L), dimostrare che la relazione di connessione forte `e una relazione di equivalenza sull’insieme dei suoi nodi V .
Un ulteriore utilissimo modo di rappresentare un grafo orientato `e fornito dalla nozione di matrice di adiacenza che segue. Definizione 7.23. Si dice matrice di adiacenza di un grafo orientato G = (V, L) di n nodi, la matrice quadrata A = [aij ] di ordine n tale che 1 aij = 1 se (vj , vi ) ∈ L cio`e vj −→ vi . 0 se (vj , vi ) ∈ L Viceversa, se consideriamo una qualsiasi matrice A di ordine n, non negativa (aij ≥ 0 ∀i, j), ad essa si associa in modo naturale il grafo orientato GA = (VA , LA ) con VA = {1, 2, . . . , n} Esempio 7.24. La matrice ⎡ 1 ⎢1 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎢0 ⎢ ⎣0 0
e
LA = {(j, i) ∈ VA × VA : aij > 0} .
di adiacenza del grafo nella Figura 7.1 `e: ⎤ 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 1 0⎥ ⎥ 0 0 0 0 0 0 1 0 0⎥ ⎥ 0 1 0 1 0 1 0 0 0⎥ ⎥ 0 0 0 0 1 0 0 0 0⎥ ⎥ 0 0 1 0 0 0 0 0 0⎥ ⎥ 0 0 0 0 1 1 0 0 0⎥ ⎥ 0 0 0 0 0 0 0 1 0⎥ ⎥ 1 0 0 0 0 0 0 0 0⎦ 0 0 0 0 0 0 0 0 0 . " #
274
7 Matrici positive e grafi
Esercizio 7.13. Data la matrice
⎡
2 ⎢0 ⎢ ⎢0 A=⎢ ⎢0 ⎢ ⎣0 1
1 0 5 0 3 0
0 4 0 0 0 2
1 0 0 3 0 0
0 0 0 0 2 0
⎤ 3 0⎥ ⎥ 0⎥ ⎥ 0⎥ ⎥ 0⎦ 1
disegnare il grafo associato, individuando tutte le sue eventuali componenti fortemente connesse.
Assegnata una matrice A non negativa, ogni suo elemento non nullo aij > 0 pu` o essere considerato un peso associato al lato del grafo associato GA che congiunge j con i. Pi` u in generale, dato un cammino C = {i0 , i1 , . . . , ip } in GA, con p ≥ 1, diciamo peso del cammino C il prodotto ai1 i0 · ai2 i1 · . . . · aip ip−1 > 0. ' & (k) Se Ak = aij allora si dimostra che per ogni k ≥ 2 (k)
aij =
n s=1
(k−1)
ais asj
=
ai1 i0 · ai2i1 · . . . · aik ik−1
i0 = j, ik = i is ∈ VA , ∀s
(k)
cio`e aij `e la somma dei pesi dei cammini distinti di lunghezza k da j a i. Tale risultato implica immediatamente la seguente conclusione: (k)
aij > 0 se e solo se GA ha un cammino di lunghezza k da j a i. (k)
In particolare, se A `e la matrice di adiacenza di un grafo orientato, allora aij rappresenta esattamente il numero (intero) dei cammini distinti di lunghezza k fra i nodi vj e vi . Teorema 7.25. Un grafo GA `e fortemente connesso se e solo se per ogni i e (k) j esiste k = k (i, j) tale che aij > 0. Precisiamo in termini di grafi la nozione di irriducibilit` a di una matrice quadrata non negativa. Teorema 7.26. Una matrice quadrata non negativa A = [aij ] di ordine n > 1 `e irriducibile se e solo se il grafo GA associato ad A `e fortemente connesso. Prova. Se A `e irriducibile allora per ogni coppia di indici i, j ∈ {1, . . . , n} esiste un (k) o intero positivo k (dipendente da i e j) tale che aij > 0 (vedi Corollario 7.11) e ci` equivale a dire che ogni coppia di nodi j, i in VA `e connessa, ossia il grafo GA `e fortemente connesso.
7.2 Grafi e matrici
275
Per provare il viceversa, dimostriamo che se A `e riducibile allora GA non `e fortemente connesso. Infatti, se A `e riducibile, allora mediante una opportuna permutazione T, pu` o essere trasformata nella matrice E 0 1 B O E = TAT−1 = C D con dim B = r > 0, 0 < r < n. Per ogni i ≤ r < j, sul grafo associato ΓE non esistono cammini di lunghezza 1 da vj a vi . Di conseguenza, per ogni i ≤ r < j, non esistono cammini da vj a vi , cio`e ΓE , che coincide con GE a meno della permutazione associata a T degli indici che etichettano i nodi, non `e fortemente connesso.
Da quanto appena provato segue che una matrice di ordine n > 1 `e riducibile se e solo se il grafo ad essa associato ammette almeno due componenti fortemente connesse. Osservazione 7.27. Il complesso dei Teoremi 7.25 e 7.26 ci dice che una matrice quadrata non negativa A di ordine n > 1 `e irriducibile se e solo se (q)
∀ i, j ∃ q : aij > 0
(7.6)
cio`e vale il viceversa del Corollario 7.11. Grazie alla corrispondenza tra grafi e matrici possiamo ora provare una caratterizzazione delle matrici irriducibili non necessariamente positive (si veda al riguardo anche il Teorema 7.10). Teorema 7.28. Una matrice quadrata A di ordine n > 1 `e irriducibile se e solo se n−1 (I + |A|) O avendo posto |A| = [|aij |]. Prova. A `e irriducibile se e solo se lo `e |A|. Se A `e irriducibile allora lo `e |A| e per il Teorema 7.10 vale (I + |A|)n−1 O. Viceversa, supponiamo che per qualche i = j l’elemento di posto (i, j) di (I + |A|)n−1 sia 0. Dunque, per il Teorema 7.26 il grafo orientato GI+|A| associato ad I + |A| non `e fortemente connesso. Quindi esiste j = i tale che j non `e connesso con i nel grafo orientato GI+|A| e dunque neanche nel grafo G|A| . Per il Teorema 7.26 ed il Corollario 7.11, la matrice |A| `e riducibile e quindi anche A `e riducibile.
Definizione 7.29. Dato un grafo orientato G = (V, L), si dice periodo del nodo vi ∈ V , indicato con d (vi ), il massimo comun divisore delle lunghezze dei cammini chiusi passanti per vi : # " k d (vi ) = MCD k ∈ N\ {0} : vi → vi . Il periodo di un nodo per cui non passa nessun cammino `e posto uguale a 0 per convenzione. Un nodo si dice aperiodico se ha periodo 1.
276
7 Matrici positive e grafi
Si noti che un cappio `e associato ad un nodo aperiodico. Esempio 7.30. Con riferimento al grafo della Figura 7.1, osserviamo che il nodo 1 ha periodo 1, i nodi 2, 3, 8 e 9 hanno periodo 4, i nodi 4, 5, 6 e 7 hanno periodo 3, mentre il nodo 10 ha periodo 0. Lemma 7.31 Dato un grafo orientato G = (V, L) se due suoi nodi appartengono alla stessa componente fortemente connessa allora hanno lo stesso periodo. Prova. Siano vi ∈ V e vj ∈ V due qualsiasi nodi della medesima componente fortemente connessa di G. Basta provare che dt(vj ) divide d(vi ). A tal fine `e sufficiente limitarsi a considerare i cammini γ di lunghezza k da vi a vi che non contengono vj . Per ipotesi, esiste un cammino η di lunghezza h da vj a vj . Se consideriamo la somma di cammini γ + η, allora d(vj ) divide sia h che h + k e dunque divide k.
Il risultato precedente consente di dare la seguente Definizione 7.32. Il periodo di una componente fortemente connessa di un grafo orientato `e il periodo di uno qualsiasi dei nodi che la compongono. Ricordando che le matrici irriducibili non negative sono associate a grafi fortemente connessi vale la seguente Definizione 7.33. Si dice periodo di una matrice (quadrata, non negativa e) irriducibile A, indicato con dA, il periodo d di uno qualsiasi dei nodi di GA . La matrice A si dice: • aperiodica se dA = 1; • periodica se dA > 1. Lemma 7.34 Sia A > 0 una matrice quadrata di ordine n > 1 irriducibile. (kd) Allora per ogni i = 1, . . . , n esiste un intero k0 (i) > 0 tale che aii > 0 per ogni k ≥ k0 (i) , dove d = dA `e il periodo della matrice A. (k) Prova. Denotiamo con H(i) l’insieme k ∈ N\ {0} : aii > 0 . Esso rappresenta l’insieme delle lunghezze dei cammini che partono e arrivano in i nel grafo GA associato ad A. Per definizione, dA `e il massimo comun divisore di H(i); inoltre H(i) `e chiuso rispetto alla somma di cammini, nel senso che per ogni k1 ∈ H(i) e k2 ∈ H(i) si ha (k +k ) (k ) (k ) aii 1 2 ≥ aii 1 aii 2 > 0 ⇒ (k1 + k2 ) ∈ H(i) . Dunque H(i) contiene tutti i multipli positivi del suo MCD eccetto al pi` u un numero finito di questi.
Sappiamo (vedi Definizione 7.15) che una matrice primitiva `e una particolare matrice positiva e irriducibile caratterizzata dall’avere un unico autovalore di massimo modulo che risulta semplice e positivo. Il risultato che segue precisa il legame fra matrici primitive ed irriducibili in termini di periodicit` a.
7.2 Grafi e matrici
277
Teorema 7.35. Sia A > 0 una matrice quadrata di ordine n > 1 irriducibile. Allora • A `e primitiva se e solo se `e aperiodica; • A `e ciclica se e solo se `e periodica. Prova. Sia A primitiva. Poich´e esiste k0 tale che Ak O per ogni k ≥ k0 segue che ogni indice di A `e aperiodico perch´e possiede un cammino di lunghezza k per ogni k ≥ k0 . Viceversa, supponiamo che A sia irriducibile aperiodica. Allora (Teorema 7.25) per (k ) ogni i e j esiste k0 = k0 (i, j) tale che aij 0 > 0 ed esiste (Lemma 7.34) k1 (j) > 0 (k) tale che ajj > 0 per ogni k ≥ k1 (j). Scelto quindi k2 (j) = k0 + k1 (j), per ogni intero k ≥ k2 (j) si ha (k) (k ) (k−k ) aij ≥ aij 0 ajj 0 > 0 . Scelto k3 = maxj {k2 (j)} si ottiene Ak O per ogni k ≥ k3 , che implica A primitiva.
Esempio 7.36. Se si considera il grafo adiacenza ⎡ 0 0 1 0 ⎢ 1 0 0 0 ⎢ ⎢ 0 1 0 0 ⎢ ⎢ 1 0 0 0 ⎢ ⎣ 0 0 0 1 0 0 0 0
orientato associato alla matrice di ⎤ 0 1 0 0⎥ ⎥ 0 0⎥ ⎥ (7.7) 0 0⎥ ⎥ 0 0⎦ 1 0
coerentemente con il Lemma 7.34 si verifica che vi sono tuti periodi interi maggiori o uguali a 6, oltre ai periodi 3 e 4, ma mancano i periodi 1,2 e 5; la matrice (7.7) `e irriducibile e primitiva. Esercizio 7.14. Determinare, quando `e definito, il periodo delle seguenti matrici: 0 1 0 1 0 1 0 1 1 0 0 1 A2 = A3 = . A1 = 1 0 0 1 1 1 ⎡
A4
⎤ 0 1 0 = ⎣ 1 0 1 ⎦ 0 1 0
⎡
A5
⎤ 1 1 1 = ⎣ 1 1 0 ⎦. 1 0 0
Esercizio 7.15. Determinare i periodi delle componenti fortemente connesse del grafo associato alla matrice nell’Esempio 7.13.
Riassumiamo in due tabelle le relazioni fra le numerose definizioni e propriet` a introdotte in questo capitolo, mostrando che le diverse terminologie che sorgono in modo naturale in differenti contesti spesso descrivono propriet` a equivalenti con riferimento ai teoremi del testo. Poich´e, per definizione, tutte le matrici di ordine 1 sono riducibili, consideriamo solo il caso delle matrici di ordine n > 1.
278
7 Matrici positive e grafi
Tabella 7.1 Propriet` a delle matrici: |A| denota la matrice di elementi |aij |
Se A matrice quadrata di ordine n > 1 allora
A irriducibile
⇐⇒
(In + |A|)n−1 O
⇐⇒
(In + |A|) primitiva
Tabella 7.2 Propriet` a delle matrici positive
Se A ≥ 0 matrice quadrata di ordine n > 1 allora
A irriducibile
n−1
⇐⇒
(In + A)
& GA fortemente connesso
O
& ⇐⇒
(k)
∀i,j ∃k (i, j) ∈ N\{0} : aij > 0
⇑ ∃k ∈ N\ {0} : Ak O
⇐⇒
A primitiva
(k)
Legenda: aij denota l’elemento di riga i e colonna j della matrice Ak .
7.3 Ancora sulle Catene di Markov Le nozioni sviluppate in questo capitolo forniscono utili strumenti per l’analisi delle catene di Markov introdotte nel Capitolo 6. Facendo riferimento alla definizione di nodi fortemente connessi di un grafo (Definizione 7.20), quando si studia una catena di Markov con matrice di transizione M `e naturale chiamare stati comunicanti quelli che corrispondono a nodi fortemente connessi nel grafo GM associato a tale catena, come precisato dalla seguente definizione. Definizione 7.37. Sia M = [mij ] la matrice di transizione di una catena di Markov omogenea ad n stati s1 , . . . , sn . Diciamo che:
7.3 Ancora sulle Catene di Markov
279 (k)
• si ` e accessibile dallo stato sj se esiste k ∈ N\ {0} tale che mij > 0 k
(in tal caso scriveremo sj → si o brevemente sj → si ); k
h
• si ed sj sono comunicanti se sj → si e si → sj per k, h opportuni (in tal caso scriveremo si ←→ sj ). Essere stati comunicanti `e una relazione di equivalenza sull’insieme degli n stati {s1 , s2 , . . . , sn } di una catena di Markov, dunque tale insieme pu` o essere partizionato in classi di equivalenza disgiunte, dette classi di stati comunicanti (o pi` u semplicemente classi comunicanti) tali che in ciascuna di esse gli stati sono fra loro comunicanti. Parleremo indifferentemente di classi comunicanti dell’insieme degli stati o della matrice di transizione. Una classe comunicante C `e chiusa se si ∈ C e si → sj implicano sj ∈ C. Uno stato si `e assorbente se {si } `e una classe comunicante chiusa. Esempio 7.38. Per determinare le matrice stocastica ⎡ 1/3 0 ⎢ 2/3 0 ⎢ ⎢ 0 1 M=⎢ ⎢ 0 0 ⎢ ⎣ 0 0 0 0
classi comunicanti corrispondenti alla ⎤ 1/4 0 0 0 0 0 0 0⎥ ⎥ 0 0 0 0⎥ ⎥ 1/4 1/2 0 0 ⎥ ⎥ 1/2 1/2 0 1 ⎦ 0 0 1 0
si pu` o ricorrere al grafo corrispondente, ottenendo le classi {1, 2, 3}, {4} e {5, 6}: solo quest’ultima `e chiusa. Esempio 7.39. La seguente matrice ⎡ 0 1 0 ⎢0 0 1 ⎢ ⎢0 0 0 ⎢ ⎢0 0 0 A=⎢ ⎢1 0 0 ⎢ ⎢0 0 0 ⎢ ⎣0 0 0 0 0 0
stocastica ⎤ 0 0 0 0 0 0 0 0 0 0⎥ ⎥ 1 0 0 0 0⎥ ⎥ 0 1/2 0 0 0 ⎥ ⎥ 0 0 1 0 0⎥ ⎥ 0 0 0 1 0⎥ ⎥ 0 0 0 0 1⎦ 0 1/2 0 0 0
`e irriducibile e primitiva (ha periodo 1 perch´e, dall’esame del grafo associato, vi sono i periodi 4 e 5), ha un’unica classe comunicante. Corrispondenemente il grafo associato GA ha un’unica componente fortemente connessa. Il polinomio 1 1 caratteristico di A `e: λ8 − λ4 − λ3 = λ3 (λ − 1)(λ4 + λ3 + λ2 + λ + 1/2). 2 2 Gli autovalori sono 1, 0, −0, 668809 ± 0, 338851 i , 0, 168809 ± 0, 927891 i , sono tutti semplici salvo 0 che `e triplo e, in accordo con il Teorema di Frobenius hanno tutti modulo minore dell’autovalore dominante che `e 1.
280
7 Matrici positive e grafi
Esempio 7.40. La seguente ⎡ 0 1 0 ⎢0 0 1 ⎢ ⎢0 0 0 ⎢ ⎢0 0 0 ⎢ B=⎢ ⎢1 0 0 ⎢0 0 0 ⎢ ⎢0 0 0 ⎢ ⎣0 0 0 0 0 0
matrice stocastica ⎤ 0 0 0 0 0 0 0 0 0 0 0 0 ⎥ ⎥ 1 0 0 0 0 0 ⎥ ⎥ ( ) 0 1 0 0 0 0 ⎥ ⎥ F1 O 0 0 0 0 0 0 ⎥ = ⎥ O F2 0 0 0 1 0 0 ⎥ ⎥ 0 0 0 0 1 0 ⎥ ⎥ 0 0 0 0 0 1 ⎦ 0 0 1 0 0 0
`e riducibile con due classi comunicanti e chiuse, una (costituita dai primi cinque stati) periodica di periodo 5, l’altra (costituita dagli ultimi quattro stati) periodica di periodo 4. Il corrispondente grafo GB ha due componenti fortemente connesse (quella costituita dai primi 5 nodi e quella costituita dagli ultimi 4). Il polinomio caratteristico di B `e λ5 − 1 λ4 − 1 ; gli autovalori sono tutte le radici quarte e quinte complesse di 1: sono tutti semplici salvo λ = 1 che `e doppio. Si noti la struttura dei blocchi quadrati Fj del tipo forme elementari di Frobenius. ` naturale la seguente definizione. E Definizione 7.41. Una catena di Markov irriducibile `e una catena di Markov la cui matrice di transizione `e irriducibile. Dall’Osservazione 7.27 e il Teorema 7.26 segue che una catena di Markov `e irriducibile se l’insieme degli stati `e costituito da un’unica classe comunicante (che dunque `e chiusa) o, equivalentemente, se per ogni coppia di stati si ed (k) sj esiste k = k (i, j) tale che mij > 0. Si noti che la matrice M dell’Esempio 7.38 `e riducibile. Esempio 7.42. La catena di Markov con matrice di transizione ⎤ ⎡ 1/3 1/2 0 0 ⎢ 2/3 1/2 0 0 ⎥ ⎥ M=⎢ ⎣ 0 0 3/4 1/4 ⎦ 0 0 1/4 3/4 non `e irriducibile, cio`e `e riducibile. Si noti che se si assume come dato iniziale il vettore distribuzione di probabilit` a con 1 in una delle due prime (rispettivamente, ultime) posizioni, la dinamica del sistema si svolger` a esclusivamente fra i primi (rispettivamente, ultimi) due stati. Esercizio 7.16. Dimostrare che ogni matrice di transizione (di dimensione finita) ha almeno una classe comunicante chiusa.
7.3 Ancora sulle Catene di Markov
281
Definizione 7.43. Data una catena di Markov omogenea ad n stati s1 , . . . , (k) sn , uno stato si si dice aperiodico se esiste k0 ∈ N\ {0} tale che mii > 0 per ogni k > k0 . Una catena di Markov si dice catena aperiodica se ogni suo stato `e aperiodico. " # (k) Uno stato si `e quindi aperiodico se e solo se l’insieme k ∈ N\{0} : mii > 0 non ha divisori comuni maggiori di 1. Se una catena di Markov `e aperiodica, allora esiste k ∈ N\ {0} tale che (k) mii > 0 per ogni i. Con la terminologia introdotta possiamo riformulare il Lemma 7.31 ed il Teorema 7.35 come segue. Lemma 7.44 Se M `e irriducibile e ha uno stato aperiodico, allora ogni suo stato `e aperiodico. Teorema 7.45. Sia M la matrice di transizione di una catena di Markov (k) irriducibile e aperiodica. Allora esiste k0 ∈ N\ {0} tale che mij > 0 per ogni k > k0 e per ogni i, j. Se una catena di Markov ha matrice di transizione che soddisfa le ipotesi del Teorema 7.13 (Frobenius) allora l’esistenza, l’unicit` a e la stabilit` a globale della distribuzione di probabilit` a invariante `e garantita solo nel caso h = 1. Definizione 7.46. Data una catena di Markov ad n stati, un suo stato si si dice: • transiente se esiste uno stato sj con sj = si tale che si → sj ma sj → si ; • ricorrente se non `e transiente, cio`e se: si → sj ⇒ sj → si . In parole semplici, uno stato `e ricorrente se il processo prima o poi vi torner` a sicuramente, ossia vi torner` a infinite volte; uno stato `e transiente se il processo pu` o non tornarci pi` u, ossia vi torner` a al pi` u un numero finito di volte. Si noti che per una catena di Markov (con un numero finito di stati): 1. 2. 3. 4.
ogni stato `e in modo esclusivo transiente oppure ricorrente; uno stato assorbente `e un particolare stato ricorrente; se uno stato `e ricorrente allora comunica con se stesso; gli stati non possono essere tutti transienti (perch´e la dinamica deve compiere infiniti passi); 5. uno stato ricorrente che non `e assorbente pu` o comunque essere visitato infine volte in tempi successivi. Per quanto riguarda invece la partizione in classi comunicanti di una catena di Markov, valgono le seguenti conclusioni: 1. gli stati in una classe comunicante o sono tutti transienti o sono tutti ricorrenti; nel primo caso la classe si dice transiente, nel secondo ricorrente;
282
7 Matrici positive e grafi
2. ogni classe comunicante `e chiusa se e solo se `e ricorrente. Una conseguenza rilevante di quanto appena esposto `e il seguente enunciato. Teorema 7.47. Una catena di Markov (con un numero finito di stati) irriducibile ha tutti gli stati ricorrenti. Esempio 7.48. Gli stati ricorrenti dell’Esempio 6.26 sono “vantaggio A”, “vantaggio B” e “parit` a” ombreggiati nella Figura 6.6, mentre tutti gli altri sono transienti. Sempre con riferimento alla Figura 6.6 si noti che gli stati assorbenti sono “vince A” e “vince B”. La matrice di transizione riferita ai possibili andamenti di un game giunto in una situazione di parit` a (ordinando i cinque stati assorbenti o ricorrenti da sinistra a destra come in Figura 6.6) `e ⎡ ⎤ 1 pA 0 0 0 ⎢ 0 0 pA 0 0 ⎥ ⎢ ⎥ ⎢ 0 pB 0 pA 0 ⎥ ⎢ ⎥ ⎣ 0 0 pB 0 0 ⎦ 0 0 0 pB 1 . Riassumendo le considerazioni precedenti, per le probabilit` a invarianti di una catena di Markov, valgono le seguenti conclusioni: T 1. se si `e uno stato transiente e P = P1 P2 · · · Pn `e una distribuzione di probabilit` a invariante per la matrice di transizione M, allora Pi = 0; 2. vi sono q vettori distribuzione di probabilit` a invariante linearmente indipendenti se e solo se la catena ha q classi di stati ricorrenti; 3. una catena ha un unico vettore distribuzione di probabilit` a invariante se e solo se ha un’unica classe di stati ricorrenti e Pi = 0 se si transiente ,
Pi > 0 se si ricorrente ;
4. se una catena `e irriducibile allora esiste un unico vettore distribuzione di probabilit` a invariante e risulta P 0; 5. se una catena `e (irriducibile e) primitiva allora l’unica distribuzione di probabilit` a invariante `e globalmente attrattiva per il s.d.d. associato.
7.4 Algoritmo PageRank: perch´ e un buon motore di ricerca sembra leggere nel pensiero di chi lo interroga Esaminiamo un’applicazione di grande successo delle propriet` a delle matrici c discusse in questo capitolo: l’algoritmo PageRank utilizzato dal motore di c ricerca Google ideato nel 1998 da Sergei Brin e Lawrence Page. Il nome commerciale Google rimanda ad un numero stratosferico (google=10100): il
7.4 Algoritmo PageRank
283
motivo `e che la scala del problema che i motori di ricerca devono affrontare e risolvere `e immensa. Il problema risolto da Google nel rispondere ai milioni di queries quotidiane consiste nel fornire delle risposte ciascuna delle quali deve ordinare miliardi di pagine Web1 . Il requisito essenziale per il successo di tale procedura `e un valido e veloce criterio di ordinamento di tutte le pagine che soddisfano i criteri delle query in oggetto. Una volta ottenuto un metodo efficiente per ordinare le pagine Web in rapporto alla loro significativit` a si pu` o utilizzare lo stesso criterio di ordinamento nella risposta a ciascuna singola query. Il meccanismo esatto del funzionamento di Google non `e pubblicamente noto (ovviamente molti dettagli algoritmici sono segreti tutelati da copyright) ed alcuni aspetti della sua notevole efficienza sono chiariti solo in parte [2],[1],[9], comunque esso si basa su una procedura di ordinamento fra pagine che prescinde dal loro effettivo contenuto ed utilizza la struttura topologica del Web, cio`e il tipo di connessioni esistenti fra le pagine internet. L’idea `e quella di associare ad ogni pagina un indice di significativit` a (authority measure) che dipenda dal numero delle citazioni (hyperlinks o brevemente links) ottenute da altre pagine e dall’indice di significativit` a di queste ultime: tale procedura `e denominata algoritmo PageRank. Descriviamo nel seguito un modo euristico per introdurre e calcolare l’indice di significativit` a, introducendo un modello della navigazione su Internet come processo descritto da una catena di Markov. Un insieme di pagine Web P1 , . . . , Pn pu` o essere rappresentato come un grafo orientato G = (V, L) ove i vertici vi coincidono con le pagine Pi e il lato (vj , vi ) ∈ L se e solo se esiste un link dalla pagina Pj alla pagina Pi . Indichiamo con A = [aij ] la matrice di adiacenza di G = (V, L), quindi
1 se esiste il link da Pj a Pi . aij = 0 se non esiste il link da Pj a Pi Si noti che la somma degli elementi della i-esima riga di A rappresenta il numero delle pagine che hanno un link che conduce a Pi , mentre la somma degli elementi della j-esima colonna di A rappresenta il numero di pagine alle quali si pu` o pervenire partendo da Pj . La dimensione della matrice A `e gigantesca, si pensi che gi`a nel 1997 si stimava la presenza di circa 100 milioni di pagine web, cifra che `e enormemente aumentata nel momento in cui scriviamo e che sar`a aumentata ulteriormente nel momento in cui leggerete questa pagina! L’indice di significativit` a xj ≥ 0 della j-esima pagina Pj deve soddisfare due requisiti: da una parte deve risultare elevato se si riferisce ad una pagina citata da molte altre pagine, dall’altra deve risultare elevato se riferito ad una pagina citata da (eventualmente poche) pagine molto significative. Dunque il mero conteggio dei link che puntano ad una pagina non `e adeguato a rappresentarne l’indice di significativit` a (non soddisfacendo al secondo requisito); pi` u 1
Per il “vocabolario” del Web un utile riferimento `e la pagina www.webopedia.com
284
7 Matrici positive e grafi
adeguato appare definire l’indice di significativit` a xj della pagina Pj in modo tale che esso risulti proporzionale, con costante di proporzionalit` a c uguale per tutte le pagine, alla somma degli indici di significativit` a delle pagine che rinviano a Pj tramite un link. Illustriamo con un esempio quanto introdotto. Esempio 7.49. Date quattro pagine web P1 , P2 , P3 e P4 , supponiamo che la pagina P1 sia citata dalla pagina P2 , la pagina P2 sia citata da P1 e P4 , la pagina P3 sia citata solo da P2 e la pagina P4 sia citata da tutte le altre tre pagine. Gli indici di significativit` a x1 , x2 , x3 e x4 sono soluzioni positive del seguente sistema lineare algebrico: ⎧ x1 = c x2 ⎪ ⎪ ⎨ x2 = c (x1 + x4 ) (7.8) x3 = cx2 ⎪ ⎪ ⎩ x4 = c (x1 + x2 + x3 ) Se A `e la matrice di adiacenza corrispondente al grafo delle connessioni fra T pagine Web ed x = x1 x2 x3 x4 `e il vettore dei livelli di significativit` a delle quattro pagine, in termini vettoriali il problema precedente si riscrive come x = cAx o, essendo c = 0, Ax = λx avendo posto λ = 1/c. Esplicitamente: ⎤ ⎡ 0 1 0 0 ⎢ 1 0 0 1 ⎥ ⎥ (7.9) A = ⎢ ⎣ 0 1 0 0 ⎦ . 1 1 1 0 Risolvendo (7.8) si ottengono i valori: cA = 0, 5651978 , autovalore dominante λA = 1, 769292 , autovettore dominan A = [ 0, 321595 0, 568996 0, 321595 0, 685125 ]T . te R L’ordinamento delle pagine rispetto all’indice di significativit` a ottenuto in tal 4 > R 2 > R 1 = R 3 . modo `e: R L’esempio precedente evidenzia come la ricerca dell’indice di significativit` a per un dato set di pagine web sia riconducibile alla ricerca di un autovalore della matrice di adiacenza del positivo λ con associato autovettore positivo R grafo associato alle pagine Web considerate. Ovviamente data la natura del problema, `e auspicabile che le soluzioni cercate siano uniche, o perlomeno, se non sono uniche, che tutte le soluzioni trovate diano luogo allo stesso ordina j di ciascuna pagina Pj . mento per indice di significativit` a dei rank R Osserviamo che la considerazione della matrice di adiacenza (che assegna un peso pari ad 1 ad ogni pagina in uscita da una data pagina) rischia di sopravvalutare l’indice di significativit` a delle pagine che presentano molti link in entrata da pagine poco rilevanti e/o che sono poco selettive nell’inserire ` quindi opportuno considerare la matrice M = [mij ] i cui elementi i link. E soddisfano
se esiste il link da Pj a Pi 1/Nj mij = (7.10) 0 se non esiste il link da Pj a Pi
7.4 Algoritmo PageRank
285
ove Nj , per j = 1, . . . , n, indica il numero delle pagine alle quali si pu` o pervenire in un passo partendo dalla pagina Pj (ossia Nj `e la somma degli elementi della colonna j-esima della matrice A). Con tale procedura, nel caso dell’Esempio 7.49, alla matrice (7.9) si sostituisce ⎤ 0 1/3 0 0 ⎢ 1/2 0 0 1 ⎥ ⎥ M = ⎢ ⎣ 0 1/3 0 0 ⎦ . 1/2 1/3 1 0 ⎡
(7.11)
Risolvendo Mx = λx si ottiene: cM = 1 , autovalore dominante λM = 1 , autovettore dominante RM = [ 0, 133333 0, 399999 0, 133333 0, 333333 ]T . L’ordinamento delle pagine rispetto agli indici di significativit` a ottenuto in tal modo `e: R2 > R4 > R1 = R3 . Si noti che l’uso meno raffinato della matrice A dava la maggior significativit` a alla pagina P4 che veniva linkata da tutte le altre ma linkava solo verso la P2 ; mentre l’utilizzo pi` u efficace della matrice M attribuisce la maggiore significativit` a alla pagina P2 che `e linkata solo da P1 e P4 ma ha pi` u links in uscita (verso tutte le altre). Se da ogni pagina Web si pu` o pervenire ad almeno un’altra pagina, allora la corrispondente matrice M di elementi costruita come in (7.10) `e stocastica. Di fatto la matrice M `e la matrice di transizione di una catena di Markov che descrive una passeggiata aleatoria fra le pagine Web nell’ipotesi che navigando nel Web ci si muova da una pagina verso le altre a caso, che le transizioni siano equiprobabili e avvengano solo cliccando sui vari link disponibili. In tal caso l’autovalore dominante di M `e λM = 1 e la soluzione del problema di determinare l’indice di significativit` a di tutte le pagine Web equivale alla ri (distribuzione di probabilit` cerca di un unico equilibrio R a invariante) per la = MR, R j ≥ 0, R j = 1. catena di Markov associata: R j Se M fosse (positiva irriducibile e) primitiva allora (per il Teorema 7.17) tale soluzione sarebbe fornita dall’unico autovettore positivo VM normalizzato (riM spetto alla somma delle proprie componenti V 1 = j VjM ) e calcolabile con il metodo delle potenze: questa situazione ideale pu` o descrivere solo un grafo del Web fortemente connesso (vedi Teorema 7.26). Tuttavia `e naturale supporre che (come nell’Esempio 7.49) ogni pagina non sia linkata con s´e stessa, cio`e la matrice M nella diagonale principale abbia tutti gli elementi nulli. Inoltre non `e neppure vero che la matrice di adiacenza di tutto il web abbia una potenza strettamente positiva. Nel caso reale sia i gruppi significativi di pagine Web sia tutta la rete del World Wide Web nel suo complesso non sono fortemente connessi. In particolare si presentano i seguenti problemi:
286
7 Matrici positive e grafi
(p1) assegnata una pagina Pj , non `e detto che da Pj si possa arrivare ad alcuna altra pagina; in tal caso Pj si dice pagina dangling e la j-esima colonna della matrice M `e costituita solo da zeri, dunque M non `e neppure stocastica; il grafo corrispondente GM non `e connesso; (p2) anche se da ogni pagina si pu` o arrivare ad almeno un’altra pagina, non `e detto che da ciascuna pagina si possa arrivare ad una qualsiasi altra pagina: in tal caso la matrice M non `e irriducibile e il grafo corrispondente GM non `e fortemente connesso. Vi sono diversi metodi per rimediare ai problemi (p1),(p2) evidenziati: tutte queste possibilit` a sono basate sul fatto che il transito da una pagina all’altra non avviene solo mediante links gi` a presenti ma anche digitando l’indirizzo delle pagine. Ci limitiamo a citare solo una delle possibilit` a per ciascuno di tali problemi. Per risolvere il problema (p1), una possibilit` a `e quella di ipotizzare che tutte le pagine dangling puntino ad ogni pagina del Web: ci` o equivale a sostituire alle corrispondenti colonne di soli zeri nella matrice M il vettore colonna T 1 1n = 1/n 1/n · · · 1/n , ottenendo cos`ı una matrice stocastica M: n = M + 1 1 n BT M n ove gli elementi del vettore colonna B sono Bj = 1 se Pj `e dangling, Bj = 0 negli altri casi. Si noti che ci` o corrisponde ad ipotizzare una distribuzione di probabilit` a uniforme circa il passaggio ad altre pagine senza utilizzo dei links, ma ipotesi pi` u generali (e personalizzate) possono essere fatte. L’aggiustamento della matrice di adiacenza appena descritto, pur garantendo non ne garantisce la irriducibilit` di lavorare con una matrice stocastica M, a. Per ottenere tale propriet`a (cio`e risolvere il problema (p2)) nel caso generale di tutto il Web, denotando con 1In la matrice quadrata di ordine n con tutti gli nel seguente elementi uguali ad 1, si pu` o perturbare la matrice stocastica M modo: + (1 − d) E G = dM (7.12) 1 1 1n 1Tn = 1In n n ottenendo una matrice di transizione che `e strettamente positiva: G O . che Dunque G `e irriducibile e primitiva; inoltre G `e stocastica perch´e sia M E lo sono. Per il Teorema di Markov-Kakutani G ammette una distribuzione di probabilit` a invariante, per il Teorema di Frobenius-Perron essa `e unica. Denotiamo con R tale distribuzione di probabilit` a invariante: GR = R, R ≥ 0, Rj = 1 . (7.13) d ∈ (0, 1)
E=
j
7.5 Esercizi di riepilogo
287
Tale R, oltre ad essere l’autovettore dominante di G, fornisce l’ordinamento delle sue componenti Rj che pu` o essere utilizzato validamente come alterj della pagina Pj : sottolineiamo che non nativa all’indice di significativit` aR interessa tanto il valore numerico degli Rj quanto il loro ordinamento decrescente ([1]). R `e il vettore cercato dei livelli di significativit` a delle pagine web: la componente Rj `e l’indice di significativit` a della pagina Pj . I Teoremi 6.34, 6.37 e 7.17 assicurano lim Gk P0 = R
per ogni P0 distribuzione di probabilit` a,
k
(7.14)
in particolare tutte le colonne di Gk convergono a R quando k tende a +∞ : lim Gk = [ R | R | · · · | R ] . k
(7.15)
Questi risultati teorici consentono anche di affrontare il vero problema costituito dalle dimensioni delle matrici in gioco (si stima attualmente che siano presenti almeno 9 · 109 pagine). Infatti l’algoritmo di calcolo dell’autovettore principale mediante il metodo delle potenze `e molto veloce: il Teorema (7.17) assicura che la velocit`a `e legata al secondo autovalore di G (circa la stima tramite d del secondo autovalore per la matrice G si veda ([9]). Le (7.14) e (7.15) descrivono l’analisi asintotica del s.d.d. associato alla catena di Markov regolare di matrice stocastica G : Pk+1 = G Pk
P0 distribuzione di probabilit` a.
(7.16)
Per la natura della matrice E il s.d.d. vettoriale omogeneo (7.16) `e equivalente al s.d.d. vettoriale lineare non omogeneo Pk + (1 − d) 1n . Pk+1 = M n
(7.17)
`e molto sparsa, al contrario G ha tutti gli elementi Si noti che la matrice M strettamente positivi: dunque `e assai utile sfruttare l’equivalenza evidenziata ed implementare il metodo delle potenze mediante (7.17) anzich´e (7.16).
7.5 Esercizi di riepilogo Esercizio 7.17. Dire se la matrice stocastica ⎡ ⎤ 0 0 0 1/2 ⎢ 1 0 1/4 0 ⎥ ⎥ M=⎢ ⎣ 0 1 0 1/2 ⎦ 0 0 3/4 0 `e riducibile o irriducibile.
288
7 Matrici positive e grafi
Esercizio 7.18. Nel modello per l’attribuzione dell’indice di significativit` a o il calcolo dell’autovettore R (Sezione 7.4 - Algoritmo PageRank) abbiamo implicitamente supposto che il risultato non dipenda dall’ordinamento (arbitrario) delle pagine, cio` e a di dall’indice j secondo il quale vengono elencate le pagine Pj . Si provi la validit` tale ipotesi. Suggerimento: per mostrare l’indipendenza di R rispetto a una permutazione τ delle pagine baster` a sfruttare l’invarianza degli autovalori ed autovettori rispetto alla trasformazione di G in TGTT dove T `e la matrice di permutazione associata a τ. Esercizio 7.19. Con riferimento all’Esempio 7.49 i gestori della pagina P1 sono insoddisfatti dell’indice di significativit` a attribuito al tale pagina (inferiore a quello attribuito alla pagina P4 ). Nel tentativo di aumentarlo, creano una ulteriore pagina P5 con un link da P5 a P1 ed un link da P1 a P5 . Questa operazione riesce a far aumentare l’indice di significativit` a di P1 oltre quello di P4 ?
8 Soluzioni degli esercizi
8.1 Soluzioni degli esercizi del Capitolo 1 Soluzione 1.1 Se proviamo a tracciare successivamente le varie rette supposte dotate di un orientamento (convenzionale), allora, sulla (k + 1)-esima retta, per costruzione, sono presenti k punti distinti e ordinati p1 , p2 , . . . , pk , intersezioni di tale retta con le rette preesistenti. Tali punti identificano sulla retta k − 1 segmenti e due semirette. Ciascuno di questi k + 1 oggetti geometrici sconnette una ed una sola delle regioni che “attraversa”, per cui
Nk+1 = Nk + k + 1 N0 = 1
1 1 o essere provata per la cui soluzione `e data da Nk = k2 + k + 1. Tale formula pu` 2 2 induzione.
b)
a)
Figura 8.1 a) Se k = 3 allora Nk = 7;
b) (k + 1)-esima retta
Salinelli E , Tomarelli F : Modelli dinamici discreti, 2a edizione. c Springer-Verlag Italia 2009, Milano
290
8 Soluzioni degli esercizi
La tecnica per ottenere la formula `e illustrata nel Capitolo 2. Per rispondere al quesito, basta osservare che conviene effettuare i tagli in modo tale che ogni coppia di tagli si intersechi internamente al cerchio, ma non pi` u di due si intersechino in ciascuno di tali punti. Pertanto il numero massimo `e proprio quello 1 1 fornito dalla formula trovata: Nk = k2 + k + 1. 2 2 Soluzione 1.2 Procediamo per induzione. Si ha: S1 = (1 + r) S0 − R ≥ (1 + r) S0 − rS0 = S0 e quindi la proposizione `e vera per k = 1. Supposta ora vera l’affermazione per un k ≥ 1, otteniamo: perch´ e R≤rS0
Sk+1 = (1 + r) Sk − R ≥ ≥ (1 + r) Sk − rS0 ≥
per l’ipotesi d’induzione
≥ (1 + r) Sk − rSk = = Sk . Concludendo, se R ≤ rS0 , allora Sk+1 ≥ Sk , cio`e il debito non diminuisce al passare del tempo. Soluzione 1.3 La quantit` a Yk+1 `e una proporzione, con coefficiente 1 − pY , della quantit` a Yk . Invece, per ottenere Xk+1 si deve considerare la proporzione (1 − pX ) Xk di materiale presente al tempo precedente che non decade, alla quale va sommato l’apporto pY Yk del primo materiale. In definitiva: Yk+1 = (1 − pY ) Yk Xk+1 = pY Yk + (1 − pX ) Xk Per la soluzione di questo semplice caso si rimanda all’Esercizio 2.17. Per la soluzione in forma chiusa di sistemi di equazioni lineari alle differenze nel caso generale si rimanda al Capitolo 5. Soluzione 1.4 La quota interessi al tempo k + 1, per definizione, `e data da Ik+1 = rDk . Possiamo cos`ı scrivere S Ik+1 − Ik = rDk − rDk−1 = r (Dk − Dk−1 ) = −rC = − r n ossia
S r. n Per determinare l’espressione in forma chiusa di Ik procediamo iterativamente: Ik+1 = Ik −
S S S r = Ik−1 − 2 r = Ik−2 − 3 r = · · · = n n n S n−k+1 S . = I1 − (k − 1) r = rS − (k − 1) r = rS n n n
Ik+1 = Ik −
8.1 Soluzioni degli esercizi del Capitolo 1
291
Soluzione 1.5 La quota interessi al tempo k + 1 `e data da: Ik+1 = rDk = r (Dk−1 − Ck ) = = Ik − rCk =
perch´ e Ck =R−Ik
= (1 + r) Ik − rR . Cos`ı, dall’uguaglianza che esprime la costanza delle rate (Ck+1 + Ik+1 = Ck + Ik ) segue Ck+1 = Ck + (Ik − Ik+1 ) = Ck + rCk = (1 + r) Ck da cui Ck = (1 + r)k−1 C1 = (1 + r)k−1 (R − rS). Soluzione 1.6 L’ammontare Sk+1 presente sul conto dopo k + 1 anni `e dato dall’ammontare Sk dell’anno precedente al quale vanno sommati gli interessi maturati rSk e detratte le spese fisse C: Sk+1 = Sk + rSk − C.
Soluzione 1.7
s = 100 (Cgg /C0 )365/gg − 1 .
Soluzione 1.8 Poich´e per 0 < r < 1 valgono +∞ +∞ +∞
k
1 nkrk (1 − r) = (1 − r) kr = r (1 − r) krk−1 = n k=1 k=1 k=1
x d r = (1 − r) r = dx 1 − x x=r 1−r
m (r) =
e
7 7 1 log 2 d (r) = max k ∈ N : (1 − r)k ≥ = max k ∈ N : k ≤ − = 2 log (1 − r)
log 2 = parte intera di − log (1 − r)
si conclude che m (r) d (r)
⇔
log 2 r parte intera di − . 1−r log (1 − r)
Soluzione 1.9 Sia Yk il numero di operazioni necessarie per riporre k cubi. Se k = 0 ovviamente Y0 = 0, mentre per k = 1 si ha Y1 = 1. Se, invece, si vogliono riporre nella cesta dei giochi k + 2 cubi, si hanno due sole possibilit` a: al primo passo si toglie un cubo, avendo poi Yk+1 differenti modi per portare a termine l’operazione, oppure, sempre al primo passo, se ne tolgono due, restando cos`ı Yk modi per operare. In definitiva: Yk+2 = Yk+1 + Yk . Si osservi che l’equazione ricorsiva coincide con quella dei numeri di Fibonacci (Esempio 1.15).
292
8 Soluzioni degli esercizi
Soluzione 1.10 Si supponga di dover spostare k + 1 dischi. Per poter “liberare” quello di raggio maggiore si pu` o pensare di spostare i restanti dischi sul piolo centrale (vedi Figura 1.6): il numero minimo di mosse necessarie per ottenere tale risultato `e dato da Yk perch´e coincide con il numero minimo di mosse necessarie per spostare i primi k dischi sul piolo di destra; con una sola mossa si pu` o spostare il disco di raggio maggiore dal piolo di sinistra a quello di destra, mentre ci vogliono ancora Yk mosse per spostare dal piolo centrale a quello di destra i restanti dischi. Otteniamo cos`ı: Yk+1 = Yk + 1 + Yk = 2Yk + 1. Osserviamo che tale numero Yk+1 di mosse `e ovviamente sufficiente; che sia il miniu mo segue dal fatto che Yk era minimo per k dischi e lo spostamento del disco pi` grande `e una operazione necessaria per completare lo spostamento della torre. Soluzione 1.11 Se i dischi sono k + 1, con Xk mosse si spostano i primi k dischi sul piolo di destra, poi con una mossa si sposta l’ultimo disco sul piolo di mezzo; a questo punto con altre Xk mosse si spostano i primi k dischi sul piolo di sinistra, con una mossa si sistema sul piolo di destra il disco di raggio maggiore ed infine con Xk mosse si spostano sul piolo di destra i rimanenti dischi. In conclusione: Xk+1 = 3Xk + 2.
2
20 __ 9
Figura 8.2 Modello della ragnatela Soluzione 1.12 Supponiamo di aver diviso ciascun lato del triangolo in k + 1 parti: il numero di triangoli Xk+1 `e dato dal numero dei triangoli Xk che si ottengono considerando, a partire dal vertice, le prime k parti, al quale va aggiunto il numero k + 1 dei triangolini la cui base giace sulla base del triangolo di partenza e i k triangolini che hanno il loro vertice nei punti che suddividono la base: Xk+1 = Xk + k + 1 + k = Xk + 2k + 1.
8.1 Soluzioni degli esercizi del Capitolo 1
293
Soluzione 1.13 Nella Figura 8.2 sono riportate le prime iterazioni del modello della ragnatela ottenute con il metodo grafico. Soluzione 1.14 Equazione di Bessel. Posto y (x) = xh
+∞ n=0
An xn , h ≥ 0 e A0 = 0,
derivando formalmente termine a termine e sostituendo nell’equazione assegnata, si deduce il valore identicamente nullo per la quantit` a seguente: +∞
(n + h)(n + h − 1)An xn+h+
n=0
+∞
(n + h) An xn+h +
n=0
+∞
An xn+h+2−k2
n=0
+∞
An xn+h
n=0
Operando il cambio di indici m = n + 2 nella terza serie e raccogliendo, possiamo scrivere +∞ +∞
2 3 Am−2 xm+h = 0. (m + h)2 − k2 Am xm+h + m=0
m=2
A questo punto, uguagliando i coefficienti dei termini di ugual grado otteniamo ⎧ 2 2 ⎨ h − k A0 = 0 ((h + 1)2 − k2 )A1 = 0 ⎩ ∀m ≥ 2 ((m + h)2 − k2 )Am + Am−2 = 0 Poich´e A0 = 0, dalla prima relazione si ricava che h = k e cos`ı, dalla seconda equazione, segue A1 = 0: dunque tutti i coefficienti di ordine dispari sono nulli mentre quelli di ordine pari sono individuati a partire da A0 dalla relazione A2n = −
A2n−2 4n (n + k)
n ≥ 1.
Osserviamo per completezza che, oltre alla soluzione trovata ed ai suoi multipli, ve ne sono altre definite solo per x = 0. Equazione di Hermite. Con la posizione y (x) =
+∞
An xn , derivando formalmen-
n=0
te termine a termine e sostituendo nell’equazione data, si giunge a +∞
n (n − 1) An xn−2 − 2
n=2
+∞
nAn xn + 2k
n=1
+∞
An xn = 0
n=0
che grazie al cambio di indici m = n − 2 nella prima serie, si riscrive come +∞
(m + 1) (m + 2) Am+2 xm − 2
m=0
ossia
+∞
m=1
+∞
mAm xm + 2k
+∞
Am xm = 0
m=0
[(m + 1) (m + 2) Am+2 + 2 (k − m) Am ] xm = 0.
m=0
Imponendo l’annullamento dei coefficienti dei termini di ogni grado, otteniamo la relazione ricorsiva:
294
8 Soluzioni degli esercizi Am+2 =
2 (m − k) Am (m + 1) (m + 2)
m ∈ N.
Poich´e k `e un intero positivo ogni coefficiente Am con m ≥ k `e nullo, cio`e la soluzione corrispondente a k intero `e un polinomio di grado k − 1. Equazione di Laguerre. Procedendo come nell’esempio precedente, otteniamo +∞
n (n − 1) An xn−1 +
n=2
+∞
nAn xn−1 −
n=1
+∞
nAn xn + k
n=1
+∞
An xn = 0.
n=0
Questa volta dobbiamo “sistemare” gli indici delle prime due serie: +∞
n (n + 1) An+1 xn +
n=1
+∞
(n + 1) An+1 xn −
n=0
+∞
+∞
nAn xn + k
n=1
An xn = 0.
n=0
Non resta che uguagliare i coefficienti dei termini di ugual grado: A1 + kA0 = 0,
An+1 =
n−k An . (n + 1)2
Poich´e k `e un intero positivo ogni coefficiente An con n ≥ k `e nullo, cio`e la soluzione corrispondente a k intero `e un polinomio di grado k − 1. Equazione di Legendre. Con lo stesso metodo: +∞ +∞ +∞
n−1 n+1 nAn x − nAn x + k (k + 1) An xn = 0 n=1
n=1
n=0
calcolando formalmente la derivata +∞
n (n − 1) An xn−2 −
n=2
+∞
n (n + 1) An xn + k (k + 1)
n=1
+∞
An xn = 0.
n=0
Con il cambio di indici n → n + 2 nella prima serie, si ricava +∞
(n + 1) (n + 2) An+2 xn −
n=0
+∞
n (n + 1) An xn + k (k + 1)
n=1
+∞
An xn = 0
n=0
e uguagliando i coefficienti dei termini di ugual grado: An+2 =
n (n + 1) − k (k + 1) An (n + 1) (n + 2)
n ∈ N.
Poich´e k `e un intero positivo ogni coefficiente An con n ≥ k `e nullo, cio`e la soluzione corrispondente atali valori di k `e un polinomio di grado k − 1. L’esplicitazione dei coefficienti nei vari casi `e illustrata nell’Esercizio 2.36. Soluzione 1.15 Utilizziamo Eulero implicito ed il passo di discretizzazione h > 0. Se Yk approssima y (hk), allora
8.1 Soluzioni degli esercizi del Capitolo 1 (1)
(1 − h (k + 1)) Yk+1 = Yk
(2)
ah (Yk+1 )2 + (1 − ah) Yk+1 − Yk = 0
295
Soluzione 1.16 a) Sia Uj,k un’approssimazione di u (js, hk). Allora per approssimare le derivate seconde di una generica funzione f , tra i possibili schemi alle differenze finite, utilizziamo le differenze seconde centrate:
f (ξ + δ) + f (ξ − δ) − 2f (ξ) 1 f (ξ + δ) − f (ξ) f (ξ) − f (ξ − δ) = − f (ξ) = 2 δ2 2δ δ δ si ottiene Uj,k =
s2 h2 (Uj,k+1 + Uj,k−1 ) + (Uj+1,k + Uj−1,k ) . 2 2 +h ) 2 (s + h2 )
2 (s2
1 Si noti che se s = h allora Uj,k = (Uj,k+1 + Uj,k−1 + Uj+1,k + Uj−1,k ), cio`e ogni 4 valore di Uj,k `e la media aritmetica di quattro valori adiacenti per ogni nodo interno, dunque `e compresa tra il massimo ed il minimo tra essi. Ne segue il Principio del massimo discreto per l’equazione di Laplace: se si risolve l’equazione in un aperto limitato con dati al bordo ed una griglia uniforme (s = h) allora maxj,k Uj,k `e assunto al bordo (lo stesso discorso vale per il minimo). In particolare, se il massimo (o il minimo) viene assunto in un nodo interno allora Uj,k `e indipendente da k e j cio`e costante. b) Sia Vj,k un’approssimazione di v (js, kh); utilizzando ancora le differenze centrate, otteniamo: 2 h2 − s2 Vj,k = h2 (Vj+1,k + Vj−1,k ) − s2 (Vj,k+1 + Vj,k−1 ) Soluzione 1.17 La (1.21) implica per sostituzione wτ = wyy + (k − 1) wy − kw w (y, 0) = max (ey − 1, 0) La (1.22) sostituita βu + uτ = α2 u + 2αuy + uyy + (k − 1) (αu + uy ) − ku β = α2 + (k − 1) α − k 0 = 2α + (k − 1) 1 α = − (k − 1) 2 1
⎧ ⎪ ⎨ ut = uyy
1 β = − (k + 1)2 4 1
2
w (y, τ ) = e− 2 (k−1)y− 4 (k+1) u (y, τ ) nel semipiano: − ∞ < y < +∞, τ > 0
⎪ ⎩ u (y, 0) = u0 (y) = max e 12 (k+1)y − e 12 (k−1)y , 0 +∞ 2 1 u0 (s) e−(y−s) /4τ ds Poich´e `e noto u (y, τ ) = √ 2 πτ −∞
si conclude
296
8 Soluzioni degli esercizi v (x, t) = xN (d1 ) − Ee−r(T −t) N (d2 )
dove si `e posto 1 N (d) = √ 2π 2
σ log (x/E) + r + (T − t) 2 √ d1 = σ T −t
d
−∞
e−s
2
/2
ds
σ2 log (x/E) + r − (T − t) 2 √ d2 = . σ T −t
8.2 Soluzioni degli esercizi del Capitolo 2 Soluzione 2.1
Sviluppiamo esplicitamente solo i punti i) e ii).
lim Xk = −∞; (1) Xk = −k, ∀k ∈ N; k k 1 + 3, ∀k ∈ N; lim Xk = 3; (2) Xk = −2 k 3 1 k 1 lim Xk = −∞; (3) Xk = − 4 + , ∀k ∈ N; k 12 3
k 1 1 5 5 − lim Xk = ; + , ∀k ∈ N; (4) Xk = k 2 5 2 2 3 1 lim Xk ; Xk oscilla ed assume solo due (5) Xk = (−1)k + , ∀k ∈ N; k 2 2 valori; 1 5 lim Xk . Il modulo |Xk | diverge a +∞. (5) Xk = − (−3)k + , ∀k ∈ N; k 4 4 Soluzione 2.2 Si pu` o provare per induzione. Alternativamente, costruiamo la soluzione: posto Sk = 1 + 2 + · · · + (k − 1) + k = k n=1 n, possiamo riscrivere i termini della sommatoria come Sk = k + (k − 1) + · · · + 3 + 2 + 1 e sommare le due relazioni: 2Sk = (1 + k) + (2 + k − 1) + · · · + (k − 1 + 2) + (k + 1) = = (k + 1) + (k + 1) + · · · + (k + 1) = k (k + 1) . -. / , k volte
1 − z k+1 ; 1−z quest’ultima relazione pu` o essere provata per induzione oppure osservando che (1 − z) Pk = 1 + z + z 2 + · · · + z k − z + z +2 +z 3 + · · · + z k+1 = 1 − z k+1 .
Soluzione 2.3
Se z = 1, allora Pk = k + 1. Se z = 1, allora Pk =
Dividendo per (1 − z) si ottiene la formula cercata. Soluzione 2.4 A partire dalla (2.3) ricaviamo la seguente tabella:
8.2 Soluzioni degli esercizi del Capitolo 2
297
X1 = aX0 + b X2 = aX1 + b = a (aX0 + b) + b = a2 X0 + b (1 + a) X3 = aX2 + b = a a2 X0 + b (1 + a) = a3 X0 + b 1 + a + a2 ... = ...
Xk = ak X0 + b 1 + a + a2 + · · · + ak−1 Poich´e (vedi l’esercizio precedente) 2
k−1
1 +a +a +···+ a
⎧ k ⎨ 1 − a a = 1 = 1−a ⎩ k a=1
sostituendo il valore di α, si ottengono le formule risolutive del Teorema 2.5. Soluzione 2.5 Con la notazione dell’Esercizio 2.5, se z = 1, allora Qh,k = k + 1. 1 − z k+1 . Se z = 1, allora Qh,k = z h Pk = z h 1−z Soluzione 2.6 Condizione necessaria per la convergenza di una serie `e che il termine generale sia infinitesimo, dunque non si ha convergenza se |z| ≥ 1. Se z ∈ C e |z| < 1, allora la serie converge assolutamente e vale +∞
1 1−z
zk =
k=0
∀z ∈ C : |z| < 1.
Infatti, ricordando l’espressione delle somme parziali (vedi Esercizio 2.3) +∞
k=0
k
z = lim k
Soluzione 2.7 0, 99999 . . . =
k
n=0
+∞ k=1
z
n
= lim k
9 · 10−k =
1 1 − z k+1 = . 1−z 1−z
−k 9 +∞ 9 1 10 = = 1. 10 k=0 10 1 − 1/10
Soluzione 2.8 L’equazione caratteristica λ2 + aλ + b = 0 ammette le due radici √ −a ± a2 − 4b λ1,2 = . 2 Se b = a2 /4, allora la soluzione generale `e Xk = (c1 + c2 k) λ1k con λ1 = −a/2, e, dunque, Xk ha limite finito (uguale a 0) per ogni dato iniziale se e solo se |λ1 | < 1 cio`e se e solo se |a| < 2. Se b = a2 /4, allora la soluzione generale `e Xk = c1 λ1k + c2 λ2k e Xk ammette limite finito per ogni dato iniziale se e solo se |λ1 | < 1 e |λ2 | < 1, cio`e per avere convergenza di tutte le soluzioni: • se b > a2 /4, allora deve valere a2 + 4b − a2 < 4 cio`e b < 1 ; √ • se b < 0 < a2 /4, allora deve valere a2 − 4b < min {2 + a , 2 − a} cio`e
298
8 Soluzioni degli esercizi 2 a (|a| − 1) √ • se 0 < b < a2 /4, allora deve valere a2 − 4b ± a < 2 cio`e
a2 < 4 . (a − 1) < b
Soluzione 2.9 (1)
Xk = c1 (−1)k + c2 3k , k ∈ N;
(2)
Xk = c1 cos (πk/6) + c2 sin (πk/6) , k ∈ N;
(3)
Xk = c1 + c2 cos (πk/2) + c3 sin (πk/2) , k ∈ N;
(4)
Xk = (c1 + c2 k) (−1)k + c3 (−3)k , k ∈ N;
(5)
Xk = c1 (−1)k + c2 3k − 1/2, k ∈ N;
(6)
Xk = c1 + c2 cos (πk/2) + c3 sin (πk/2) − k/2, k ∈ N .
Soluzione 2.10 α = 2, α `e stabile ed attrattivo; Xk = −3 (−2)−k−1 − 5 (2)−k−1 + 2, k ∈ N . Soluzione 2.11
k
k √ k
−1 − i −1 + i 3 3 2 πk + c2 sin πk c1 cos +c2 = (a) Xk = c1 2 2 2 4 4 √ k (b) α = 0, stabile ed attrattivo (c) Xk = 2/2 (−2 sin (3πk/4)) , k ∈ N . Soluzione 2.12 (a) Xk = c1 (2 − i)k + c2 (2 + i)k + 3, k ∈ N (b)
α = 3, non `e stabile.
Soluzione 2.13
k
k −1 − i −1 + i + c2 −2 = 2 2
√ k 2 3 3 πk + c2 sin πk −2 c1 cos = 2 4 4
(a)
Xk = c 1
(b)
α = −2, stabile ed attrattivo.
Soluzione 2.14 Osserviamo preliminarmente che se P (λ) = 0 `e l’equazione caratteristica associata all’equazione alle differenze considerata, allora: 1 + a1 + a0 = P (1) ;
1 − a1 + a0 = P (−1)
e a0 `e uguale al prodotto delle due radici λ1 e λ2 (eventualmente complesse) di P: a0 = λ1 λ2 . Se valgono le condizioni sui coefficienti, allora si ricava: −a1 < 1 + a0 < 2
⇒
−a1 > −1 − a0 > −2
⇒
a1 −1. 2 −
8.2 Soluzioni degli esercizi del Capitolo 2
299
Dunque, P (1) > 0 e P (−1) > 0 e l’ascissa del vertice della parabola P (λ) appartiene all’intervallo (−1, 1): se le radici λ1 e λ2 sono reali, necessariamente appartengono all’intervallo (−1, 1). Se le radici sono complesse, poich´e λ2 = λ1 , si ottiene: 1 > a0 = λ1 λ2 = λ1 λ1 = |λ1 |2 da cui |λ1 | = |λ2 | < 1. Viceversa, se α = 0 `e attrattivo, allora le radici λ1 e λ2 sono in modulo minori di 1 e il loro prodotto `e in modulo minore di 1. Se λ1 e λ2 sono reali, allora λ1 λ2 = a0 < 1 e necessariamente P (−1) > 0 e P (1) > 0. Se λ1 e λ2 sono complesse coniugate, allora 1 > |λ1 λ2 | = λ1 λ1 = |λ1 |2 = a0 e ovviamente, P (−1) > 0, P (1) > 0. Soluzione 2.15 Come di consueto, se `e noto il risultato, o se si vuole provare a verificare una congettura circa il risultato, si effettua una verifica per induzione. Tuttavia utilizziamo una tecnica che `e indipendente dalla conoscenza del risultato. k n2 , possiamo scrivere: Posto Sk = n=1
Sk+1 − Sk = (k + 1)2 S0 = 0
La soluzione generale T del problema omogeneno associato Tk+1 − Tk = 0 `e data dalle successioni costanti. Cerchiamo una soluzione particolare X del problema non omogeneo di tipo polinomio di terzo grado (perch´e il membro destro `e polinomio di secondo grado, e la costante risolve il problema omogeneo): Xk = ak3 + bk2 + ck. Sostituendo nell’equazione di partenza, si ottiene: a (k + 1)3 + b (k + 1)2 + c (k + 1) = ak3 + bk2 + ck + k2 + 2k + 1 (3a − 1) k2 + (3a + 2b − 2) k + (a + b + c − 1) = 0 a = 1/3
b = 1/2
c = 1/6 .
La soluzione generale `e Sk = d + Xk = d +
1 3 1 2 1 k + k + k 3 2 6
k∈N
e dalla condizione iniziale S0 = 0 si deduce il valore della costante (d = 0), da cui: Sk =
Soluzione 2.16 Sk =
1 k (2k + 1) (k + 1) 6
k ∈ N.
1 2 k (k + 1)2 . 4
Soluzione 2.17 Con riferimento alla soluzione dell’Esercizio 1.3, l’equazione in Y `e disaccoppiata ed ha soluzione Yk = (1 − pY )k Y0 . Sostituendo nell’altra equazione otteniamo l’equazione lineare, non omogenea, del primo ordine:
300
8 Soluzioni degli esercizi Xk+1 = (1 − pX ) Xk + pY (1 − pY )k Y0 .
La soluzione generale dell’equazione omogenea associata `e c (1 − pX )k . Utilizzando la Tabella 2.1 per la ricerca di soluzioni particolari,
si conclude che: pY pY Y0 (1 − pX )k + Y0 (1 − pY )k • se pX = pY , allora Xk = X0 − pX − pY pX − pY k ∈ N; • se pX = pY = 1, allora cercando soluzioni particolari del tipo ak (1 − pX )k , si ottiene Xk = X0 (1 − pX )k +
pX Y0 k (1 − pX )k 1 − pX
k ∈ N;
• se pX = pY = 1, allora Xk = Yk = 0, ∀k > 1. Soluzione 2.18 1 (1) Xk = c1 (−1)k + c23k + (−3)k , k ∈ N; 12 √ π π 18 − 10 3 (2) Xk = c1 cos k + c2 sin k −k+ , k ∈ N; 6 6 3 π π π 1 π 1 k + c3 sin k + sin k + cos k , (3) Xk = c1 + c2 cos 2
2 4 2 4 2 1 k ∈ N. (4) Xk = c1 + c2 k + k2 (−1)k + c3 (−3)k , 4
k ∈ N;
Soluzione 2.19 Impieghiamo la Z-trasformata. Posto Z {X} = x (z), dalla Tabella in Appendice G ricaviamo z (z − 1)2 Z {Xk+1 } = z (x (z) − X0 ) = zx (z) Z {k} =
Z {Xk+2 } = z 2 x (z) − z 2X0 − zX1 = z 2 x (z) − z. Sostituendo nell’equazione 2 z − z − 2 x (z) = si ottiene x (z) = Cos`ı Z
Z
−1
−1
z +z (z − 1)2
z z . 2 + (z − 2) (z + 1) (z − 2) (z + 1) (z − 1)
z (z − 2) (z + 1)
7 =Z
z (z − 2) (z + 1) (z − 1)2
−1
7 1/3 1 k 1/3 − = 2 − (−1)k z z−2 z+1 3
7 = Res (f, 2) + Res (f, −1) + Res (f, 1) = 1 k 2 − 3 1 = 2k − 3
=
1 d zk = (−1)k + 12 dz (z − 2) (z + 1) z=1 1 k 1 (−1)k − − . 12 2 4
8.2 Soluzioni degli esercizi del Capitolo 2
301
In definitiva: Xk =
2k+1 k 5 1 1 k+3 2 + 5 (−1)k+1 − 6k − 3 − (−1)k − − = 3 12 2 4 12
k ∈ N.
Soluzione 2.20 Impiegando la Z-trasformata, posto x (z) = Z {X}, trasformando l’equazione 2 ⇒ z − 5z + 6 x (z) = 1 z 2 x (z) − 5zx (z) + 6x (z) = 1 si ricava x (z) = Z {X} =
1 . (z − 2) (z − 3)
Cos`ı: X0 = Res (g0 , z = 0) + Res (g0 , z = 2) + Res (g0 , z = 3) =
1 1 1 − + =0 6 2 3 k ≥ 1.
Xk = Res (gk , z = 2) + Res (gk , z = 3) = 3k−1 − 2k−1 7 1 pu` o essere calcolata mediante la convoluAlternativamente Z −1 (z − 2) (z − 3) zione discreta: 7 7 7 1 1 1 Z −1 = Z −1 ∗ Z −1 =Y ∗Z (z − 2) (z − 3) z−2 z−3 avendo posto
Yk = 2k−1 Y0 = 0
∀k ≥ 1
Zk = 3k−1 Z0 = 0
∀k ≥ 1
Si ricava X0 = Y0 Z0 = 0 e Xk =
k
j=0
Yn−j Zj =
k−1
j=1
3j−1 2n−j−1 =
3k−1 − 2k−1 = 3k−1 − 2k−1 3−2
∀k ≥ 1
avendo impiegato nell’ultima uguaglianza l’identit` a m−1 m m m−2 a − b = (a − b) a +a b + · · · + abm−2 + bm−1 . Soluzione 2.21 Prendendo la Z-trasformata di entrambi i membri dell’equazione assegnata, otteniamo: 3 zx (z) − z − 2x (z) = 4 z e, risolvendo in x, x (z) =
3 z z z + 4 = + 3z −5 . z−2 z (z − 2) z−2 z−2
Calcolando l’antitrasformata di tale espressione mediante la Tabella in Appendice G si deduce
302
8 Soluzioni degli esercizi Xk = Z −1 {x} k = 2k + 3 · 2k−5 Uk+5 =
0≤k≤4 2k 2k + 3 · 2k−5 k ≥ 5
Soluzione 2.22 Si tratta di un’equazione di tipo Volterra. Sostituendo k al posto di k + 1 nell’espressione di Xk e dividendo per 2, otteniamo Xk+1 = 1 + 16
k
(k − s) Xs = 1 + 16 k ∗ Xk .
s=0
Applicando la Z-trasformata ad entrambi i membri, si ricava z z x (z) + 16 z−1 (z − 1)2
z (z − 1) 1 1 1 z 1 z x (z) = =z + = + (z − 5) (z + 3) 2 (z − 5) 2 (z + 3) 2z−5 2 z+3 1 1 e dunque Xk = 5k + (−3)k . 2 2 zx (z) − z =
Soluzione 2.23 Calcoliamo prima Z {Y }: sia |z| < 1, allora Z {Y } = +∞
k=0
k (k + 1) (k + 2) = (−z)3 zk
d dz
−3!z 3 per (z − 1)4
3 3 +∞ −z 3 1 1 d 3 = 3! = (−z) . zk dz 1−z (z − 1)4 k=0
Dalla identit` a k3 = k (k + 1) (k + 2) − 3k2 − 2k e dalle Z {k} =
% & z (z + 1) Z k2 = (z − 1)3
z (z − 1)2
otteniamo per linearit` a % & Z {X} = Z {Y } − 3Z k2 − 2Z {k} = =
z (z + 1) z −6z 3 −3 −2 = (z − 1)4 (z − 1)3 (z − 1)2
−11z 3 + 4z 2 + z . (z − 1)4
Soluzione 2.24 Integrando per parti, per ogni b, b > 0, e per ogni k ∈ N, si ha: b b b $b # e−x xk dx = −e−x xk + k e−x xk−1 dx = −e−b bk + k e−x xk−1 dx . 0
0
0
Passando al limite per b → +∞, si deduce Ik = kIk−1 I0 = 1 la cui soluzione esplicita `e Ik = (
k s=1
s)I0 = k!
0
8.2 Soluzioni degli esercizi del Capitolo 2
303
Soluzione 2.25 (1)
X1 = 0 · X0 = 0 e dunque Xk = 0 per ogni k (per ogni dato iniziale X0 );
(2)
Xk =
k−1 3j + 1 4 1 3k − 2 3k − 5 ··· X0 = X0 ; 3k + 4 3k + 1 11 7 j=0 3j + 7
(3)
Xk = e
3(k−1)
3(k−1) 3(k−2)
Xk−1 = e e
3 = X0 exp k (k − 1) ; 2
3 0
. . . e e X0 = X0 exp
3
k−1
j
(4)
Xk = e
cos 2(k−1) cos 2(k−2)
e
...e
=
j=0
cos 2 cos 0
e
X0 = X0 exp
k−1
cos 2j
.
j=0
Soluzione 2.26 Si ha x 1 ·(1 − x) cio`e x2 + x − 1 = 0 che ammette le due · x =√ soluzioni distinte x1,2 = −1 ± 5 /2: di esse `e accettabile solo quella positiva. La √ 5 − 1 /2. lunghezza della sezione aurea di un segmento misura Soluzione 2.27 (1) Xk risolve un problema del tipo (2.28) con a = c= √0 e b = 5 − 1 /2. d = 1. Operiamo una sostituzione come in (2.30), scegliendo α = x = √
−1 5−1 , la (2.32) si scrive come Posto Yk = Xk − 2 √ 5−1 √ +1 1 2 5+1 2 √ √ Yk + √ Yk+1 = Yk + √ = 1− 5 5−1 1− 5 5−1 2 2 e dal Teorema 2.5, si ricava Yk =
√ k
1+ 5 1 1 √ X0 − √ +√ 5 1− 5 5
e dunque
−1 √ √ k
1 1 5−1 1+ 5 √ X0 − √ + +√ . 2 5 1− 5 5 √ √ 1 + 5 k 5−1 √ = +∞ segue che lim Xk = = x. Da lim k k 2 1− 5 Xk =
(2)
Soluzione 2.28 Ricaviamo Xk+1 in funzione di Xk : Xk+1 = (4Xk + 9) / (Xk + 2). Zk+1 − 2, l’equazione data si riscrive come Se si pone Xk = Zk Zk+2 + 2Zk+1 + Zk = 0 che ha soluzione generale Zk = c1 (−1)k + c2 k (−1)k . Di conseguenza, le soluzioni dell’equazione di partenza sono, posto c3 = c2 /c1 ,
304
8 Soluzioni degli esercizi
−3 − c3 (3k + 1) Xk = 1 + c3 k con c3 costante arbitraria; si noti che a tale rappresentazione va aggiunta la soluzione k+1 − 2 corrispondente al caso c1 = 0. Xk = − k Si `e risolto un caso particolare di equazione di Riccati: assegnate le successioni P , Q, ed R, determinare X verificante la relazione Xk+1 Xk + Pk Xk+1 + Qk Xk + Rk = 0 che, mediante il cambio di variabili Xk = lineare in Z:
Zk+1 − Pk , si trasforma in una equazione Zk
Zk+2 + (Qk − Pk+1 ) Zk+1 + (Rk − Pk Qk ) Zk = 0 . Soluzione 2.29 (a)
Xk = 2k − 1;
(b)
Xk = 3k − 1.
Soluzione 2.30 Xk = 3−k (λ + 3) − 3, k ∈ N. Quindi, se k → +∞, Xk → −3, qualunque sia il valore di λ. Graficamente si ha
Figura 8.3 Soluzione dell’Esercizio 2.30 Soluzione 2.31 Xk = (−1)k (λ − 1, 5) + 1, 5 k ∈ N. Quindi, se k → +∞, il limite di Xk non esiste a meno che sia λ = 1, 5 ; in tal caso la soluzione `e costante (Xk = 1, 5 ∀k), altrimenti la soluzione `e 2 periodica. Se λ = 0, 5 allora graficamente si ha
Figura 8.4 Soluzione dell’Esercizio 2.31
8.2 Soluzioni degli esercizi del Capitolo 2
305
Soluzione 2.32 1) 2) 3) 4)
π π k + c3 sin k , ∀k ∈ N; 3 3 π π k + c4 sin k , ∀k ∈ N; Xk = c1 + c2 (−1)k + c3 cos 2 2
π π 3π 3π k + c2 sin k + c3 cos k + c4 sin k , Xk = c1 cos 4 4 4 4 π π k k Xk = 2 (c1 + c2 k) cos k + 2 (c3 + c4 k) sin k , ∀k ∈ N. 2 2 Xk = c1 (−1)k + c2 cos
∀k ∈ N;
Soluzione 2.33 L’equazione caratteristica λ2 −λ−2 = 0 ammette le radici semplici λ = −1 e λ = 2. Pertanto la soluzione generale del problema omogeneno `e data da Xk = c1 2k + c2 (−1)k
k ∈ N.
Cerchiamo ora una soluzione particolare dell’equazione non omogenea del tipo X k = ak + b. Sostituendo nell’equazione assegnata, si ottiene: a (k + 2) + b − a (k + 1) − b − 2ak − 2b = k . Uguagliando i coefficienti dei termini in k di ugual grado, si ricava il sistema −2a = 1 2a + b − a − b − 2b = 0 1 1 le cui soluzioni sono a = −1/2 e b = −1/4. Quindi X k = − k − e 2 4 Xk = c1 2k + c2 (−1)k −
1 1 k− 2 4
k ∈ N.
Infine, imponendo i dati iniziali nella soluzione generale appena scritta, si deducono i valori c1 = 2/3 e c2 = −5/12. La soluzione richiesta `e cos`ı: Xk =
1 1 k+1 5 1 2 (−1)k − k − − 3 12 2 4
k ∈ N.
Soluzione 2.34 Utilizziamo la Z-trasformata. Posto x (z) = Z {X}, trasformiamo l’equazione 2 z − 5z + 6 x (z) = 1 x (z) = Xk = res
1 (z − 3) (z − 2)
z k−1 z k+1 , 0 +res , 3 = −2k−1 +3k−1 (z − 2) (z − 3) (z − 2) (z − 3)
k ≥ 1.
Si noti che
1 1 1 X0 = res , 0 + res , 2 + res ,3 = z (z − 2) (z − 3) z (z − 2) (z − 3) z (z − 2) (z − 3) 1 1 1 = − − = 0. 6 2 3
306
8 Soluzioni degli esercizi
Alternativamente, da 1 1 1 = − (z − 3) (z − 2) z−3 z−2 e da Z −1 si ricava x (z) =
Z −1
1 z−a
1 1 − z−3 z−2
7
= τ1 ak
7
= k
0 se k = 0 3k−1 − 2k−1 se k ≥ 1
Soluzione 2.35 Nel caso particolare k = a ed s = a + b si risolve anche il problema dell’Esempio 1.17. Inoltre, osserviamo che le possibili storie diverse di una rovina sono infinite e dunque `e poco pratico calcolarne le corrispondenti probabilit` a e poi sommarle. Sia q = 1 − p. La probabilit` a Rk+1 di rovina iniziando il gioco con k + 1 monete pu` o essere vista come somma delle probabilit` a di vittoria al primo turno seguita da rovina e della probabilit` a di sconfitta al primo turno seguita da rovina: Rk+1 = pRk+2 + qRk che per p = 0 si riscrive come Rk+2 =
1 q Rk+1 − Rk . p p
L’equazione caratteristica 1 q λ2 − λ + = 0 p p ammette le radici λ1 = 1 e λ2 = q/p. Posto r = q/p • se p = q, allora Rk = c1 + c2rk e tenendo conto che R0 = 1 e Rs = 0, si ottiene
Rk =
rk − rs 1 − rs
se p =
1 2
• se p = q = 1/2, allora Rk = c1 + c2 k e tenendo conto che R0 = 1 e Rs = 0, si ottiene Rk =
s−k s
se p =
1 2
Ad esempio, p = 0, 48, k = 10 , s = 20, rientra nel caso p = 1/2 e mostra come, anche per p di poco minore di 0, 5 risulta R10 > 0, 5 (R10 = 0, 690066). Dunque, in tale caso, `e molto pi` u probabile rovinarsi che conservare e/o aumentare il capitale. Se si ripetono i calcoli con k = 100 e s = 200, il risultato ha una evidenza ancora pi` u drammatica: R100 > 0, 999.
8.2 Soluzioni degli esercizi del Capitolo 2
307
L’esempio p = 0, 5 , k = 10, s = 20, rientra nel caso p = 1/2: si ottiene Rk = 0, 5. La situazione `e molto migliore della precedente; anche se `e possibile rovinarsi in un caso su due! Si noti che anche p = 0, 5, k = 100, s = 200 conduce a Rk = 0, 5. Dunque, `e meglio non scommettere ripetutamente quando le probabilit` a sono anche leggermente contrarie. Se si `e obbligati a scommettere avendo le probabilit` a avverse (p < 1/2), allora il miglior modo per sperare di raddoppiare il capitale ` e scommettere tutto subito! Riassumendo, se si vuole raddoppiare il capitale (s = 2k), si hanno tre casi: • se p < q, allora r > 1 e Rk =
rk − 1 1; − r−k
rk
1 , ∀k; 2
• se p = q, allora r = 1 e Rk = • se p > q, allora r < 1 e Rk =
rk − 1 0. − r−k
rk
Osserviamo che la funzione k → Rk non descrive una storia di scommesse successive, ma corrisponde alla dipendenza dalla somma iniziale k (0 ≤ k ≤ s) della probabilit` a Rk di rovinarsi in alternativa al raggiungimento della somma s. Soluzione 2.36 Con le notazioni dell’Esercizio 1.14, grazie al Teorema 2.56: A2n−2 Bessel: I coefficienti di indice dispari sono nulli. Inoltre, da A2n = − 4n (n + k) segue (−1)n k! A0 A2n = n! (n + k)!22n Hermite: Posto m!! = m (m − 2) (m − 4) . . . , da An+2 = An = 0 se e solo se n < k, e si ottiene A2n = (−1)n
2n (k − 2n)!! A0 (2n)!
A2n+1 = (−1)n
2 (n − k) An pu` o essere (n + 1) (n + 2) 2n (k − 2n − 1)!! A1 (2n + 1)!
Dunque, la soluzione `e un polinomio di grado minore o uguale a k − 1 n−k Laguerre: da An+1 = An pu` o essere An = 0 se e solo se k < n inoltre (n + 1)2 (−1)n k An = A0 n! k−n n (n + 1) − k (k + 1) (n − k) (n + k + 1) An = An pu` o essere (n + 1) (n + 2) (n + 1) (n + 2) An = 0 se e solo se n < k e per ogni n > 0 Legendre: da An+2 =
A2n = (−1)n
(k − 2n + 2)!! (k + 2n − 1)!! A0 (2n)!
A2n+1 = (−1)n
(k − 2n + 1)!! (k + 2n)!! A1 . (2n + 1)!
308
8 Soluzioni degli esercizi
Soluzione 2.37 Il valore attuale VA di un pagamento di importo (o valore nominale) VN effettuato dopo n anni ipotizzando un regime ad interessi composti con un tasso d’interesse costante r `e dato dalla formula VA = VN (1 + r)−n . La scelta del valore r opportuno non `e semplice ed una sua corretta determinazione `e importante per l’efficacia del modello. Per ogni singolo caso esisteranno valori adeguati. Ad esempio, per valutare l’opportunit` a di effettuare un investimento il tasso r per l’attualizzazione pu` o essere scelto pari al rendimento di titoli di stato di durata compatibile con l’investimento considerato. Tornando all’esercizio: Ak =
1 1 1 1 1 − (1 + r)−k 1 − (1 + r)−k + . = 2 +···+ −1 = k 1+r 1 + r 1 − (1 + r) r (1 + r) (1 + r)
Dunque
Ak =
1 − vk r
v = (1 + r)−1
Se Ak `e il valore attuale a tasso composto r di una rendita di k rate unitarie alle scadenze 1, . . . , k, allora Ak+1 si ottiene aggiungendo ad Ak il valore attuale delle rata unitaria riscossa al tempo k + 1: Ak+1 = Ak + (1 + r)−k+1 = Ak + v k+1 e applicando la formula dell’Osservazione 2.60 si ritrova il risultato sopra determinato. Se r = rk , allora Ak =
k
n=1
1 (1 + rk )n
Ak+1 = Ak + (1 + rk )−k+1 .
Utilizzando la formula dell’esercizio precedente, si ricava la 1 − vk relazione M = Q da cui r Soluzione 2.38
Q=
Mr 1 − vk
v = (1 + r)−1
Soluzione 2.39 a) Poich´e τk > 0, risulta rk ∈ [1, 5 , 15]. Il tasso dell’1, 5% si dice floor dell’obbligazione. b) Si deve soddisfare l’equazione 100 Pk = rk τk
8.2 Soluzioni degli esercizi del Capitolo 2
309
Di conseguenza, nelle ipotesi semplificatorie effettuate, tale prezzo dovrebbe essere Pk = 100 max {1, 5 , 15 − 2τk } /τk . Osserviamo l’elevata volatilit` a del titolo: se τk = 7, 25 allora Pk si riduce a 20, 68 (in base 100) cio`e si subisce una grossa perdita; ma, se τk → 0 allora il prezzo tende ` chiaro che i valori di Pk variano molto anche se τk varia poco (effetto a +∞. E leva). c) Pk + 100 (r1 + r2 + · · · + rk−1 ). Vendendo il titolo a scadenza si ottiene il valore 100 (1 + r1 + · · · + r10 ). d) 100 (1 + 5 + 5, 1 + 5, 2 + 4, 9 + 4 + 3 + 2, 5 + 2, 6 + 4 + 7, 5) Soluzione 2.40 Poich´e `e possibile riordinare i termini delle serie assolutamente convergenti, si ha: +∞ +∞ k k
1 1 Xh Yk−h = X Y = = h k−h zk zk z h z k−h k=0 k=0 h=0 k=0 h=0 +∞ +∞ +∞ +∞
Xh
Ys Xh Ys = = = Z {X} Z {Y } zh zs zh zs s=0 s=0
Z {X ∗ Y } =
+∞
(X ∗ Y )k
h=0
h=0
Soluzione 2.41 Dalla formula del binomio di Newton segue che k
k k m ∈ N. mk−s (m + 1) = s s=0 Sostituendo in tale formula successivamente al posto di m i primi n numeri interi positivi e sommando tali relazioni, si ricava: n k n n k k
k k k−s k k k−s (m + 1) = = m = m Sk−s s s m=1 s m=1 m=1 s=0 s=0 s=0 che si riscrive come
k
k k Sk − 1 + (n + 1) = Sk + Sk−s 0 s s=1 k
da cui si ricava Sk−1
k
k = (n + 1) − 1 Sk−s . s s=2 k
Soluzione 2.42 Se n = 2, allora det
0
1 μ1 1 μ2
1 = μ2 − μ1
Se n = 3, allora sostituendo μ al posto di μ1 nella matrice ⎤ ⎡ 1 μ1 μ21 ⎣ 1 μ2 μ22 ⎦ 1 μ3 μ23
310
8 Soluzioni degli esercizi
calcolando il determinante, otteniamo un polinomio P (μ) di secondo grado. Se si sostituisce l’incognita μ anche al posto di μ2 oppure di μ3 il determinante si annulla o significa che vale l’uguaglianza P (μ) = e dunque μ2 e μ3 sono radici di P (μ). Ci` a (μ − μ2 ) (μ − μ3 ) dove a `e il coefficiente del termine di secondo grado μ2 di P . Dunque a coincide con il complemento algebrico di μ21 e di conseguenza ⎡ ⎤ 1 μ1 μ21 2 det ⎣ 1 μ2 μ2 ⎦ = (μ3 − μ2 ) (μ1 − μ2 ) (μ1 − μ3 ) . 1 μ3 μ23 La formula relativa al caso di dimensione n si ottiene analogamente, supponendo nota quella del caso di dimensione n − 1. Soluzione 2.43 Z
1 k!
7 =
+∞ k=0
1 = e1/z . z k k!
8.3 Soluzioni degli esercizi del Capitolo 3 Soluzione 3.3
7 7 2 4 8 2 4 6 , , , , , . 7 7 7 9 9 9
Soluzione 3.4 Osserviamo che X1 − X0 =
√ X0 + 2 − X02 X0 + 2 − X0 = √ ≥0 X0 + 2 + X0
⇔
−2 ≤ X0 ≤ 2.
Proviamo che {Xk } `e strettamente crescente per λ ∈ [−2, 2). A questo scopo, dopo aver notato che la successione `e a termini positivi, verifichiamo che se X0 ∈ [−2, 2) allora Xk < 2 per ogni k ∈ N. Infatti, X0 ∈ [−2, 2); inoltre se si suppone, per k ≥ 1, (ipotesi di induzione) che Xk < 2 si ottiene: √ √ Xk+1 = Xk + 2 < 2 + 2 = 2. Mostriamo ora che, se X0 ∈ [−2, 2), allora {Xk } `e una successione crescente . Per ogni k ≥ 1, si ha: √ Xk+1 − Xk = Xk + 2 − Xk = Xk + 2 − Xk2 = √ = Xk + 2 + Xk
moltiplicando e dividendo per
Xk +2+Xk
fattorizzando
− (Xk + 1) (Xk − 2) √ ≥ Xk + 2 + Xk ≥ 0. =
√
perch´ e Xk 2, verificando che si ottiene una successione (decrescente e) convergente ad α = 2.
8.3 Soluzioni degli esercizi del Capitolo 3 Soluzione 3.6 Iterando:
311
3 2 X1 = − (X0 )3 = −X03 , X2 = − −X03 = (−1)2 (X0 )3 = X09 . k
Xk = (−1)k (X0 )3
k ∈ N.
Soluzione 3.7 Per prima cosa disegnamo il grafico della funzione f : R → R, f (x) = (x + |x|) /4.
Figura 8.5 Grafico di f (x) = (x + |x|) /4 L’unico punto di equilibrio `e α = 0. Se X0 < 0, allora X1 = f (X0 ) = 0 e dunque Xk = 0 per ogni k ∈ N. Se X0 > 0, l’analisi grafica suggerisce che la successione {Xk } sia decrescente e convergente a 0: la conferma pu` o essere ottenuta per induzione. Soluzione 3.8 Il sistema dinamico presenta due equilibri: α1 = −π e α2 = π. Dall’analisi grafica si deduce che qualunque sia il dato iniziale in (−π, π) la successione corrispondente {Xk } risulta crecente e convergente a π. Soluzione 3.9 Proviamo gli algoritmi nel caso pi` u generale f : I → I, I ⊆ R intervallo chiuso. Algoritmo I. Sia X0 ≤ X1 . Dimostriamo che X `e crescente, procedendo per induzione. Per k = 1 la relazione `e vera per ipotesi. Se (ipotesi di induzione) Xk−1 ≤ Xk , poich´e f `e crescente, si ricava f (Xk−1 ) ≤ f (Xk ) che equivale a Xk ≤ Xk+1 . Allo stesso modo si procede se X0 ≥ X1 . Sia ora f crescente e continua sull’intervallo chiuso I, e X0 < X1 . Se I ha estremo superiore b ∈ R, allora, per il Teorema 3.20, f ammette almeno un punto fisso in [X0 , b]. L’insieme dei punti fissi di f su [X0 , b] `e sicuramente limitato (perch´e `e limitato [X0 , b]), `e non vuoto (perch´e f ammette almeno un punto fisso). Quindi, l’insieme dei punti fissi di f ammette estremo inferiore, diciamo α, che `e anche minimo. Infatti, se {αn } `e una successione di punti fissi tale che αn → α per n → +∞, o implica dalla continuit` a di f segue f (αn ) → f (α) ed essendo f (αn ) = αn , ∀n, ci` f (α) = α ovvero α appartiene all’insieme dei punti fissi.
312
8 Soluzioni degli esercizi
Verifichiamo ora che Xk ≤ α per ogni k. Se k = 0, la relazione `e vera perch´e α ∈ (X0 , b]. Se (ipotesi di induzione) Xk ≤ α , dato che f `e crescente, si ha Xk+1 = f (Xk ) ≤ f (α) = α. In conclusione, X `e una successione crescente e limitata superiormente: dunque, essa ammette limite finito L ≤ α. Ma essendo f continua, per il Teorema 3.22 L `e punto fisso per f e non potendo essere minore di α si ricava L = α. Infine, se I `e illimitato superiormente, e f non ammette punti fissi “a destra” di X0 , X risulter` a una successione illimitata, perch´e altrimenti il suo limite sarebbe punto fisso di f . Procedendo allo stesso modo si dimostra il caso X1 < X0 . Algoritmo II. La funzione g = f ◦ f = f 2 risulta crescente, e X2k = f (X2k−1 ) implica X2k+1 = f (X2k ) = g (X2k−1 ) . Concludiamo cos`ı che la successione {X2k+1 } `e definita per ricorrenza mediante la funzione crescente g e le conclusioni seguono dall’Algoritmo I. Allo stesso modo si procede per {X2k }. Sia ora X1 ≤ X2 . Supponendo che, per k ≥ 1 fissato, sia X2k−1 ≤ X2k , si deduce X2k+1 = g (X2k−1 ) ≤
perch´ eg ` e crescente e X2k−1 ≤X2k
≤ g (X2k ) = X2k+2 . Per il principio di induzione risulta cos`ı X2k−1 ≤ X2k per ogni k ≥ 1. Soluzione 3.11 La funzione f : R → R definita da f (x) = |x − 1| /2 ammette un unico punto fisso α = 1/3, soluzione di x∈R:
|x − 1| = x. 2
Poich´e f `e una contrazione (con costante 1/2), il Teorema 3.28 permette di concludere che qualunque sia il dato iniziale X0 ∈ R la successione corrispondeno dedurre che la te Xk = f (Xk−1 ) converge ad 1/3. Dall’analisi grafica si pu` convergenza non `e monot` ona. Soluzione 3.12 Con la prima strategia (quantit` a prefissata): ) 2 f (x) = (1 + a) x − ax − b, gli equilibri sono α1,2 = 1 ± 1 − 4b/a /2 , e • se 0 < b < a/4, allora vi sono due equilibri positivi: α1 > α2 > 0, con α1 stabile e attrattivo e α2 repulsivo; • se b = a/4, allora α1 = α2 = 1/2 che `e instabile; • se b > a/4, allora non vi sono equilibri. Riassumendo, il massimo pescato sostenibile con la prima strategia ` e a/4, che per` o corrisponde ad una situazione instabile. Con la seconda strategia (proporzione fissata), f (x) = (1 + a − r) x − ax2 , gli equilibri sono α2 = 0, α1 = 1 − r/a, f (α1 ) = 1 − a + r, α1 stabile se 0 < r < a (la condizione r > a − 2 `e automatica se a < 2, dovendo essere r ∈ (0, 1)). Dunque, con
8.3 Soluzioni degli esercizi del Capitolo 3
313
la seconda strategia Pmax (a) =
max [a−2,a]∩[0,1]
rα1 =
a/4 0≤a≤2 1 − 1/a a > 2
.
Osserviamo che la quantit` a massima di pescato Pmax (a) `e funzione crescente di a. Osserviamo inoltre che se a > 2 pu` o convenire la prima strategia, a condizione di non eccedere... . Soluzione 3.14 Gli eventuali equilibri sono soluzione dell’equazione x∈R:
(1 − a) x = b.
Se a = 1 e b = 0, ogni c ∈ R `e di equilibrio; se a = 1 e b = 0, non ci sono punti di equilibrio; infine, se a = 1, vi `e un solo punto di equilibrio: c = b/ (1 − a). Per quanto riguarda la stabilit` a, se a = 1 e b = 0, ogni punto di equilibrio `e stabile ma non attrattivo; se a = 1, poich´e g (x) = a, per il Teorema 3.53, ogni punto di equilibrio `e globalmente asintoticamente stabile se |a| < 1, repulsivo se |a| > 1. Si confrontino i risultati ottenuti con grafici e commenti del paragrafo 2.1. Soluzione 3.15 Utilizziamo l’Algoritmo II. 4 La funzione f (x) = 1 − arctan x `e continua e strettamente decrescente, con π −1 < 1 −
4 arctan x < 1 π
∀x ∈ R .
4 ` necessario allora Se Y0 = 4, allora Y1 = 1 − arctan 4 = Y0 , e anche Y2 < Y0 . E π determinare eventuali punti fissi di
4 4 f 2 (x) = 1 − arctan 1 − arctan x . π π Osserviamo che f 2 (0) = 0 e f 2 (1) = 1. Inoltre:
16 f 2 (x) = 2 π
1
2 4 (1 + x2 ) 1 + 1 − arctan x π
e quindi f 2 (x) < 1 per ogni x ≥ 1: a destra di x = 1 non vi sono altri punti fissi 2 di f . Allora, per l’Algoritmo II, si deduce che Y2k 1 e Y2k+1 f (1) = 0. Soluzione 3.16 Tracciando il grafico della funzione f : R → R definita da f (x) = 2 x + 4 /3 ci si rende conto che non esistono punti di equilibrio: qualunque sia a ≥ 0, la successione risulta crescente e non limitata, quindi divergente a +∞. In effetti, ∀a ≥ 0, si ha: Yk+1 − Yk =
Yk2 + 4 1 2 − Yk = Yk − 3Yk + 4 ≥ 0 3 3
∀k ∈ N
dato che il discriminante del polinomio di secondo grado in parentesi ` e negativo.
314
8 Soluzioni degli esercizi
Inoltre, poich´e 4Yk ≤ Yk2 + 4 la differenza fra due termini consecutivi cresce con k Yk+1 − Yk =
1 2 1 Yk − 3Yk + 4 ≥ Yk 3 3
e quindi la successione non `e superiormente limitata. Soluzione 3.17 Tracciando il grafico della funzione f : R → R definita da f (x) = 2 x + 6 /5, ci si rende conto della presenza di due punti di intersezione, in x = 2 e x = 3, fra il suo grafico e la bisettrice del primo e terzo quadrante. Ci` o significa che vi sono due punti di equilibrio: se a = 2
Yk = 2
∀k ∈ N
se a = 3
Yk = 3
∀k ∈ N.
Da un’analisi grafica si deduce che il primo equilibrio `e attrattivo, il secondo `e repulsivo e, pi` u precisamente: • se |a| < 3, allora limk Yk = 2; • se |a| > 3, allora limk Yk = +∞. Cerchiamo una conferma analitica di tali risultati. Grazie al Teorema 3.53, dato che f (2) =
4 1 5
deduciamo che α = 2 `e un equilibrio localmente asintoticamente stabile, mentre α = 3 `e repulsivo. Inoltre, poich´e f , per x > 0, `e strettamente crescente, grazie all’Algoritmo I si deduce che: • poich´e Y1 < Y0 = a per ogni a ∈ (2, 3), si ha limk Yk = 2; • poich´e Y1 > Y0 per ogni a ∈ (0, 2), segue che limk Yk = 2; • poich´e Y1 > Y0 per ogni a ∈ (3, +∞), segue che Yk +∞. I risultati nel caso x < 0 si ottengono per simmetria dai precedenti. Soluzione 3.18 Per prima cosa, tracciamo il grafico della funzione f : R → R, f (x) = 2x exp (−x/2). A tale scopo, notiamo che lim f (x) = 0+ ;
lim f (x) = −∞
x→−∞
x→+∞
f (x) = e−x/2 (2 − x)
f (x) = e−x/2
e quindi f (x) ≥ 0
f (x) ≥ 0
⇔
x≤2
⇔
x ≥ 4.
x 2
−2
8.3 Soluzioni degli esercizi del Capitolo 3
315
Figura 8.6 Grafico di xe−x/2 Per determinare eventuali punti fissi, osserviamo che f (0) = 0 e f (0) = 2. Ci` o significa che, per x > 0, il grafico della funzione identit` a interseca il grafico di f in un solo punto, diciamo x. Inoltre, poich´e 2 f (1) = √ > 1 = f (1) e
f (2) =
4 < 2 = f (2) e
si ha 1 < x < 2. Da quanto sopra ricavato, per l’Algoritmo I, la successione Y converge a x, se 0 < a < x oppure x < a ≤ 2. Se a > 2, poich´e necessariamente Y1 = f (Y0 ) < 2 si rientra nel caso precedente e quindi di nuovo si ha convergenza al valore x. √ Soluzione 3.19 Per ogni Y0 = a > b la successione calcolata per ricorrenza da
1 b Yk + ∀k ∈ N Yk+1 = 2 Yk √ `e ben definita. Infatti, si prova per induzione, che √ Yk > b, ∀k ∈ N. Per k = 1, l’affermazione `e vera per ipotesi. Supposto ora Yk > b (ipotesi di induzione), si ha:
√ √ 1 b Yk + − b= Yk+1 − b = 2 Yk √ quadrato del binomio 1 2 Yk − 2 bYk + b = = 2Yk √ 2 ipotesi di induzione 1 Yk − b > = 2Yk > 0.
316
8 Soluzioni degli esercizi
La successione Y `e strettamente decrescente. Infatti, per ogni k ≥ 1, √ √
b − Yk b + Yk 1 b b − Yk2 = b>0 2 = k < 2Yk 2k . < √ 2 b
√ Posto β = 2 b, risulta k+1 < β
k β
2